seo e web marketing - 1 | webmaster & webdesigner

of 28 /28
SEO e Web Marketing [1] Matteo Magni

Author: matteo-magni

Post on 29-Nov-2014

323 views

Category:

Technology


0 download

Embed Size (px)

DESCRIPTION

Prima lezione modulo SEO e Web Marketing del corso per WebMaster & WebDesigner

TRANSCRIPT

  • 1. SEO e Web Marketing [1]Matteo Magni
  • 2. SEOCon il termine ottimizzazione (SearchEngine Optimization, SEO, in inglese) siintendono tutte quelle attivit finalizzate adaumentare il volume di traffico che un sitoweb riceve dai motori di ricerca. Taliattivit comprendono lottimizzazione siadel codice sorgente della pagina, sia deicontenuti. (wikipedia)
  • 3. DirectoryIn principio cerano le directoryDmoz: una web directory multilingue acontenuto aperto di propriet della TimeWarner e mantenuta da una comunitvirtuale di redattori volontari. Scopo delladirectory essenzialmente la raccolta eindicizzazione di hyperlinks reperiti nelWorldWideWeb.Yahoo Google
  • 4. Motori di Ricerca Con laumento dei siti web non era possibile censirli tutti, serviva un modo per rispondere allesigenza degli utenti di trovare velocemente la risorsa adatta ai propri bisogni
  • 5. Motori di RicercaUn motore di ricerca (ininglese search engine) un Googlesistema automatico cheanalizza un insieme di dati Yahoospesso da esso stessoraccolti e restituisce un Bingindice dei contenuti Altavistadisponibili classificandoli inbase a formule statistico- Askmatematiche che neindichino il grado di Virgiliorilevanza data unadeterminata chiave di ...ricerca. (Wikipedia)
  • 6. Spider, Crawler, Robot Un crawler (detto anche spider o robot), un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca. I crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice. (Wikipedia)
  • 7. SERP Search engine results page (abbreviata in SERP) significa "pagina dei risultati del motore di ricerca". Ogni qualvolta un utente effettua una ricerca con un motore, infatti, ottiene come risposta un elenco ordinato.
  • 8. ParametriI parametri che influenzano le serp sono molti, ma pssoiamo dividerli in due categorie: Fattori interni Fattori Esterni On-page Off-Page
  • 9. Key Words?!?!?Magia, mistero, apparizioni, sparizioni
  • 10. Da dove partiamo?Prima di tutto pensiamo a chi si rivolge ilnostro sito, non ai motori di ricerca. Il cliente prima di tutto
  • 11. Utenti e Search engine Come usano gli utenti i motori di ricerca?http://shinynews.it/marketing/1107-chiavi-motori.shtmlsolo il 42% delle ricerche fatto con unasola parola chiave.Questo dato in costante calo e googlesuggest ha dato una grossa mano a tuttoci.
  • 12. Perch no le chiavi singole?Utente: Non trova quasi mai la risorsa che cercaSEO: Utenza troppo vasta, quindi difficile da accontentare Troppa concorrenza
  • 13. Long TailLa coda lunga un concetto elaborato da ChrisAnderson nel 2004.Invece che produrre un numero limitato di oggetti davendere a pi persone possibile si tenta di produrreper quelle persone disposte a comprare oggettimeno conosciuti. Secondo Anderson questi individuisono tanti da poter avere una massa critica moltoimportante.
  • 14. Long Tail [2] Nel SEO ci si riferisce a chiavi, di solito composte da pi parole, che portano poco traffico ma spesso ci permettono di soddisfare appieno lutente che ci trova.
  • 15. StrumentiGoogle Adwordshttp://adwords.google.it/select/KeywordToolExternalGoogle Trendshttp://www.google.com/trendsGoogle Trends for Websiteshttp://trends.google.com/websitesGoogle Suggest
  • 16. Progettinososacroniro
  • 17. Scelta del nomeLa scelta del nome non certo la sceltapi importante ma pu essere daiutonellindicizzazione. Nome brand se gi esistente offlineSe un progetto nuovo invece: Facile da ricordare Attinente allargomento del sito Facilemente comprensibilequando viene pronunciato
  • 18. Estensioni Le estensioni hanno per i motori lo stesso valore, ma se mi riferisco al mercato italiano avere lestensione .it probabilmente sar vista meglio dai miei utenti che avere lestensione .fr
  • 19. IndicizzazioneI metodi usati dai motori di ricerca sonoprincipalmente questi: Spider Suggerisci URL Sitemap RSS
  • 20. Sitemap http://www.sitemaps.org/it/Le Sitemap consentono ai webmaster di indicare ai motori di ricercale pagine dei loro siti disponibili per la scansione. Nella sua formapi semplice, una Sitemap un file XML contenente gli URL di unsito insieme ai rispettivi metadati aggiuntivi (data dellultimoaggiornamento, frequenza tipica delle modifiche, importanzarispetto agli altri URL del sito) che consente ai motori di ricerca dieseguire la scansione del sito in modo pi efficiente.In genere, i crawler web individuano le pagine dai link presenti sulsito e da altri siti. Questi dati vengono aggiunti per consentire aicrawler che supportano Sitemaps di selezionare tutti gli URL nellaSitemap e di ottenere informazioni relative a tali URL tramite imetadati associati. Lutilizzo del Protocollo Sitemap non garantiscelinclusione delle pagine web nei motori di ricerca, ma facilita ilprocesso di scansione del tuo sito da parte dei crawler web.
  • 21. Rss e PingRSS (Really Simple Syndication) uno dei pi popolariformati per la distribuzione di contenuti Web; basato suXML, da cui ha ereditato la semplicit, lestensibilit e laflessibilit. Lapplicazione principale per cui noto sono iflussi RSS che permettono di essere aggiornati su nuoviarticoli o commenti pubblicati nei siti di interesse senzadoverli visitare manualmente uno a uno.Il Ping corrisponde ad una notifica inviata, in modoautomatico o manuale, per avvertire chi interessatodelle novit sul feed
  • 22. Indicizzazione problemi Javascript Alcuni link flash Ajax, silverlight, iframe Tipi di file indicizzatihttp://support.google.com/webmasters/bin/answer.py?hl=it&answer=35287 Flash e contenuti multimedialihttp://support.google.com/webmasters/bin/answer.py?hl=it&answer=72746 Ajaxhttp://support.google.com/webmasters/bin/answer.py?hl=it&answer=174992
  • 23. Robots.txtIl file robots.txt contiene delle regole utilizzate dai crawler (dettianche spider) per applicare restrizioni di analisi sulle pagine di unsito internet.I web crawler sono dei software automatici programmati pereffettuare ricerche ed indicizzazioni periodiche. Nella prima fase dianalisi di un sito web controllano lesistenza del file robots.txt perapplicare eventuali restrizioni richieste dal webmaster del sito.Il file robots.txt stato creato nel giugno 1994 con il consenso deimembri della robots mailing list ([email protected]).In questo momento non esiste un vero e proprio standard per ilprotocollo robots. (wikipedia)User-agent: *Disallow: /
  • 24. robots.txt [2]User-Agentil valore di questo campo contiene il nome del robot chesi deve attenere alle restrizioni. Con il carattere * laregola viene applicata a qualsiasi robot.Disallowil valore di questo campo contiene le pagine del sito chedevono essere escluse dai robot durante lindicizzazione.Si pu indicare un URL specifico o una serie di URLappartenenti ad un pattern.Per ogni User-Agent possibile specificare una o pirestrizioni tramite Disallow.
  • 25. NoFollow
  • 26. Domande Slide:http://www.slideshare.net/ilbonzo Code:https://github.com/ilbonzo/Cypher mail: [email protected]
  • 27. Domande? Slide: http://cypher.informazione.me/ Code:https://github.com/inFormazione/Cypher/ mail: [email protected]