seo e web marketing - 1 | webmaster & webdesigner

Post on 29-Nov-2014

325 Views

Category:

Technology

0 Downloads

Preview:

Click to see full reader

DESCRIPTION

Prima lezione modulo SEO e Web Marketing del corso per WebMaster & WebDesigner

TRANSCRIPT

SEO e Web Marketing [1]Matteo Magni

SEO

Con il termine ottimizzazione (Search Engine Optimization, SEO, in inglese) si intendono tutte quelle attività finalizzate ad aumentare il volume di traffico che un sito web riceve dai motori di ricerca. Tali attività comprendono l'ottimizzazione sia del codice sorgente della pagina, sia dei contenuti. (wikipedia)

Directory

“In principio c'erano le directory”

Dmoz: è una web directory multilingue a contenuto aperto di proprietà della Time Warner e mantenuta da una comunità virtuale di redattori volontari. Scopo della directory è essenzialmente la raccolta e indicizzazione di hyperlinks reperiti nel WorldWideWeb.

Yahoo

Google

Motori di Ricerca

Con l'aumento dei siti web non era possibile censirli tutti, serviva un modo per rispondere all'esigenza degli utenti di trovare velocemente la risorsa adatta ai propri bisogni

Motori di RicercaUn motore di ricerca (in inglese search engine) è un sistema automatico che analizza un insieme di dati spesso da esso stesso raccolti e restituisce un indice dei contenuti disponibili classificandoli in base a formule statistico-matematiche che ne indichino il grado di rilevanza data una determinata chiave di ricerca. (Wikipedia)

Google

Yahoo

Bing

Altavista

Ask

Virgilio

...

Spider, Crawler, Robot

Un crawler (detto anche spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca. I crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice. (Wikipedia)

SERP

Search engine results page (abbreviata in SERP) significa "pagina dei risultati del motore di ricerca". Ogni qualvolta un utente effettua una ricerca con un motore, infatti, ottiene come risposta un elenco ordinato.

Parametri

Fattori interni

On-page

Fattori Esterni

Off-Page

I parametri che influenzano le serp sono molti, ma pssoiamo dividerli in due categorie:

Key Words?!?!?

“Magia, mistero, apparizioni, sparizioni”

Da dove partiamo?

Prima di tutto pensiamo a chi si rivolge il nostro sito, non ai motori di ricerca.

Il cliente prima di tutto

Utenti e Search engine

http://shinynews.it/marketing/1107-chiavi-motori.shtml

“solo” il 42% delle ricerche è fatto con una sola parola chiave.

Questo dato è in costante calo e google suggest ha dato una grossa mano a tutto ciò.

Come usano gli utenti i motori di ricerca?

Perché no le chiavi singole?

Utente:– Non trova quasi mai la risorsa che cerca

SEO:– Utenza troppo vasta, quindi difficile da

accontentare– Troppa concorrenza

Long Tail

La coda lunga è un concetto elaborato da Chris Anderson nel 2004.

Invece che produrre un numero limitato di oggetti da vendere a più persone possibile si tenta di produrre per quelle persone disposte a comprare oggetti meno conosciuti. Secondo Anderson questi individui sono tanti da poter avere una massa critica molto importante.

Long Tail [2]

Nel SEO ci si riferisce a chiavi, di solito composte da più parole, che portano poco traffico ma spesso ci permettono di soddisfare appieno l'utente che ci trova.

Strumenti

Google Adwords

http://adwords.google.it/select/KeywordToolExternal

Google Trends

http://www.google.com/trends

Google Trends for Websites

http://trends.google.com/websites

Google Suggest

Progettino

sosacroniro

Scelta del nomeLa scelta del nome non è certo la scelta più importante ma può essere d'aiuto nell'indicizzazione.• Nome brand se già esistente offline

Se è un progetto nuovo invece:• Facile da ricordare• Attinente all'argomento del sito• Facilemente comprensibile

quando viene pronunciato

Estensioni

Le estensioni hanno per i motori lo stesso valore, ma se mi riferisco al mercato italiano avere l'estensione .it probabilmente sarà vista meglio dai miei utenti che avere l'estensione .fr

Indicizzazione

I metodi usati dai motori di ricerca sono principalmente questi:

– Spider– Suggerisci URL– Sitemap– RSS

Sitemaphttp://www.sitemaps.org/it/

Le Sitemap consentono ai webmaster di indicare ai motori di ricerca le pagine dei loro siti disponibili per la scansione. Nella sua forma più semplice, una Sitemap è un file XML contenente gli URL di un sito insieme ai rispettivi metadati aggiuntivi (data dell'ultimo aggiornamento, frequenza tipica delle modifiche, importanza rispetto agli altri URL del sito) che consente ai motori di ricerca di eseguire la scansione del sito in modo più efficiente.

In genere, i crawler web individuano le pagine dai link presenti sul sito e da altri siti. Questi dati vengono aggiunti per consentire ai crawler che supportano Sitemaps di selezionare tutti gli URL nella Sitemap e di ottenere informazioni relative a tali URL tramite i metadati associati. L'utilizzo del Protocollo Sitemap non garantisce l'inclusione delle pagine web nei motori di ricerca, ma facilita il processo di scansione del tuo sito da parte dei crawler web.

Rss e Ping

RSS (Really Simple Syndication) è uno dei più popolari formati per la distribuzione di contenuti Web; è basato su XML, da cui ha ereditato la semplicità, l'estensibilità e la flessibilità. L'applicazione principale per cui è noto sono i flussi RSS che permettono di essere aggiornati su nuovi articoli o commenti pubblicati nei siti di interesse senza doverli visitare manualmente uno a uno.

Il Ping corrisponde ad una notifica inviata, in modo automatico o manuale, per avvertire chi è interessato delle novità sul feed

Indicizzazione problemi

– Javascript– Alcuni link flash– Ajax, silverlight,

iframe

Tipi di file indicizzatihttp://support.google.com/webmasters/bin/answer.py?hl=it&answer=35287

Flash e contenuti multimediali http://support.google.com/webmasters/bin/answer.py?hl=it&answer=72746

Ajaxhttp://support.google.com/webmasters/bin/answer.py?hl=it&answer=174992

Robots.txtIl file robots.txt contiene delle regole utilizzate dai crawler (detti anche spider) per applicare restrizioni di analisi sulle pagine di un sito internet.

I web crawler sono dei software automatici programmati per effettuare ricerche ed indicizzazioni periodiche. Nella prima fase di analisi di un sito web controllano l'esistenza del file robots.txt per applicare eventuali restrizioni richieste dal webmaster del sito.

Il file robots.txt è stato creato nel giugno 1994 con il consenso dei membri della robots mailing list (robots-request@nexor.co.uk).

In questo momento non esiste un vero e proprio standard per il protocollo robots. (wikipedia)

User-agent: *

Disallow: /

robots.txt [2]

User-Agent

il valore di questo campo contiene il nome del robot che si deve attenere alle restrizioni. Con il carattere * la regola viene applicata a qualsiasi robot.

Disallow

il valore di questo campo contiene le pagine del sito che devono essere escluse dai robot durante l'indicizzazione. Si può indicare un URL specifico o una serie di URL appartenenti ad un pattern.

Per ogni User-Agent è possibile specificare una o più restrizioni tramite Disallow.

NoFollow

<a href=”sito.it” rel=”nofollow”

Nella bozza di HTML5 è stato aggiunto il l'attributo rel con valore NoFollow

Nofollow è un valore assegnabile all'attributo rel dell'oggetto HTML a per indicare ai motori di ricerca che un Collegamento ipertestuale non deve influenzare la classificazione della pagina web del collegamento nell'indice dei motori di ricerca stessi. (wikipedia)

Domande

Slide:

http://www.slideshare.net/ilbonzo

Code:

https://github.com/ilbonzo/Cypher

mail:

matteo@magni.me

Domande?

Slide:

http://cypher.informazione.me/

Code:

https://github.com/inFormazione/Cypher/

mail:

matteo@magni.me

top related