manual de seohinno.com.br/manual_de_seo_1.2.pdfrobots.txt como o próprio nome já diz, robots.txt...

30
Manual de SEO Versão Revisão Data 1.0 Darlei 07/11/2014 1.1 Darlei 25/11/2014 1.2 Darlei 04/07/2015 Página 1 de 30

Upload: others

Post on 19-Apr-2020

3 views

Category:

Documents


0 download

TRANSCRIPT

Manual de SEO

Versão Revisão Data

1.0 Darlei 07/11/2014

1.1 Darlei 25/11/2014

1.2 Darlei 04/07/2015

Página 1 de 30

Sumário Versão ....................................................................................................................... 1

Revisão ...................................................................................................................... 1

1 - Introdução .................................................................................................................... 3

1.1 O que é SEO .............................................................................................................. 4

1.2 Porque fazer SEO? ..................................................................................................... 5

1.3 Como funciona o Google ........................................................................................... 5

1.4 Princípios de SEO ...................................................................................................... 6 2 – Métodos de Otimização................................................................................................. 7

2.1- On Page ................................................................................................................... 7

2.2- Off Page .................................................................................................................. 8

2.3 - Autoridade do Domínio ........................................................................................... 9

2.4 - Robots e Sitemaps ................................................................................................... 9

2.5 - Palavras-chave ....................................................................................................... 14

2.6 - Pagerank ............................................................................................................... 15

2.7 - Rich Snippets e Dados Estruturados ......................................................................... 15

2.8 - White Hat e Black Hat ............................................................................................. 16

2.9 - Imagens ................................................................................................................. 17 3 – Ferramentas de Acompanhamento ............................................................................... 18

3.1 - Webmasters .......................................................................................................... 18

3.2 - Analytics ................................................................................................................ 19

3.3 - Adwords ................................................................................................................ 20

3.4 - Trends ................................................................................................................... 21

3.5 – Searhmetrics Suite ................................................................................................. 22

3.6 – MOZ ..................................................................................................................... 23

3.7 - Search Engine Spam Detector ................................................................................. 23

3.8 - Copyscape ............................................................................................................. 24

3.9 SEMRush (Paga) ....................................................................................................... 24

3.10 – Outras Ferramentas ............................................................................................. 25 4 – Extras .......................................................................................................................... 25

4.1 - Como criar uma estratégia de SEO........................................................................... 25

4.2 - Como Aplicar Estratégias de SEO em Seu Site ........................................................... 26

4.3 - Checklist ................................................................................................................ 28

Página 2 de 30

1 - Introdução

Este documento está embasado em um Manual de Recomendações composto

por diretrizes, ficheiros, checklists, ferramentas e exemplos práticos para fácil

entendimento e aprendizado de futuros funcionários que vierem auxiliar ou substituir

primeiramente a área de Análises de SEO da empresa, essa área é de vital importância

devido ao seu caráter de visibilidade tanto orgânica quanto paga aos olhos dos

mecanismos de busca como Google, Yahoo, Bing.

Com este documento em mãos, o novo funcionário aprenderá desde princípios

básicos até avançados da área em questão, sem a necessidade de estudos extras ou

investimentos tanto da parte da empresa quanto do funcionário.

Futuramente este tipo de técnica documentada de processos de áreas, poderá

ser aplicado em outros setores da empresa, pois o documento irá gerar maior

agilidade, menores custos em treinamentos e melhor desempenho da equipe.

Página 3 de 30

1.1 O que é SEO

Search Engine Optimization (SEO) é um conjunto de técnicas, métodos e/ou

estudos que visam melhorar o posicionamento de suas páginas no mecanismo de

busca, ou seja, quando um usuário digita no mecanismo de busca uma palavra-chave,

o objetivo do SEO é fazer com que uma (ou várias) das páginas do seu website,

apareça entre os primeiros resultados da busca orgânica. Em outras palavras mais

simples, SEO é um conjunto de técnicas que têm como principal objetivo tornar os

sites mais amigáveis para os sites de busca, trabalhando palavras-chave selecionadas

no conteúdo do site de forma que este fique melhor posicionado nos resultados

orgânicos.

É muito importante para o profissional da área não confundir os resultados orgânicos com os resultados patrocinados (pagos).

Página 4 de 30

1.2 Porque fazer SEO?

Como o objetivo de SEO está em enriquecer as páginas de conteúdos

relevantes e direcionados a termos específicos, além de trabalhar a qualidade técnica

da estrutura dessas páginas, que também melhoram a acessibilidade do site, o SEO

deve ser aplicado para melhor visibilidade das páginas do site, melhorando o número

de acessos e consequentemente as conversões da empresa.

1.3 Como funciona o Google

Links são o principio de tudo, se baseiam em textos ou imagens em que você

clica e é direcionada a outra página ou a outra área da página em que está navegando.

Geralmente, ao passar o mouse por cima de um link, o seu cursor mudará o formato, o

link aparecerá no rodapé de seu navegador internet e eventualmente um texto em

destaque aparecerá junto ao link.

O Google descobre páginas na internet seguindo links através de seu robô (Googlebot).

O resultado exibido pelo Google, é baseado em dados armazenados em seus

servidores, e não no que de fato está na internet naquele momento. É possível que o

conteúdo exibido nos resultados do Google seja diferente do que se encontra

atualmente no site, pois esse conteúdo pode ter sido alterado ou mesmo removido.

Para diminuir esse problema, os sites de busca constantemente aprimoram os seus

algoritmos e atualizam o seu índice com uma frequência cada vez maior. Quanto mais

frequente for a atualização de conteúdo do site, mais frequentemente ele será visitado

pelo Googlebot, mais rapidamente o novo conteúdo entrará no índice do Google e

mais rapidamente será exibido nos resultados de busca.

Resumindo, o índice do Google representa conteúdo da internet armazenado

em seus servidores e indexado de forma a oferecer respostas relevantes e

extremamente velozes às consultas realizadas.

Página 5 de 30

1.4 Princípios de SEO

Spiders, Bots & Crawlers (São os robôs)

Os robôs são programas que servem para analisar e indexar o conteúdo da sua página nos motores de busca.

- Eles fazem uma ‘cópia’ do site. Para isso o site precisa ser legível (Muitas imagens prejudicam a indexação, navegação por Javascript ou Flash, nunca usar Flash).

- Novos sites precisam de links (Quanto mais links tiver para ou site através de Blogs,

Redes Sociais, Sites Institucionais e etc, mais os robôs vão visitar o site para atualizar o

conteúdo).

HTML

Conheça pelo menos os princípios básicos de HTML (É muito importante!!!)

Como estruturar uma página com tags de Título, Subtítulo, Descrição do produto, Legendas, negrito, itálico, etc.

Faça um teste rápido para ver se sua loja é indexada. Escrevendo no google “site:www.meusite.com.br”

Pesquisa por palavra-chave (Keyword Research)

A pesquisa por palavra-chave(Keyword) é a base para melhorar o

posicionamento. Utilize palavras claras para descrever o site e os produtos. As

palavras-chave são a base.

Selecione as palavras certas utilizando ferramentas de pesquisa como Google Adwords e Google Trends.

Não use palavras que apenas sua empresa conhece, ou seja, termos técnicos que seus clientes não utilizam ou não sabem.(in-house)

Importante: As pessoas não buscam da mesma maneira, e sempre haverá variações

nas buscas. Conteúdo original e exclusivo ganha melhor rankeamento. Não utilize a

descrição do produto fornecido pelo fabricante crie à sua.

Página 6 de 30

2 – Métodos de Otimização

Aqui serão detalhados os métodos básicos principais para otimização do site.

2.1- On Page

On Page é a parte da otimização que devemos dar mais importância, apesar de ser muito necessária, não é tudo. Elementos Onpage a serem observados e otimizados:

Title – Head Tags – Meta tags – URL

Title- A parte mais importante do On Page. O Google Webmasters Tools

disponibiliza uma análise completa e de extrema importância que inclui títulos

duplicados e outros fatores que podem atrapalhar. O primeiro passo para otimizar o

site é otimizar o título e com um título diferente para cada página.

Head Tags- São os famosos h1, h2... até o h6, que para nós parece ser apenas

uma organização visual, mas para os robôs é uma organização de conteúdo e nível de

importância de cada sub-título.

Meta Description- É onde você vai escrever sobre aquela página, uma espécie

de resumo do que o usuário vai encontrar na página. Assim como as Head Tags, não

podem ser duplicadas, cada página com a sua Meta Description. Outra questão de

extrema importância nessa tag, é que ela não pode passar de 160 caracteres. Pode

chegar o mais próximo possível, de preferência que seja de 160 caracteres exatos, mas

não pode passar. Essa é a descrição que vai aparecer abaixo do título do site no

resultado de busca orgânica do Google e o que passar de 160 não será exibido.

Página 7 de 30

URL- A URL deve conter o menor número de caracteres possíveis, o menor

número de separadores e ainda ter muita informação, sem dúvidas é mais fácil do que

parece. É muioto importante também, que a URL tenha separadores em forma de

hífen (-) e não de underscore ou underline como é conhecida (_), pois os robôs não

consideram underscores como separadores de palavras.

2.2- Off Page

Ao contrário página On SEO, SEO fora da página refere-se a atividades fora dos limites da página. Os mais importantes são:

Link Building

Social Media

Social bookmarking

Link Building- O Link Building é o mais popular método de SEO off-Page.

Basicamente é feito através da construção de links externos para o seu site, você deve

reunir o maior número de apontamentos para o site, assim você pode ignorar seus

concorrentes com classificação mais elevada. Por exemplo, se alguém gosta de um

artigo e o referencia em outro lugar, isso é como dizer os motores de busca que esta

página tem boas informações e que podem ser úteis para futuros usuários.

Social Media- A mídia social é parte importante de SEO Off Page e se você pensar

sobre isso, é também uma forma de link building. Note que quase todos os links que você

começa a partir de sites de mídia social são "nofollow"(veremos mais adiante sobre link

follow e no-follow), mas isso não significa que eles não têm qualquer valor.

Página 8 de 30

Social Bookmarking- Bookmarking social não é tão popular como costumava

ser no passado, mas ainda é uma boa maneira de obter tráfego para o site.

Dependendo do nicho você pode encontrar sites como reddit.com, digg.com,

stumbleupon.com, scoop.it e delicious.com (para citar alguns) para promover o

conteúdo. No Brasil ele não é muito comum, porém não deixa de ser uma alternativa.

2.3 - Autoridade do Domínio

A Autoridade do Domínio em SEO é justamente uma métrica que avalia uma

série de fatores Off Page do domínio como um todo que atribui a ele maior ou menor

relevância em relação a outros sites presentes nos bancos de dados dos grandes

buscadores, como Google, por exemplo. Fatores que podem decisivos neste cálculo de

autoridade de domínio:

Idade do domínio, Reputação do site, Links que apontam para o site, Qualidade dos Inbound Links, Diversidade de links, Padrão temporal, Análise distributiva.

Não é nada fácil manipular um indicador desses e na verdade é bem mais fácil seguir

as boas práticas de SEO do que ficar perdendo tempo com esse tipo de manipulação. A

autoridade do site vem naturalmente com a publicação de conteúdo de qualidade e

uma estratégia de Link Building bem distribuída e calibrada.

2.4 - Robots e Sitemaps

Robots.txt

Como o próprio nome já diz, robots.txt é um arquivo no formato .txt (bloco de

notas). Funciona como um filtro para os robôs dos sites de busca e faz com que os

webmasters controlem permissões de acesso a determinadas páginas ou pastas dos

sites. O robots.txt controla qual informação de um site deve ou não deve ser indexada

pelos sites de busca. A sintaxe do arquivo é bem simples, e deve ser colocada pelo

webmaster responsável pelo site na raiz da hospedagem.

Existem diversas maneiras de criar um arquivo robots.txt, como por exemplo,

abrir o bloco de notas e criar a partir de lá. Mas o Prestashop possui em seu

gerenciador um gerador de robots.txt, onde ele cria o arquivo e o coloca na raiz do

site.

Página 9 de 30

Sintaxe do Robots.txt

O arquivo robots.txt tem o papel de criar uma política de acesso aos Robots.

Para a execução dessas tarefas, há palavras reservadas, ou seja, palavras com a função

de comandos que permitirão ou não o acesso a determinados diretórios ou páginas de

um site.

User-agent

A função do comando user-agent é listar quais robôs devem seguir as regras

indicadas no arquivo robots.txt. Supondo que você deseje somente que o mecanismo

de busca do Google siga as definições definidas no arquivo robots.txt, basta indicar o

User-agent como Googlebot. As principais opções são: Google: User-agent: Googlebot

Google Imagens: User-agent: Googlebot-images

Google Adwords: User-agent: Adsbot-Google

Google Adsense: User-agent: Mediapartners-Google

Yahoo: User-agent: Slurp

Bing: User-agent: Bingbot

Todos os mecanismos: User-agent: * (ou simplesmente não incluir o comando user-agent)

Disallow

O comando instrui os sites de busca sobre quais diretórios ou páginas não devem ser incluídas no índice. Exemplos:

Disallow: /prod - orienta aos robots a não indexarem pastas ou arquivos que comecem com "prod";

Disallow: /prod/ - orienta aos robots a não indexarem conteúdo dentro da pasta "prod"

Disallow: print1.html - orienta aos robots a não indexarem conteúdo da página print1.html.

Página 10 de 30

Allow

O comando Allow orienta os robots qual diretório ou página deve ter o

conteúdo indexado, ao contrário do disallow. Diretórios e páginas são por definição

sempre permitidos. Assim, este comando deve ser utilizado apenas em situações em

que o webmaster bloqueou o acesso a um diretório por meio do comando Disallow,

mas gostaria de ter indexado um arquivo ou sub-diretório dentro do diretório

bloqueado. Note por exemplo no robots.txt do Google, logo no início, as duas linhas

abaixo. O Allow permite que seja indexado o diretório /about abaixo do diretório

/catalogs.

Disallow: /catalogs

Allow: /catalogs/about

Página 11 de 30

Sitemap.xml

Sitemap.xml é o arquivo, ou mapa, voltado especialmente para o robô de

busca, escrito seguindo padrões e regras, com códigos específicos para que o buscador

encontre mais páginas do site.

O Sitemap.xml é extremamente importante para que o robô de busca entenda

melhor a estrutura do site. E claro, quanto melhor for a arquitetura, mais organizado

será o Sitemap.xml e mais fácil a navegação para que ele encontre todas as páginas e

seções do site. O Prestashop também conta com um módulo gerador de sitemaps,

onde ele cria o arquivo e o coloca na raiz do site com todas informações necessárias

O Sitemap pode conter

Uma lista de URLs ou uma lista de sitemaps.

Se o Sitemap contiver uma lista de outros sitemaps, você poderá salvá-la como um

arquivo de índice de sitemap e usar o formato XML fornecido com esse tipo de

arquivo. Um arquivo de índice de sitemap não pode listar mais de 1.000 sitemaps. Não inclua IDs de sessão na sua lista de URLs.

O URL do Sitemap deve ser codificado para capacidade de leitura pelo servidor no qual

está localizado. Além disso, ele pode conter somente caracteres ASCII. Ele não pode

conter caracteres ASCII maiúsculos nem determinados códigos de controle ou

caracteres especiais, como * e {}.

Marcações XML para Sitemaps

Para explorar todas as novas funcionalidades, o arquivo deve ser criado no formato

XML, embora exista também o formato TXT. O arquivo TXT será uma simples lista de

URLs. O sitemap baseado em XML, por outro lado, permite que além de submeter as

URLs, seja informada a prioridade de cada página, frequência de atualização e última

modificação executada.

Para usar os recursos do novo modelo de Sitemap, siga as regras do formato XML e adicione as tags específicas:

<xml> segue as especificações requeridas para submissão no Google;

<urlset> indica o início e fim do conjunto de URLs a serem rastreadas;

<url> indica o início e fim de uma URL individual;

<loc> localização da URL completa da página informada;

Página 12 de 30

<lastmod>, uma tag opcional com a data da última modificação;

<changefreq>, uma tag opcional sugerindo a freqüência que o robô deve executar o rastreamento;

<priority>, uma tag opcional informando a prioridade da URL especificada em relação às demais URLs contidas no arquivo.

Página 13 de 30

2.5 - Palavras-chave

O processo de otimização de site para mecanismos de busca deve

obrigatoriamente começar por uma pesquisa de palavras-chave. Comece sempre com

uma pesquisa de palavras, enviando um briefing e solicitando uma lista de keywords

(ou crie a sua própria e depois as envie para aprovação). Com a lista em mão utilize

ferramentas SEO para pesquisa de palavras-chave para determinar a popularidade de

cada termo. Ferramentas de Pesquisa de Palavras-Chave

*Google External Keywords Tools - ferramenta de palavras-chave do Google (Google Adwords)

*Google Trends

*Ubersuggest

Pesquisa Interna

É por meio dela que conseguimos saber exatamente o que e como os usuários

do site estão buscando por determinados produtos. Com ela é possível até determinar

quais produtos merecem mais destaque com base nos volumes de busca interna. Pode

ser feito no Webmaster também, mensurando como os clientes tem chegado ao site,

por meio de que palavras, e com qual densidade, isso dará uma ótima base para iniciar

a otimização. Palavras Exploradas pelos Concorrentes

Existem várias maneiras de executar essa tarefa, manualmente pode levar

alguns dias e se tornar maçante, porém existe uma ferramenta chamada *SEMrush

que com a versão paga é possível gerar um lista de palavras-chave que os concorrentes

estão trabalhando.

Página 14 de 30

2.6 - Pagerank

O PageRank é um algoritmo de avaliação de um agrupamento de páginas

interlinkadas, como por exemplo a Web, que tem como finalidade classificar as páginas

por relevância perante a este conjunto de páginas. Basicamente o PageRank é uma

avaliação da relevância de uma determinada página. Essa relevância é divulgada ao

público em uma escala de 0 a 10, através da Toolbar do Google.

Apesar de importante ela é uma métrica opouco atualizada e não condiz com o

posicionamento que vai ser atingido, por exemplo uma pagina com PR1 pode aparecer

na frente dos resultados de uma pagina com PR3.

2.7 - Rich Snippets e Dados Estruturados

Os Rich snippets são projetados para resumir o conteúdo de uma página de

forma que torna ainda mais fácil para os usuários entenderem no que consiste a

página nos resultados de pesquisa. Em outras palavras os Rich Snippets são

informações inseridas na estrutura HTML. O objetivo dessas informações é organizar e

classificar o contéudo na web. Com eles podemos dar uma ajudinha aos buscadores na

hora de indexar nosso site, dizendo a ele que tipo de conteúdo nossas páginas trazem.

O Google, lê os rich snippets através de três tipos de marcação: microdados (usado por

nós), microformats e RDFa.

Diretrizes técnicas

Para se qualificar para os rich snippets, você deve marcar as páginas do site usando um dos três formatos suportados (Microdados, Microformatos, RDFa)

Uma vez que o conteúdo é marcado, teste-o usando a ferramenta de teste de

dados estruturados. Se a ferramenta processar corretamente um rich snippet para as

páginas, elas estarão qualificadas para serem mostradas com rich snippets! Se os rich

snippets não aparecerem na ferramenta de teste de rich snippets, consulte o guia para

solução de problemas do google.

Após implementar e testar corretamente a marcação, pode levar algum tempo

até que os rich snippets apareçam nos resultados de pesquisa, conforme as páginas

são indexadas e processadas. Mais diretrizes podem ser encontradas em

https://support.google.com/webmasters/answer/2722261?hl=pt-BR

Página 15 de 30

2.8 - White Hat e Black Hat

Existem duas vertentes da Otimização de Sites. Uma é chamada de White Hat

SEO (chapéus brancos) e a outra de Black Hat SEO (chapéus pretos). Não é difícil de

adivinhar que uma segue as diretrizes do Google e demais buscadores, enquanto a

outra procura brechas nos algoritmos dos buscadores para melhorar o posicionamento

nas páginas de resultado (SERP) ao utilizar técnicas "sujas".

White Hat SEO

A White Hat SEOs segue as diretrizes dos mecanismos de busca para conseguir

melhorar o posicionamento. Trabalhar o conteúdo do site, se engajar em práticas de

troca de links que sejam coerentes com o conteúdo, não comprar links com o simples

propósito de subir no posicionamento do Google. O resultado obtido por sites white

hat costumam demorar um pouco mais para aparecer, mas o risco de ser penalizado

pelo Google e desaparecer dele é baixíssimo.

Black Hat SEO (Chapéus Pretos)

Black Hat se refere a um conjunto de técnicas que têm o objetivo de manipular

as principais variáveis para enganar os mecanismos de busca, oferecendo-lhes,

geralmente, conteúdo diferente do proposto.

O Google identifica a grande parte dos truques para manipular os seus

resultados. De fato, cada vez mais o Googlebot procura "emular" o comportamento

das pessoas e, entre os principais mecanismos de pesquisa, é de longe o que melhor

realiza essa tarefa.

Se descoberta alguma técnica Black Hat no site, algumas das possiveis penalidades que os mecanismos de busca podem dar são:

Desconsiderar de seu algoritmo o que considera irregular, sem penalizar o site

Penalizar o site com a perda de posições na tela de resultados

Desindexar (apagar) o site de seu índice

Página 16 de 30

2.9 - Imagens

Otimizar imagens não é uma tarefa fácil, no entanto pode render muitos frutos

com o aumento de visibilidade nos mecanismos de pesquisa e também com melhora

nas conversões.

Use formatos de imagens padrão e amplamente suportadas. O uso de imagens em JPEG, GIF, PNG e BMP nunca trará problemas.

Nomear todas imagens adequadamente é a base da piramide de resultados

satisfatórios. Use palavras-chave, mas seja coerente com a imagem e não crie um

nome muito grande ou com letras maiúsculas. Lembre-se usar sempre minúsculas e

separar as palavras com hífen ( – ) ao invés de sublinhado ou espaço. Por exemplo:

filhote-dalmata.png

bolo-chocolate-com-bombons.jpg

racao-para-filhotes-cachorro.png

O tamanho das imagens influencia diretamente no tempo de carregamento da

página, importante fator de classificação do Google e outros buscadores, que

favorecem sites mais rápidos. Além da dimensão, outros fatores como tipo de arquivo

e aplicativo usado para salvar a imagem, são essenciais para reduzir ao máximo o

tamanho da imagem sem perda de qualidade.

Mesmo sabendo que os buscadores não utilizam o título da imagem como fator

de classificação, é importante prestar atenção nos títulos das imagens, que

normalmente são exibidos quando passamos o mouse em cima delas. O atributo ALT

da imagem, também conhecido como descrição alternativa da imagem, exibe um texto

para a imagem, caso ela não possa ser exibida. Não importa se a conexão está lenta ou

a imagem foi removida do servidor.

A otimização de imagens tem foco primário em aumentar a visibilidade de seu

site, mas de uma forma mais ampla, pode ser feita direcionada para melhorar sua

conversão final também. Com imagens personalizadas e bem pensadas, é possível

induzir o usuário a clicar no botão comprar, enviar um formulário ou ver alguma

informação relevante.

Página 17 de 30

3 – Ferramentas de Acompanhamento

3.1 - Webmasters

O Google Webmaster Tools é uma ferramenta gratuita da Google, pensada

para webmasters que lhe permite indexar seus conteúdos mais rapidamente, notificar

o Google de mudanças realizadas em seus sites e analisar convenientemente todas as

métricas e resultados orgânicos que o site esta conseguindo. Criar uma conta (é grátis)

e começar a utilizar pode trazer informações muito relevantes para a empresa. A

Central do Webmaster mostra como o Google enxerga o site. Algumas Funcionalidades

importantes:

Identificar correções de HTML

Na aba de “Otimização” há o item “Melhorias de HTML”. Ali o Google indica

coisas que considera falhas na estrutura do site, como Title e Meta description

duplicados, ausentes, curtos ou longos.

Página 18 de 30

Enviar sitemap xml

É por meio dessa ferramenta que deve ser submetido o sitemap gerado, como

foi explicado anteriormente. Para enviar o sitemap ao Google é preciso usar a Central

do Webmaster e indicar na aba otimização no item “Sitemaps”.

Descobrir termos de pesquisa que já exibiram o site como resultado

O Google mostra todas as vezes em que o seu site aparece como resultado de

cada termo. Isso permite identificar o que já está tendo bom desempenho e,

principalmente, visualizar oportunidades de termos que já aparecem mas ainda não

estão otimizados e que poderiam receber muito mais tráfego.

Acesso aos Robots

Uma das grandes vantagens deste gerador é que você pode confirmar se seu

ficheiro robots.txt está funcionando corretamente ou se você por ventura se enganou

e mandou os robots do Google embora sem indexar nenhum dos seus conteúdos.

3.2 - Analytics

Com o Analytics você consegue acompanhar detalhes sobre a visitação e

estatísticas do seu site, além de tornar possível a verificação de variáveis interessantes,

como a quantidade de visitas por dia ou então as Keywords que estão sendo

relacionadas ao site. Todos os dados são extraídos diariamente das estatísticas do

próprio Google. Atualmente, o Google Analytics é a ferramenta de Otimização de Sites

mais utilizada no mundo.

Acompanhando os relatórios

A emissão dos relatórios será feita de acordo com a ocasião determinada por

você. Para isso, no canto superior direito você poderá alterar o período em que deseja

comparar os dados. Ao clicar sobre a data a ser modificada, um calendário aparecerá e

você poderá determinar qual o intervalo de tempo desejado para que a análise seja

feita.

Página 19 de 30

3.3 - Adwords

AdWords é o principal serviço de publicidade da Google. O serviço usa o

sistema de publicidade por Custo por Clique (CPC) e (CPM) que consiste em anúncios

em forma de links encontrados, principalmente, nos mecanismos de pesquisa

relacionados às palavras-chave que o internauta está pesquisando. Sendo um modo de

adquirir publicidade altamente segmentada independentemente de qual seja o

orçamento do anunciante.

O AdWords é diferente da publicidade tradicional por que escolhe exatamente

onde e quando os seus anúncios são apresentados, assim apenas as pessoas que

realmente estão à procura de algo que sua empresa disponibiliza virão a sua

publicidade, e você só paga por isso quando estas pessoas clicarem nele.

Classificação dos anúncios

A posição do anúncio na página de resultados é definida pela fórmula:

Classificação do anúncio = CPC máximo X Índice de qualidade

O Índice de qualidade é determinado pelo histórico de desempenho no Google:

sua taxa de cliques (CTR), a relevância do texto do anúncio, o histórico de desempenho

da palavra-chave, a qualidade da página de destino e outros fatores de relevância.

Em resumo, o Google valoriza anúncios cujo conteúdo tem uma relação mais

estreita com a busca realizada, e com isso, dificulta que empresas exibam anúncios nos

resultado de pesquisa em setores não relacionados ao seu ramo de atividade.

Página 20 de 30

CPM - Custo por mil impressões

Consiste num sistema no qual o anunciante paga um valor acordado pela

quantidade de vezes que o anúncio é visto pelo consumidor, independentemente da

sua acção posterior. Este acordo, normalmente, é estipulado o valor por cada mil

impressões.

CPC - Custo por Clique

Consiste num sistema no qual o anunciante paga um valor acordado pela

quantidade de vezes que o anúncio é clicado e não apenas visionado, permitindo assim

ao anunciante pagar um determinado valor somente quando o usuário clica em

determinado anúncio. É considerado por muitos a forma mais justa de publicidade

visto que o usuário que realizou a pesquisa apenas clica no anúncio já está inclinado à

compra.

3.4 - Trends

O Google Trends é uma ferramenta que mostra a tendência de pesquisas no

Google de acordo com os termos ou palavras-chave escolhidos em um passado

recente e projeções de pesquisas futuras.

O Google Trends é usado para decidir qual termo é mais usado e em qual região ela é mais usada.

A ferramenta apresenta gráficos com a frequência em que um termo particular

é procurado em várias regiões do mundo, e em vários idiomas. O eixo horizontal do

gráfico representa tempo e o vertical é com que frequência é procurado um termo,

globalmente. Abaixo do gráfico principal, a popularidade é dividida por países, regiões,

cidades e linguagem. Também permite ao usuário comparar o volume de procuras

entre duas ou mais condições. Notícias relacionadas aos termos buscados são

mostradas ao lado e relacionadas com o gráfico, apresentando possíveis motivos para

um aumento ou diminuição do volume de buscas.

Página 21 de 30

3.5 – Searhmetrics Suite

Searchmetrics Suite, plataforma de SEO inovadora, interativa que oferece uma

abordagem de consultoria holística para ajudar as empresas a desenvolver e executar,

de marketing e conteúdo estratégias digitais inteligentes de longo prazo.

Com essa ferramenta podem ser feitas análises de domínio de SEO e visibilidade paga,

classificação de SEO no país, análise competitiva e distribuição de palavras-chave,

análise rápida do perfil backlink com clara categorização de páginas relacionadas e

cobertura dos mais importantes canais de mídia social, como o Facebook, Twitter,

Google+ e muito mais.

Página 22 de 30

3.6 – MOZ

Moz desenvolve softwares de marketing de entrada, fornece APIs robustas para

os dados de ligação e influência social. No Moz voce mensura e otimiza o site para que

ele possa ser encontrado na web, sendo sensível através da mídia social, juntando-se

conversas relevantes sobre a sua indústria, e criação de conteúdo que as pessoas

adoram.

Suas ferramentas são interessantes, porém um pouco complexas para serem

usadas no Brasil, podem parecer confusas as vezes. O Blog é ótimo, com muitas

informações atualizadas constantemente, seguir as dicas ali dadas são o rumo certo

para o crescimento.

3.7 - Search Engine Spam Detector

Esta ferramenta analisa uma página web, em busca de características que os motores de busca poderia considerar spam.

A ferramenta tenta detectar três métodos principais: keyword stuffing(excesso

de palavras chave), doorway farms(excesso de links e texto) e texto oculto. Qualquer

truque baseado em Javascript ou posicionamento/estratificação CSS não vai ser

detectado.

Página 23 de 30

3.8 - Copyscape

Copyscape é um serviço de detecção de plágio on-line que verifica se um texto

similar conteúdo aparece em outros lugares na web . Dada a URL ou o texto do

conteúdo original, Copyscape retorna uma lista de páginas da Web que contêm texto

semelhante ao todo ou partes deste conteúdo. Ele também mostra o texto

correspondente em destaque na página web encontrada.

3.9 SEMRush (Paga)

SEMRush tem sido uma das melhores ferramentas de SEO . Este serviço vai

rapidamente treiná-lo para se adaptar a um mundo sempre em mutação online. Para

se manter atualizado com a mudança de algoritmos e tendências de SEO, a empresa

de forma consistente melhora seu processo de modo que você pode fazer o site mais

visível, em ambos os resultados orgânicos de busca e pagos.

A primeira ferramenta de SEO que você vai encontrar no kit de ferramentas

SEMRush é uma ferramenta de pesquisa de palavra-chave competitiva. Depois de

dotar a empresa de uma URL, SEMRush puxará várias métricas interessantes, incluindo

uma estimativa de quanto tráfego de pesquisa que estão recebendo, o quanto eles

estão gastando em anúncios do AdWords, e o volume de pesquisa esperado das

palavras-chave que está alvejando. Além disso, você também pode olhar para a

concorrência desse URL na busca orgânica e publicidade paga.

O que torna dificil o uso dessa ferramenta é que ela é limitada no modo

gratuito, vai de cada profissional mensurar se vale a pena ou não adquirir a versão

paga.

Página 24 de 30

3.10 – Outras Ferramentas

Diversas outras ferramentas incriveis podem ser encontradas na internet, segue o link com uma lista de algumas das principais:

http://www.agenciamestre.com/ferramentas/ferramentas-de-seo-melhorar- desempenho/

4 – Extras

4.1 - Como criar uma estratégia de SEO

O planejamento estratégico de SEO é um dos passos mais importantes que um

projeto web, seja ele site, blog ou loja virtual pode dar. É nele que sintetizamos a

essência da política de divulgação em termos de marketing de busca.

Quando falamos em criar uma estratégia de SEO estamos falando do

posicionamento estratégico da marca em relação a um grupo determinado de

palavras-chave pelas quais acreditamos que os internautas irão fazer suas buscas. É

essa a essência do SEM – Search Engine Marketing.

No caso específico do SEO, nossa preocupação é fundamentalmente com a

exposição nas páginas de respostas, também conhecidas como SERPs, na área de

busca orgânica, ou seja, os resultados não pagos dos buscadores.

Em primeiro lugar você precisa ter muito bem definido o publico alvo da sua

estratégia e o momento de busca desse público. Para quem você deseja aparecer e em

que momento da pesquisa? Definir as Persona é uma das funções básicas de qualquer

projeto de marketing digital, justamente porque esse consumidor hipotético é que

dirige nossas ações.

Além das características da Persona, é preciso levar em consideração também o

momento de busca do usuário, para posicionar o conteúdo no momento certo.

Esqueça por um momento o que você quer apresentar e pense no tipo de problema

que você pode resolver.

Página 25 de 30

Em termos práticos, o primeiro passo e deixar bem claras as diversas áreas do

site para sabermos quais delas dever ser priorizadas e como vamos orientar a

otimização em termos de momento de decisão do consumidor e tipo de palavras-

chave. Abaixo temos uma imagem de como é feita essa hierarquização.

O SEO moderno é muito mais que apenas uma questão técnica, ele exige uma

compreensão ampla do cenário em que a empresa se insere e um alinhamento

completo com as outras estratégias de divulgação que compõem nosso plano de

marketing digital global.

Ao contrário do que muita gente que deseja saber como criar uma estratégia

de SEO, a última coisa a ser feita é colocar a mão na massa e partir para a otimização

em si. Depois de desenhado todo o projeto de SEO, ai sim partimos para os processos

de otimização da estrutura do site, a otimização onpage, com a aplicação de técnicas

de otimização nas páginas do site e posteriormente a otimização offpage feita através

de técnicas de link building.

4.2 - Como Aplicar Estratégias de SEO em Seu Site

Existem diversas estratégias de SEO para aplicar em um projeto de marketing digital, mas vamos focar em três podem (devem) ser as principais.

Plataforma Otimizada

Conteúdo Otimizado

Links Externos (Link Building)

Plataforma otimizada

Título do conteúdo

Título da página

Url Amigável

Código da página sem tabelas e o mais enxuto possível

Textos âncoras

Uma Url única e amigável por página

Inserção de conteúdo dinâmico de qualidade

Página 26 de 30

Conteúdo otimizado

Palavras-chave nos seguintes

lugares: Inicio do título

No parágrafo inicial do texto

Distribua uniformemente por toda a extensão do texto

Uma por parágrafo (parágrafos de 3 a 5 linhas com 70 caracteres)

Texto âncora para as páginas que são referência em tal palavra

Tag “title”

Atualização de conteúdo frequente (pelo menos 3 vezes por

semana) Conteúdo único

Links externos (Link Building)

Assessoria de imprensa: possibilidade de conseguir links em veículos da mídia

Gere conteúdo de qualidade (ex: Mind Map, Infográficos de marketing digital) para atrair links (link bait)

Faça pesquisa de mercado (íntegra) e solte na rede (release)

Crie badges (adesivos digitais)

Página 27 de 30

4.3 - Checklist

Itens do Checklist de SEO

No Domínio

Hospedagem

Tempo de carregamento

Estabilidade

Arquitetura

Existência de categorias?

Existência de páginas filho em apenas uma categoria

pai? Links internos quebrados?

As URLs condizem com a estrutura de relacionamento das páginas?

URLs canônicas

Possibilidade de acessar o site com ou sem www?

Existência de parâmetros de ID na URL?

Robots.txt

Verificação de quais diretórios podem ou não ser lidos

Regra exclusiva para um bot?

Sitemap.XML

está criado?

Listagem de todas as URLs existentes no website

Página 28 de 30

fornece as URLs canônicas

Página de 404

A página de 404 existe?

Retorna o código 404?

Na página

Titulo

Existem títulos duplicados? (GWT + Xenu)

Existem títulos muito longos? (GWT + Xenu)

Existem páginas sem títulos? (GWT + Xenu)

Existe a keyword no título? (Xenu + Excel)

Qual a posição da keyword no título?

Quantas ocorrências da keyword existem no título?

Meta Description

Existem meta descriptions duplicadas? (GWT)

Existem meta descriptions muito longas? (GWT)

Existem páginas sem meta descriptions? (GWT)

Possui um call to action na meta description?

Conteúdo

A página possui conteúdo único?

A home possui um conteúdo relevante as principais keywords do website?

As principais keywords já possuem landing page com conteúdo único e relevante?

Analisar as palavras long-tail que possuem a menor competição e maior volume de busca para produção de páginas que ataquem estas palavras.

Página 29 de 30

Imagem

presença do ALT text?

ALT text bem descritivo e com keyword?

URL amigável?

tamanho do arquivo

Contexto da imagem

URL

Presença de keyword na URL?

URL completamente amigável?

Possui parâmetros de sessão ou tracking?

Página 30 de 30