Antoine Pourron
MCS – ISEG Lyon
5ème année
MÉMOIRE DE RECHERCHE APPLIQUÉE
Année Universitaire 2011-2012
Mémoire de recherche appliquée Antoine Pourron
REMERCIEMENTS Je tiens à remercier l'ensemble des intervenants de la Marketing and Communication School
(Groupe IONIS) - Campus de Lyon, ainsi que l'équipe d'administration, pour leur aide, leurs
conseils et le temps qu'ils ont consacré à l'élaboration de ce mémoire de recherche appliquée. Je
remercie également Monsieur Alexandre Daval, directeur de recherche de ce mémoire de
recherche.
Je souhaite remercier tous les professionnels qui m'ont accompagné et fait part de leurs avis dans
la rédaction de ce mémoire.
Merci à Maxime Fulpin, Franck Ruet, Paul Sanches, Sandrine Bertrand, Maxime Doki-Thonon
et Kévin Richard.
2
Mémoire de recherche appliquée Antoine Pourron
SOMMAIRE
REMERCIEMENTS...............................................................................2
SOMMAIRE........................................................................................3
AVANT-PROPOS.................................................................................5
INTRODUCTION..................................................................................6
PREMIERE PARTIE - THEORIE..............................................................8
CHAPITRE 1 : LE RÉFÉRENCEMENT NATUREL - SEARCH ENGINE OPTIMIZATION (SEO)............8
1. Historique des moteurs de recherche et arrivée du SEO.....................................................8
2. Le fonctionnement des moteurs de recherche..................................................................10
3. Google : Leader indétrônable des moteurs de recherche.................................................12
a) Google - Evolution des années 2000 à aujourd'hui..................................................................................12
b) Google - Les changements d'algorithmes................................................................................................16
4. Les autres moteurs de recherche et leur place actuelle....................................................20
5. Le SEO, pourquoi ?........................................................................................................... 22
6. Les stratégies et techniques SEO globales........................................................................26
a) Etudes préalables.....................................................................................................................................26
b) Création, optimisation de contenu et maillage interne...........................................................................28
c) Netlinking.................................................................................................................................................31
d) Suivi de la stratégie SEO..........................................................................................................................32
7. Les stratégies et techniques SEO actuelles.......................................................................34
CHAPITRE 2 : LE RÉFÉRENCEMENT ILLÉGAL - SEO BLACK HAT..........................................36
1. Qu'est ce que le SEO Black Hat ?......................................................................................36
3
Mémoire de recherche appliquée Antoine Pourron
2. Pourquoi utiliser le SEO Black Hat ?.................................................................................38
a) Être visible et référencé rapidement.......................................................................................................38
b) Dépasser ses concurrents........................................................................................................................39
3. Les techniques et stratégies SEO Black Hat......................................................................40
a) L'Automatisation......................................................................................................................................40
b) La Manipulation.......................................................................................................................................42
c) La sécurité................................................................................................................................................44
d) Les dérives et abus..................................................................................................................................45
4. SEO Black Hat, législation et sanctions.............................................................................46
CHAPITRE 3 : PROBLÉMATIQUE ET HYPOTHÈSES............................................................49
DEUXIEME PARTIE - TERRAIN............................................................51
CHAPITRE 1 : PRÉSENTATION DE L'ÉTUDE.....................................................................51
1. Choix de la méthode d'étude............................................................................................51
2. Objectifs de l'entretien.....................................................................................................52
3. Thèmes et questions de l'entretien...................................................................................52
4. Choix des acteurs............................................................................................................. 55
5. Difficultés rencontrées..................................................................................................... 57
CHAPITRE 2 : ANALYSE DE LA PARTIE TERRAIN...............................................................60
1. Résumés des entretiens....................................................................................................60
2. Analyse des résultats........................................................................................................67
3. Validation des hypothèses................................................................................................70
CHAPITRE 3 : PRÉCONISATIONS..................................................................................72
CONCLUSION....................................................................................74
BIBLIOGRAPHIE................................................................................77
4
Mémoire de recherche appliquée Antoine Pourron
ANNEXES..........................................................................................79
AVANT-PROPOS
Internet occupe dans le monde d'aujourd'hui une place que l'on pourrait presque qualifiée
de vitale. L'organisation des échanges mondiaux, du commerce mondial, des flux de capitaux ou
bien également de la communication entre les milliards de personnes de la planète se fait
majoritairement par cet outil. Internet a dépassé depuis plusieurs années le statut de simple
média. Son évolution gigantesque au fil des années est la preuve de sa force, et n'est comparable
à aucune autre technologie. Encore aujourd'hui, nous vivons au jour le jour son développement,
avec l'apparition sans cesse de nouveaux produits et services et de nouvelles technologies
rendant les possibilités d'évolution toujours plus exponentielles. Le transfert d'internet sur les
appareils mobiles (smartphones et tablettes) en est un exemple très clair.
Parallèlement, le développement de l'outil internet a été la base de la création de millions
d'emplois à travers le monde. Certains métiers ont été créés spécifiquement, d'autres ont été une
évolution de métiers déjà existants. Avec ce nouvel outil mis à disposition de tous, il a fallu en
effet revoir un grand nombre de stratégies d'entreprises, travailler sur de nouvelles techniques,
mais aussi changer considérablement sa façon de penser, de communiquer et d'entretenir des
relations avec ses connaissances.
5
Mémoire de recherche appliquée Antoine Pourron
INTRODUCTION
Même si son évolution est très ressente, internet existe depuis assez d'années pour avoir
un recul nécessaire quant à sa compréhension globale et à son fonctionnement. A l'heure actuelle,
et de manière globale, il est possible de distinguer trois types d'acteurs qui évoluent sur internet :
Les simples visiteurs, à la recherche de distractions, de rencontres, d'informations ou
bien d'un produit ou service...
Les Webmasters : Toutes les personnes/entreprises qui possèdent ou qui travaillent sur
un site internet
Les moteurs de recherche : Outils internet qui vont permettre la rencontre entre les
internautes et les sites qu'ils recherchent.
Un site internet ne peut exister sans être visible sur les moteurs de recherche. C'est la raison pour
laquelle les webmasters ont mis en place un certains nombres de techniques, que l'on pourrait
qualifier de techniques webmarketing, pour faire apparaître de la meilleure façon possible leurs
sites internet dans les moteurs de recherche. On parle alors plus communément de techniques de
référencement. Le référencement sur internet est divisé en deux catégories bien distinctes. La
première est appelée référencement naturel, référencement gratuit ou en anglais, SEO (search
engine optimization). La seconde catégorie est le référencement payant, beaucoup moins
abordables pour les webmasters puisque cette technique consiste à payer les moteurs de
recherche pour apparaître sur ceux ci. Il s'agit du SEM (search engine marketing). Au travers de
se mémoire de recherche appliquée, je souhaite m'intéresser spécifiquement au référencement
naturel, et à toutes les techniques qui s'y rapporte, puisqu'il s'agit de la base de la visibilité d'un
site internet. Ce sont majoritairement ces stratégies de SEO qui vont permettre de créer un lien
entre les internautes "visiteurs" et les sites internet. D'une autre manière, il s'agira d'étudier
l'activité quotidienne des webmasters et référenceurs qui travaillent constamment au
développement de leurs sites internet, à la visibilité de ces derniers et aux différentes manières de
les rendre rentables et pérennes.
6
Mémoire de recherche appliquée Antoine Pourron
Dans le référencement naturel (SEO) et dans les techniques mises en place, deux écoles bien
spécifiques et différentes existent : Le référencement légal (appelé SEO White Hat) et le
référencement illégal (SEO Black Hat). Les webmasters et les entreprises vont, en fonction de
leurs objectifs et de la considération qu'ils ont du référencement, devoir choisir un axe
stratégique dans une seule de ces deux écoles. Même si l'objectif à moyen et long termes est le
même, c'est à dire obtenir le meilleur positionnement de son site internet sur les moteurs de
recherche, les techniques utilisées divergent fortement. L'intérêt d'un tel mémoire est également
de mieux comprendre le référencement Black Hat, domaine encore sombre en France et
maitrisé par peu de personnes, deux caractéristiques dues en grande partie à son caractère illégal.
Le but de ce mémoire de recherche appliquée va être de comprendre et savoir pourquoi
certains acteurs d'internet vont être amenés à utiliser le référencement légal, et pourquoi certains
vont utiliser le penchant illégal de ces stratégies. Pour rendre les propos développés tout au long
de ce mémoire les plus représentatifs possibles, nous nous positionnerons alors dans une
problématique de secteurs concurrentiels, domaine où les deux techniques de référencement
naturel sont omniprésentes et très importantes pour les différents acteurs. Par ailleurs, nous nous
intéresserons d'avantage au moteur de recherche Google qu'à ses concurrents, celui-ci ayant une
place quasi-monopolistique en France. La problématique à laquelle nous chercherons à répondre
est alors la suivante : comment optimiser le SEO dans un milieu concurrentiel, alors que le
SEO Black Hat apparaît comme plus productif pour les entreprises, mais risqué ?
Dans la première partie, partie exploratoire de ce mémoire de recherche appliquée, nous allons
nous intéresser à l'évolution de référencement naturel depuis l'arrivée d'internet et des moteur de
recherche, pour ensuite développer plus particulièrement les différentes caractéristiques et
techniques du référencement légal et du référencement illégal. L'objectif de cette partie sera aussi
de comprendre le fonctionnement de Google et comment le moteur de recherche est-il arrivé à
occupé cette place de leader incontesté dans le domaine du référencement et du web en général.
Des hypothèses pourront ainsi être dégagées, afin de construire un modèle d'analyse qui viendra
infirmer ou confirmer les différentes hypothèses établies, ce qui constituera la partie terrain de
7
Mémoire de recherche appliquée Antoine Pourron
ce mémoire. Les étapes d'observation, d'analyse des information et de recommandations
viendront compléter cette seconde partie.
8
Mémoire de recherche appliquée Antoine Pourron
PREMIERE PARTIE - THEORIE
CHAPITRE 1 : LE RÉFÉRENCEMENT NATUREL - SEARCH ENGINE OPTIMIZATION (SEO)
Dans cette première sous partie, nous allons nous intéresser au référencement naturel, de
sa création à la place qu'il occupe aujourd'hui dans le monde de l'internet, en passant par son
évolution et celle des moteurs de recherche. En effet, le search engine optimization n'existerait
pas sans les moteurs de recherche, et c'est la raison pour laquelle il est important de s'intéresser à
ces outils qui aujourd'hui sont indispensables aux internautes, qu'ils soient visiteurs, webmasters,
professionnels ou entreprises. De véritables empires technologiques se sont construits autour des
moteurs de recherche, preuve de leur importance. Le SEO a suivi ce développement et a connu
de nombreuses transformations depuis son apparition, qu'ils s'agissent des techniques qui s'y
rapportent, de son intérêt mais aussi de son fonctionnement. C'est ce que nous allons détaillé
dans cette première partie.
1. Historique des moteurs de recherche et arrivée du SEO
Avant tout, il est important de distinguer les moteurs de recherche utilisés pour les
intranets et pour internet. Les intranets étaient utilisés par les services militaires, les
bibliothécaires ou bien les universitaires dans les années 80 avant que cette technologie soit
répandue au domaine privé et au grand public, devenant ainsi l'internet. A cette époque, des
moteurs de recherche étaient mis en place pour le traitement de l'information de ces systèmes
intranet. Très vite, dès le début des années 90, nous allons parler de moteur de recherche pour
internet. Le premier réel moteur de recherche, nommé "Archie" est arrivé en 1990. Mais il ne
s'agissait pas encore d'un moteur de recherche sous forme de site web, comme nous les
connaissons aujourd'hui. C'était un logiciel mis en place pour rechercher des documents sur
internet.
9
Mémoire de recherche appliquée Antoine Pourron
Sur internet, le premier moteur de recherche date de 1993 et se nommait "Wanderer". Son
principe rejoint celui de tous les moteurs de recherche actuels : Sillonner le web grâce à de
nombreux robots appelés "bots" ou "spiders" dans le but de répertorier et référencer tous les sites
internet existants. Un an plus tard, en 1994, le moteur de recherche "Yahoo" est apparu avec un
principe novateur qui consistait à créer
humainement un annuaire des sites internet les
plus pertinents et qualitatifs. Contrairement au
moteur de recherche "Wanderer", il ne s'agissait donc pas de robots. Cet approche a permis à
Yahoo de devenir très rapidement le portail web le plus utilisé.
Dans la deuxième moitié des années 90, le processus de développement des moteurs de
recherche va s'accélérer, parallèlement à l'arrivée d'internet dans les ménages. "Lycos" va voir le
jour en 1995, "Altavista" en 1996. Ces nouveaux arrivants se basent sur de nouveaux procédés
qui vont leur permettre de se perfectionner et d'offrir des résultats toujours plus rapide, plus
exhaustifs et plus pertinents. Cependant, ces moteurs n'étaient pas encore optimisés pour les
utilisateurs de France. C'est ainsi qu'est né "Nomade.fr", premier annuaire internet en version
française. Peut de temps après, en 1998, France télécom lança son moteur de recherche
"Voila.fr". La même année, deux étudiants de l'université de Stanford, vont mettre au point le
moteur de recherche qui va révolutionner internet :
"Google". Avec une approche différente, Sergei Brin et
Larry Page vont créer un algorithme qui aura pour but
de classer les sites internet dans le moteur de recherche
en fonction de leur popularité auprès des internautes. La
rapidité, l'exhaustivité et la pertinence des résultats du
moteur de recherche vont lui permettre de se faire une place très rapidement sur internet. En l'an
2000, Yahoo va d'ailleurs choisir Google comme moteur de recherche pour son portail. En 2002,
le géant américain de service internet "AOL" en fera de même.
Au début des années 2000, il s'agira d'un tournant pour les moteurs de recherche. Certains ayant
optés pour la stratégie de "portail" au lieu de développer une technologie d'algorithme comme
Google disparaîtrons petit à petit. Cette à cette période que Google s'imposera comme le moteur
10
Mémoire de recherche appliquée Antoine Pourron
de recherche incontournable et l'outil le plus utilisé par les internautes, dont les internautes
français. C'est en 2002 que Google sera critiqué, pour la mise en place de ces "liens sponsorisé"
dans les résultats de recherche, mais cela n'empêchera en aucun cas sont évolution et son
développement
C'est avec l'arrivée des moteurs de recherche se basant sur une stratégie d'algorithmes que le
référencement naturel est apparu. Le but était alors de comprendre comment fonctionnaient ces
algorithmes afin de mettre en place des stratégies qui permettront d'apparaître à de meilleures
positions dans les résultats de recherche.
2. Le fonctionnement des moteurs de recherche
Le fonctionnement des moteurs de recherche est, en règle générale, commun au
différentes marques proposant ce service : Yahoo, Google ou encore Bing (moteur de recherche
du géant américain Microsoft). Tout d'abord, il convient de définir ce qu'est un moteur de
recherche. D'après Olivier Andrieu, consultant en référencement et auteur des différentes
éditions Réussir son référencement web, le moteur de recherche peut être défini comme "un
programme qui indexe de façon automatisée le contenu de différentes ressources internet
permettant à l'internaute de rechercher de l'information via des mots clés1".
Par le verbe "indexer" des ressources internet, il faut comprendre répertorier ou référencer des
pages internet. Le processus de référencement des pages sur internet par les moteurs de
recherche se font en trois étapes bien distinctes :
Le crawling : Processus automatique qui vise à inspecter tous les sites web de manière
plus ou moins régulière via des robots appelés bots ou spiders, en vue de les répertoriés et
de les référencer. Ces robots ont tous un nom attribués pour chaque moteur de recherche :
o Google : GoogleBot
o Yahoo : Slurp ou YahooBot
1 Définition Moteur de recherche par Oliver Andrieu - http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-moteur.shtml
11
Mémoire de recherche appliquée Antoine Pourron
o MSN : MSNBot
L'indexation : Une page interne indexée dans un moteur de recherche signifie qu'elle a
été visitée par les robots qui balayent internet, page qui est désormais référencée et
visible dans le moteur de recherche en fonction des mots clés tapés par l'internaute.
Le ranking : Enfin, le ranking va être l'attribution d'un positionnement de la page indexée
dans les résultats de recherche en fonction du mot ou des mots clés tapés. De manière
logique, les pages internet les mieux notées ("rankées") par les moteurs de recherche
apparaîtront dans les premiers résultats de recherche.
Avant développer plus en détails les prochaines parties sur le référencement, il est nécessaire de
définir correctement et clairement ce à quoi servent les algorithmes des moteurs de recherche.
Au travers du système d'indexation présenté ci-dessus, les moteurs de recherche vont attribuer un
positionnement à chaque page internet existantes. Le positionnement correspond à la place de la
page dans les résultats de recherche en fonction d'un ou de plusieurs mots clés tapés. C'est ce
que l'on va appeler le référencement naturel. Un site dit "bien référencé" sera dans les
premières position dans les SERP (search engine results page), page de résultats d'un moteur de
recherche, en Français. Un site ou une page internet dit "bien référencé" pourra également être
appelé "puissant" ou "influant" du point de vue du référencement. Sur certains moteurs de
recherche, comme sur Google, une note va être attribuée pour chaque page indexée. Dans le cas
de Google, cette note est appelée "Pagerank". Une page web sera notée de 0 à 10 par Google en
fonction de sa puissance (du point de vue du référencement). Une page ayant un pagerank de 8
sera un site très bien référencé et très bien positionné dans les SERP.
Ce processus d'indexation par l'algorithme des moteurs de recherche va dépendre de nombreux
critères, qui vont évoluer au cours du temps pour rendre les résultats de recherche toujours plus
pertinents pour l'utilisateur. Nous nous intéresserons à ces évolutions et optimisations des critères
d'indexation dans une prochaine partie, puisque c'est elles qui vont être a la base du
développement des stratégies de référencement.
12
Mémoire de recherche appliquée Antoine Pourron
3. Google : Leader indétrônable des moteurs de recherche
a) Google - Evolution des années 2000 à aujourd'hui
C'est en l'an 2000 que Google est réellement apparu comme un acteur de taille du secteur
d'internet, en devenant le moteur de recherche le plus important du monde avec, déjà à cette
époque, une version pour 15 langues différentes. Avec plus de 10 ans de recul, il apparaît très
clairement que Google a voulu, dans les premières années de son développement, consolider les
bases de l'outil qui l'a rendu célèbre, son moteur de recherche. C'est pourquoi, la même année,
Google a lancé son outil de création de liens sponsorisés : Google Adwords. Avec cet outil, les
webmasters pouvaient payer pour apparaître de façon très visible sur
les pages de recherche de certains mots clés tapés. C'est à partir de ce
moment qu'est né le Search Engine Marketing, ou référencement
payant, une technique totalement différente que le référencement
naturel/gratuit. Dès 2001, Google lançait le troisième outil de son moteur de recherche : "Image
Search", permettant aux internautes de rechercher parmi une base de plus de 250 millions
d'images. En signant en 2002 un partenariat avec AOL, Google a augmenté d'une manière
fulgurante sa notoriété et son utilisation aux Etats-Unis comme dans le reste du monde, en se
positionnant encore d'avantage comme le moteur de recherche le plus abouti et le plus pertinent.
En 2003, et en plus du développement de nouveaux services pour son
moteur de recherche comme "Book search" permettant la recherche dans
une base de nombreux ouvrages, Google commence à lancer d'autres
outils, par ses propres moyens ou bien par le rachat de sociétés. Ainsi, la
plateforme de blog "Blogger" a vu le jour. L'évolution de la firme de
Mountain view s'est accrue d'avantage au milieu des années 2000, notamment avec son entrée en
bourse parfaitement réussie en 2004. S'en est suivie la mise en place des services géographiques
"Google maps" et "Google Earth" qui viennent compléter les possibilités de recherche pour les
internautes.
2005 et 2006 ont été des années de fort développement pour l'entreprise. Elle continue de
proposer aux internautes des services et outils différents mais complémentaires : La messagerie
13
Mémoire de recherche appliquée Antoine Pourron
mail de Google "Gmail" sera lancée en décembre 2005, tout comme le service associé de
messagerie instantanée "Google Talk". 2005 a aussi été l'année du rachat d'"Android" par
Google, pour un montant resté secret. Ce rachat est décrit par l'entreprise comme la meilleure
affaire réalisée. En effet, Android concurrence aujourd'hui très fortement le système
d'exploitation iOS d'Apple, en France comme à l'étranger. Android est tellement rentable que les
"publicités issues du système d'exploitation permettent à elles seules de couvrir les frais de
développement2".
Fin 2006, Google annoncera l'acquisition de "Youtube", le leader de l'hébergement de vidéos en
ligne, pour près de 1,65 milliard de dollars3. La publicité étant au cœur du business model de
Google, la société s'est très vite rendu compte que la publicité
allait de plus en plus arriver sur les plateformes d'hébergements de
vidéos. Youtube était alors un concurrent de taille pour Google,
qui à donc décidé de le racheter, un investissement à long terme
qui semble avoir porté ses fruits, puisque le service de vidéos
comptabilisait en Février 2011 plus de 490 millions d'utilisateurs par mois4.
2 Source Venturebeat.com - http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/3 Source Numérama.com - http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-milliard-de.html4 Source Youtube.com
14
Mémoire de recherche appliquée Antoine Pourron
En 2008, Google quittera une partie des services purement web en s'attaquant au marché des
navigateurs avec l'annonce du lancement de "Google Chrome", et cela en vue de concurrencer
les 3 principaux acteurs du marchés :
Internet Explorer (par Microsoft)
Firefox
Safari (par Apple)
Un pari à nouveau réussi pour Google, puisque son navigateur occupe aujourd'hui la deuxième
place en part en marché, et vient concurrencer très fortement le géant de Microsoft, Internet
Explorer. En Novembre 2011, après seulement 3 ans d'existence, Chrome a en effet dépassé
Firefox dans le monde5 :
Depuis cette date, Google cherche à optimiser toujours plus ses services, à les rendre toujours
plus complémentaires, tout en travaillant sur de nouveaux projets. Les outils Google vont peu à
peu s'uniformiser pour offrir aux utilisateurs un seul et même design, plus clair, plus simple et
plus intuitif. Au début de l'année 2011, Google annonça l'arrivée de son réseau social "Google+",
service lancé au milieu de l'année 2011, dans le but de concurrencer Facebook. Malgré le retard
de Google dans le domaine du social, le groupe à misé sur son omniprésence sur le web pour
attirer les utilisateurs. Google+ a d'ailleurs été retravaillé fortement en 2012 pour apporter des 5 Source - Cabinet StatCounter, GlobalStats et lefigaro.fr
15
Mémoire de recherche appliquée Antoine Pourron
éléments de différenciations par rapport au géant du secteur, Facebook. Le but était également
d'apporter une approche d'avantage sociale dans les résultats de son moteur de recherche. 2011 et
2012 a encore été une période de nouveaux outils importants et novateurs pour Google :
Sortie de Google Music (uniquement aux USA pour le moment) fin 2011 : Service
d'hébergement et d'écoute de musiques en ligne et sur n'importe quel support connecté à
internet
Sortie de Google Play au début de l'année 2012 : Service de téléchargements gratuits ou
payants d'applications mobiles et tablettes mais aussi de films. A travers Google play,
l'entreprise cherche à créer une plateforme de divertissements accessibles à tous ses
utilisateurs, comme l'a fait Apple avec son logiciel iTunes.
Sortie de Google Drive au milieu de l'année 2012 : Service de création de documents en
ligne : document texte, présentation, feuille de calcul, formulaire, dessin, etc. Ces
documents sont automatiquement enregistrés en ligne et sont ensuite disponibles depuis
n'importe quel support connecté à internet.
Au travers de cet état des lieux des services et outils mis en place par Google depuis ses débuts,
il est possible de dire que l'entreprise s'est
construite et s'est développée afin de consolider
continuellement ses services entre eux. Même si
la bataille du social n'est pas encore gagnée avec
le géant Facebook, Google s'est construit une
place de leader et acteur incontournable du Web
depuis sa création, principalement en Europe où
les parts de marchés avoisinent les 90% 6. Dans
les pays d'Amérique du Sud et d'Amérique du
Nord, les parts de marchés de Google varient
entre 65% et 75%, dus à une concurrence plus
forte des autres moteurs de recherche comme
Bing (Microsoft). C'est la raison pour laquelle les stratégies de référencement naturel se sont
mises en place en majeure partie sur Google. 6 Source - Google.com 2011
16
Mémoire de recherche appliquée Antoine Pourron
Nous avons vu dans cette partie que le moteur de recherche était toujours plus ou moins placé
au centre des évolutions des services Google. Nous allons donc voir dans la partie suivante que
son algorithme a su évoluer parallèlement avec les tendances d'internet, changements qui ont
eux des impacts sur le référencement des pages internet.
b) Google - Les changements d'algorithmes
Au cours de son développement et depuis sa création, Google a fait évoluer son
algorithme afin de le rendre toujours plus pertinent, plus rapide et plus exhaustif pour les
internautes.
L'indexation des pages va dépendre de critères qui vont être mis à jour par la société en fonction
des tendances du web que nous allons développer ci-dessous. Même si ces changements existent,
l'algorithme de Google garde cependant des critères de bases, critères qui ont fait le succès du
moteur de recherche depuis sa création. C'est ce que nous explique Matt Cuts dans une vidéo
publiée sur Youtube en début d'année 2012. Il s'agit d'un ingénieur qui à rejoint Google en
Janvier 2000 et qui est aujourd'hui le directeur de l'équipe "Webspam" de Google.
Dans cette vidéo, Matt Cuts nous informe du fonctionnement
du référencement naturel de Google. Il explique que les sites
les mieux classés dans les résultats de recherche Google vont
être ceux qui ont le plus de liens entrants (Backlink : liens
provenant d'un autre site internet et pointant vers le nôtre), en
prenant également en considération la réputation des sites faisant ces liens. Par exemple, un lien
entrant en provenance d'un site bien référencé par Google aura plus de poids du point de vue du
référencement qu'un lien entrant en provenance d'un site avec moins de puissance. Il insiste
également sur la relation entre les mots clés tapés par l'internaute lors de sa recherche. Le
moteur de recherche Google va répertorier le nombre de pages web parlant distinctement de
chaque mot et le nombre de pages web qui parlent de tous les mots en même temps. Enfin, il
explique que les robots qui balayent tous les sites web peuvent être amenés à visiter une page
17
Mémoire de recherche appliquée Antoine Pourron
plusieurs fois par jour, en fonction du nombre de mises à jour effectuées sur la page et de sa
popularité. Le positionnement de cette page dans les résultats de recherche Google pourra donc
être amenée à varier régulièrement. C'est ainsi que le positionnement de base des sites va être
effectué.
Nous allons à présent développer les différents et principaux changements qui ont été opérés par
l'entreprise sur son algorithme. Il est tout de même nécessaire de préciser que plusieurs centaines
de mises à jour de l'algorithme sont faits chaque année, mais, de manière générale, seule une
petite partie a un impact réel sur le référencement naturel des pages indexées. Pour chaque
changement important de son algorithme (période où le classement des pages et sites référencés
est mis à jour), Google l'associe à un nom spécifique pour l'ancrer plus facilement dans une
démarche d'évolution7 :
Boston - Février 2003 : Première réelle mise à jour de l'algorithme. Au départ,
l'algorithme de Google est mis à jour tous les mois, pendant la pleine lune. Le nom
associé à cette période était "Google Dance". A cette date, les mises à jours étant
devenues plus fréquentes, Google a décidé d'abandonner peu à peu cette idée de
changement mensuel.
Cassandra - Avril 2003 : Google à retravailler sur les fondamentaux du référencement de
qualité en pénalisant (forte baisse du référencement) les pages et sites internet composés
de textes cachés et liens cachés.
Florida - Novembre 2003 : Changements très importants qui visaient directement les
mauvaises pratiques des professionnels du référencement sur internet. Google a pu mettre
fin à environ 90 pratiques, dont celle du " bourrage" de mots clés, technique visant à
surcharger une page internet de certains mots clés pour apparaître à de meilleures
positions dans les résultats de recherche.
Austin - Janvier 2004 : Changement qui à permit de pointer d'autres abus mis en avant
par "Florida", dont le texte invisible sur les pages et le "bourrage" des META Tags (liste
de mots insérés dans le codage d'une page web afin de renseigner les robots des moteurs
de recherche du sujet traité sur cette page).
7 Source - Classement des changements d'algorithmes Google par date - http://www.seomoz.org/google-algorithm-change
18
Mémoire de recherche appliquée Antoine Pourron
Brandy - Février 2004 : Améliorations apportés à l'algorithme au niveau de la pertinence
des résultats de recherche. Google va accorder davantage d'importance à l'ancre d'un lien
(texte sur lequel se trouve un lien) et à l'analyse des correspondances des mots clés et
synonymes.
Jagger - Octobre 2005 : Changements apportées sur la prise en compte de la qualité des
liens. Cette mise à jour cible les liens de faibles qualités : échanges de liens réciproques,
fermes de liens et liens rémunérés, qui n'ont que peu d'intérêt pour l'internaute et qui ne
servent qu'à pousser virtuellement le référencement des pages. Google a donc sanctionné
ces pages grâce à ce nouvel algorithme.
Universal Search - May 2007 : Amélioration des résultats de recherche avec l'intégration
des autres services Google : News, vidéos, images... Le temps des "10 annonces texte"
était révolu.
Caffeine & Real-time Search - 2009 : Google annonce un changement d'infrastructure
massif pour accélérer l'indexation des pages internet et améliorer l'efficacité du moteur de
recherche. En décembre, Google lance la recherche avec affichage des résultats en temps
réel, ainsi que l'intégration de Twitter et de Google Actualité, en essayant de donner à son
moteur de recherche une approche plus sociale.
Panda - Février 2011 8: Une évolution majeure dans l'algorithme Google mettant près de
2 mois à se développer dans le monde. Les changements apportés ont eu des
conséquences très importantes pour un grand nombre de sites internet. Environ 12% des
résultats de recherche Google ont été affectés, et des baisses de trafic allant jusqu'a -90%
ont été comptabilisées, obligeant certaines structures et entreprises à stopper toutes
activités. Panda a frappé l'Europe en Avril 2011 et des mises à jour régulières sont
opérées depuis. Pour Google, le but de Panda était de nettoyer son index (pages et sites
internet indexés dans son moteur de recherche), en supprimant ou pénalisant fortement :
o Les pages à faibles contenus. Si un site internet est composé d'un trop grand
nombre de pages à faibles contenus, le site entier est désindexer.
8 Source - Dossier Google Panda sur webrankinfo.com - http://www.webrankinfo.com/dossiers/techniques/google-panda
19
Mémoire de recherche appliquée Antoine Pourron
o Les pages dont le contenu est trop similaire à d'autres pages déjà existantes sur
internet
o Les fermes de contenus : "Sites crées et développés spécialement pour générer des
revenus publicitaires"9.
o Les sites composés de trop nombreuses publicités et les sites ne présentant pas
assez de normes qualitatives définies par Google
Penguin - Avril 2012 : Dernière mise à jour de l'algorithme Google en date. Tout comme
Panda, celle-ci devrait changer de manière significative les habitudes des professionnels
du référencement et les stratégies mises en place depuis plusieurs années. Même si il n'y a
pas encore assez de recul par rapport à cette dernière mise à jour, Penguin aurait comme
objectif de cibler et pénaliser les sites et pages sur-optimisées du point de vue du
référencement mais aussi la sur-optimisation des liens. Deux semaines après le lancement
de Google Penguin, Matt Cuts (responsable du webspam chez Google) a accordé une
interview au site SearchEngineLand.com. Il explique que même si certains sites ont
perdu de nombreuses positions dans les résultats de recherche, il reste "convaincu que
Google Penguin a permis de mettre hors-jeu ceux qui spamment son index ou qui en
avaient l’intention10". Il ajoute " Google Penguin a un objectif de précision. A savoir, agir
efficacement contre toutes les pages renvoyant un fort signal de sur-optimisation ou de
spam".
D'après cet état des lieux des principales mises à jour des algorithmes fait par Google depuis sa
création, il apparaît que le leader des moteurs de recherche souhaite rendre son outil toujours
plus qualitatif et plus efficient, parfois au dépend de certains sites déjà en place depuis
plusieurs années. Google se bat depuis sa création sur les pratiques illégales du référencement,
stratégies que nous allons développer dans la deuxième partie de cette partie exploratoire. Au
travers des modifications de son algorithme, Google montre qu'il prend de plus en plus en
considération les interactions sur les réseaux sociaux. L'objectif et l'intérêt pour l'entreprise sont
aussi de développer son réseau social Google+ en vue de concurrencer Facebook. Une page web
9 Source : Définitions-Webmarketing.com - http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus10 Interview Matt Cuts pour Danny Sullivan (SearchEngineLand.com), Avril 2012
20
Mémoire de recherche appliquée Antoine Pourron
ou un site internet étant relayés de nombreuses fois sur les réseaux sociaux, et créant beaucoup
d'interactions, gagnera davantage de positions dans les résultats de recherche que les pages web
n'étant pas relayées. Les habitudes de référencements changent et évoluent. Il s'agit d'un travail
d'adaptation de la part de tous les professionnels SEO pour élaborer de nouvelles stratégies, dans
l'objectif d'obtenir continuellement les meilleurs positions dans les résultats de recherche Google.
C'est ce à quoi nous allons nous intéresser dans les prochaines parties de ce mémoire.
4. Les autres moteurs de recherche et leur place actuelle
Comme il l'a été présenté précédemment, et même si Google est un acteur incontournable
de l'internet actuel, il reste important de s'intéresser aux autres moteurs de recherche existants, en
France comme à l'étranger. Nous l'avons vu, Google possédait en France près de 90% des parts
de marchés à la fin de l'année 2011 d'après AT Internet. Viennent ensuite Bing avec 3.3% de
parts de marché, Yahoo avec 1.5% et Orange avec 0.8% de parts de marché. Cette situation est
semblable dans une grande partie des pays d'Europe. Une domination de Google qui est loin de
disparaître.
Néanmoins, il est intéressant de regarder la situation dans les autres pays du monde, une situation
qui est toute autre. En effet, aux Etats-Unis et dans d'autres pays du continent américain, même si
Google reste leader, les parts de marchés de la firme de Mountain View sont moindres, au profit
de Bing et Yahoo. Il convient de différencier cependant Bing et Yahoo qui sont certes, tous deux
des concurrents de Google, mais ce sont des acteurs de natures différentes. Yahoo est davantage
un portail plutôt qu'un moteur de recherche. Un portail peut se définir comme étant un "site qui
par son contenu (moteur de recherche, actualités, informations pratiques, météo,...) se veut un
point d'entrée incontournable sur internet et un carrefour d'audience11". Yahoo correspond
exactement à cette définition dans le sens où il va répertorier l'ensemble des services évoqués,
mais en y ajoutant en plus des outils similaires au leader Google : Webmail, Agenda... Quant à
Bing, de Microsoft, il se positionne d'avantage en tant que concurrent de Google puisqu'il s'agit
d'un moteur de recherche. Il progresse de plus en plus aux Etats-Unis qui connaissent la plus
forte évolution depuis son lancement d'après deux études des cabinets Comscore et Hitwise. Au 11 Source - Définition Portail Internet - http://www.definitions-webmarketing.com/Definition-Portail-Internet
21
Mémoire de recherche appliquée Antoine Pourron
début de l'année 2011, Bing cumulait près de 27% des recherches effectuées aux Etats-Unis.
D'après l'étude Hitwise, "Bing bénéficie d'un taux de clics plus important que Google : 81 % des
recherches sur le moteur de Microsoft débouchent sur un clic, contre 65 % pour les requêtes
effectuées sur Google12". Bing cherche en effet à se différencier de Google, au lieu de lui
ressembler. C'est en cela que le moteur de recherche de Microsoft développe son algorithme pour
prendre plus en considération la localisation de l'internaute
plutôt que son historique de recherche. Malgré cette
évolution, Bing reste à 4% de parts de marché dans le
monde.
En Russie le moteur de recherche leader s'appelle "Yandex". En Mars 2011, le moteur de
recherche russe détenait environ 65% des parts de marchés 13des moteurs de recherche présents
dans le pays. Google arrivait en deuxième position avec seulement 22% de parts de marchés.
Quant au continent asiatique, Google n'occupe pas non plus la place de leader dans la majorité
des pays. C'est le moteur de recherche "Baidu" qui est majoritaire comme par exemple en Chine,
avec entre 75 et 85% de parts de marché en 2010. Cependant, Baidu est loin d'avoir fait
l'unanimité dans les pays de la zone asiatique.
Les Etats-Unis sont toujours un modèle concernant le domaine d'internet. Le fait que Bing gagne
quelques parts de marchés sur Google va potentiellement changer les approches du
référencement et permettre de voir émerger de nouvelles techniques de SEO. En Europe, cette
situation n'est pas encore à l'ordre du jour. Bing à tout intérêt à se développer là où Google n'a
pas une position quasi-majoritaire. C'est pourquoi les stratégies de référencement ne sont que très
peu développées sur le moteur de recherche Microsoft, au profit du référencement Google.
Actuellement, Bing n'apporte que trop peu de visibilité à un site internet français ou francophone
pour s'y intéresser.
Nous allons maintenant nous pencher sur l'intérêt du référencement naturel pour les sites internet,
domaine encore en pleine expansion et indispensable a l'heure actuelle.
12 Source - Etude Hitwise et Le Monde Technologies - http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-marche-de-google-aux-etats-unis_1478441_651865.html13 Source - liveinternet.ru
22
Mémoire de recherche appliquée Antoine Pourron
5. Le SEO, pourquoi ?
Être présent et indexé sur Google n'est pas une démarche difficile, puisqu'elle est
automatique. Nous l'avons vu dans les parties précédentes, Google scrute l'ensemble du web
grâce à des robots qui sillonnent toutes les pages de tous les sites internet, jours et nuits. Suite à
cela, l'algorithme de Google indexera ou non les pages en fonction de critères et leurs accordera
un positionnement dans les résultats de recherche. Un site créé de la façon la plus normale
possible (c'est à dire sans abus : Pas de caractères injurieux, racistes, violents, pornographiques)
sera très vite référencé sur le moteur de recherche.
Cependant, il ne suffit pas d'être référencé sur Google pour faire vivre un site internet sur le long
terme. En effet, un site internet référencé par exemple en troisième page de Google sur les mots
clés principaux de son activité n'aura aucune visibilité et que très peu de visites. Pour qu'un site
ou une page web soient rentables et pérennes, ils doivent être bien référencer, c'est à dire qu'il
doivent apparaître au minimum sur la première page des résultats de recherche sur les mots clés
caractéristiques du site.
Exemple : Un site de vente de lunettes en ligne devra se positionner sur des mots clés de
types "achat lunette", "achat lunettes", "achat lunettes en ligne", etc. En tapant ces mots
clés sur Google, l'objectif des stratégies de référencement est que ce site devra apparaître
dans les premières positions des résultats de recherche.
Une étude d'eye tracking des résultats Google réalisée en 2005 par Enquiro Research14 nous
montre, de manière claire et précise, comment va réagir l'internaute sur la page de résultats suite
à une recherche et quel va être son sens de lecture :
14 http://enquiroresearch.com/
23
Mémoire de recherche appliquée Antoine Pourron
15
Ici, il apparait très clairement que l'internaute va s'intéresser principalement aux 4 premiers
résultats affichés par Google. Si il trouve ce qu'il recherche, il se dirigera très rarement vers le
bas de cette première page, et encore moins en seconde page des résultats de recherche. Ce
comportement n'a que très peu évolué entre 2005 et aujourd'hui, même si de nouveaux éléments
se sont insérés dans les résultats de recherche depuis quelques années, comme les Actualités
Google, les vidéos ou bien les images. Cependant, il faut noter que ces nouveaux éléments
n'apparaissent que sur certains mots clés très recherchés, ce n'est pas le cas de tous.
Cette insertion de nouveaux éléments va changer de manière significative l'ordre de lecture des
résultats de recherche sur Google. La même étude d'eye tracking réalisée par Enquiro Research,
cette fois ci en 2010, nous illustre ce changement de lecture :
15 Etude Enquiro Research Eye Tracking Google SERP 2005 - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google
24
Mémoire de recherche appliquée Antoine Pourron
16
Sur cette nouvelle illustration, nous pouvons constater que l'ordre de lecture n'est plus verticale
comme sur une page de résultats de recherche où seuls des liens textuels apparaissent. Il est
également intéressant de voir que la première place dans les résultats n'a plus la même
importance lorsque de nouveaux éléments (types photos ou vidéos) sont intégrés sur la page. Les
internautes sont alors beaucoup plus attirés par les illustrations que par le texte, puisque c'est la
première chose qu'ils regardent (A). Afin de savoir si cette illustration correspond à ce qu'ils
recherchent vraiment, ils vont lire ensuite la description associée (B). C'est ensuite que les
internautes vont reprendre un sens de lecture vertical, en s'intéressant d'abord au premier résultat
fourni par Google (C) puis aux autres résultats situés sous l'illustration (S). De la même manière
que pour les pages de résultats sans illustration, plus l'on s'éloigne de la première position, plus le
taux de clics chute. Une étude sortie en Aout 2011 réalisée par Slingshot SEO17, entreprise
reconnue de référencement naturel, nous montre le fort écart qu'il existe en moyenne entre les
taux de clics sur la première page de résultats Google :
1ère position Google : 18.2% de taux de clics
16 Etude Enquiro Research Eye Tracking Google SERP 2010 - Livre blanc sur les moteurs de recherche - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google17 Source - Slingshot SEO - http://www.slingshotseo.com/resources/white-papers/google-ctr-study/
25
Mémoire de recherche appliquée Antoine Pourron
2ème position Google : 10.05% de taux de clics
3ème position Google : 7.22% de taux de clics
4ème position Google : 4.81% de taux de clics
5ème position Google : 3.08% de taux de clics
8ème position Google : 1.75% de taux de clics
10ème position Google : 1.04% de taux de clics
Nous constatons qu'un site bien référencé est un site qui se situe entre la première et la cinquième
place des résultats de recherche Google, et même 4ème place. Pour qu'un site internet soit
référencé par un moteur de recherche, nous avons donc constaté qu'il s'agissait d'un processus
simple puisqu'il est automatique. Cependant, apparaître dans les premières positions des
résultats de recherche - lorsque les internautes tapent un mot clé en rapport avec le site internet
à référencer - demande beaucoup plus de travail et de temps. C'est ici que prend source tout
l'intérêt du SEO des stratégies qui en découlent. Le SEO est un passage obligatoire pour tous les
sites internet souhaitant se développer.
La personne en charge du référencement naturel, aura donc pour but de positionner son site
internet ou bien une page de son site dans les premières positions des résultats de recherche.
C'est ainsi que le nombre de visiteurs augmentera et c'est ainsi que le site pourra être de plus en
plus rentable et pérenne. Mais, en milieu concurrentiel, cette démarche peut s'avérer difficile,
certains acteurs étant positionnés depuis plusieurs années sur les mots clés les plus tapés par les
internautes. Le référencement naturel est donc indispensable pour la survie d'un site, mais aussi
pour se positionner face à une concurrence qui devient de plus en plus importante sur internet.
Dans la partie suivante, nous allons nous intéresser aux différentes stratégies de référencement
naturel existantes, en détaillant tout d'abord les stratégies globales et stratégies de bases, pour
ensuite développer les stratégies mises en place par les professionnels en rapport avec les
évolutions des algorithmes Google de ces dernières années.
26
Mémoire de recherche appliquée Antoine Pourron
6. Les stratégies et techniques SEO globales
a) Etudes préalables
Construire une stratégie de référencement naturel nécessite un réel travail en amont afin
de connaître toutes les caractéristiques du marché et les caractéristiques web sur lesquelles un
site va être positionné. Cela doit être défini avant même la création du site internet, puisque les
rubriques à définir ainsi que les contenus insérés à l'intérieur des pages du site vont dépendre en
grande partie de la stratégie SEO. Plusieurs points seront à définir précisément pour ce travail en
amont d'un site dans un milieu concurrentiel :
1. Benchmarking : Etude des sites internet concurrents (organisation des contenus,
contenus), de leurs positionnements respectifs sur les moteurs de recherche, des pages qui
ressortent le plus dans les résultats de recherche, des mots clés sur lesquels les sites
concurrents ressortent le plus.
2. Mots clés : Etude et analyse des mots clés les plus tapés dans Google sur le thème du site
à référencer. Etude des tendances et évolutions des mots clés par rapport aux différentes
périodes de l'année et étude des synonymes par rapports à ces mots clés. En dégager une
liste de mots clés très concurrentiels mais indispensables, et une liste de mots clés
importants sur lesquels il est plus facile de se positionner. Grâce à cela, il sera possible de
définir plus facilement l'ensemble des rubriques du site internet.
3. Contenu : Mise en place d'une liste de contenus à organiser dans les rubriques définies
préalablement. Les contenus, en rapport direct avec la thématique traitée par le site
internet, devront être construits sur la base des mots clés définis dans les études
précédentes.
Afin de réaliser ce travail, internet met à la disposition des webmasters et des référenceurs un
certain nombre d'outils puissants et pour la majeure partie, gratuits. L'accessibilité de ces outils
est un avantage non négligeable sur internet, mais qui peut s'avérer être un inconvénient s'ils sont
également utilisés par la concurrence. C'est la raison pour laquelle les études réalisées en amont
de la construction d'un site internet doivent être parfaitement travaillées, en faisant attention à
27
Mémoire de recherche appliquée Antoine Pourron
développer plusieurs axes stratégiques de référencement : Le premier sur des mots clés
également visés par la concurrence, le second dans un but de différenciation, mais toujours sur la
même thématique.
Concernant l'étude des sites concurrents, des mots clés utilisés et de leur positionnement sur les
moteurs de recherche, plusieurs outils existent :
Majesticseo.com : Etude sur les liens de n'importe quel site internet : Nombre de sites
faisant un lien vers celui du concurrent avec classement des plus importants. Le site
calcul également le nombre de liens sortants du site concurrents.
Pagerank.fr : Permet de calculer la note accordée par Google à n'importe quel site
internet (Pagerank). L'outil va également détailler le nombre de pages indexées dans le
moteur de recherche et le nombre de backlink (liens entrants).
Seoh.fr/audit-seo : Outil qui permet de réaliser gratuitement un audit de référencement
gratuit d'un site internet : principales balises de référencement, mots clés les plus utilisés,
principaux points à travailler pour optimiser le référencement.
Positeo.com : Cet outil permet de trouver le positionnement d'un site internet sur Google
sur un ou plusieurs mots clés. En y renseignant également des données de géolocalisation
et de langue, il est très simple de connaître la position d'un concurrent sur tout type de
thématiques.
De même, pour l'étude des mots clés sur lesquels il sera important de travailler pour le
référencement du site internet, de nombreux outils permettent de les définir très précisément.
Parmi les principaux, l'outil "Google Insight" est l'un des plus utilisés. Il va permettre de
calculer le nombre de fois qu'un mot clé est tapé sur Google tous les mois, par pays, région mais
aussi par date. L'outil fonctionne également avec l'analyse de plusieurs
mots clés afin de les comparer. Il sera alors possible de voir les
différentes tendances de chaque mot clé, lequel est le plus tapé ou bien
lequel à le plus d'influence à telle ou telle période de l'année. Enfin, l'outil développé par Google
vous propose une liste exhaustive de synonymes ou mots clés tirés de la même thématique avec
leurs pourcentages respectifs d'évolution.
28
Mémoire de recherche appliquée Antoine Pourron
Au travers de ces différents outils, la création du site internet et sa stratégie de référencement,
dont les différents aspects vont être présentés dans les parties ci-après, vont pouvoir commencer
sur des bases solides en ayant pris connaissance du positionnement précis des concurrents sur les
moteurs de recherche.
b) Création, optimisation de contenu et maillage interne
Le point de base du référencement naturel est le contenu. En effet, c'est lui qui va en
premier lieu permettre à Google d'identifier un site internet comme traitant de tel ou tel sujet et
de le référencer sur des mots clés précis. Cependant, la seule présence d'un contenu de qualité
n'est pas un gage de bon référencement. Il est à la base d'un travail de fond et de moyen/long
terme pour augmenter peu à peu la position du site ou de la page internet sur le moteur de
recherche.
Tout d'abord, pour qu'un site internet se référence de manière plus rapide, il est nécessaire qu'il
ait un contenu de base de qualité, mais surtout que du contenu soit ajouté constamment sur le site
internet. En effet, les robots du moteur de recherche Google n'inspectent pas qu'une seule fois le
contenu présent. Ils reviennent de manière régulière afin de vérifier si le contenu est toujours de
qualité, s'il correspond toujours à la ou les thématiques pour lesquelles le site à été référencé, si
le contenu à subit des mises à jours, et s'il y a eu de nouveaux contenus sur le site internet. Plus
un site internet connait de modifications au niveau de son contenu (mises à jour ou ajout), plus
les robots Google vont revenir régulièrement. De nouveaux contenus de qualité (contenus
correspondant à la thématique du site à référencer, composés de mots clés très tapés par les
internautes) ajoutés régulièrement vont prouver à Google que le site est actif. Grâce à cela, le
moteur de recherche va progressivement faire gagner des positions à ce site internet dans les
résultats de recherche. Ce point est très important et va constituer un pilier dans la stratégie de
référencement.
Ensuite vient une partie d'optimisation des contenus. Cette étape est une stratégie propre au
référencement, dans le sens où il va s'agir de techniques de mise en valeur d'éléments à l'intérieur
des contenus du site internet. Cette optimisation se fait à plusieurs niveaux :
29
Mémoire de recherche appliquée Antoine Pourron
Le titre des pages et titre des contenus : Pour chaque page et chaque contenu d'un site,
les titres sont très importants pour Google, puisque c'est eux qui vont apparaître dans les
pages de résultats du moteur de recherche. Ces titres doivent donc être optimisés, c'est à
dire composés des mots clés principaux du contenu, mots clés sur lesquels le référenceur
cherche à positionner le site. Dans un titre optimisé, on trouvera le mot clé principal en
premier, accompagné ensuite de synonymes ou mots clés de la même thématique. Dans
une page internet, il existe plusieurs types de titres (qui doivent tous être différents mais
composés de mots clés semblables pour améliorer le référencement de la page) :
o Titre global de la page : Il s'agit de la "balise title" de la page, c'est à dire le texte
qui sera affiché sur les moteurs de recherche.
o Titre H1 (Header 1) : Titre principal affiché sur la page du site internet, censé
représenté le contenu aux internautes mais aussi aux moteurs de recherche
o Titre H2 : Sous-titre qui vise à mieux structurer le contenu à l'intérieur de la page
web
o Titres H3 à H6 : Il s'agit de tous les types de sous titres que l'on peut insérer dans
une page internet pour prouver aux moteurs de recherche une organisation
structurée du contenu.
Balises de mise en avant : Optimiser une page web, c'est aussi attribuer aux mots clés
importants du contenu des balises pour indiquer aux moteurs de recherche de quoi traite
exactement le sujet. Ainsi, Google saura plus facilement référencer et positionner la page
par rapport à la thématique traitée. Il existe différents types de mises en avant de contenu
grâce à des balises HTML comme par exemple :
o Balise <strong> : Balise de mise en gras des mots clés importants de la page. Il
reste néanmoins important de ne pas en abuser pour éviter la sur-optimisation de
la page (sanctionner par Google, c'est à dire une perte de position de la page dans
les résultats de recherche).
o Balise <em> : Balise de mise en italique de certaines parties du texte de la page.
Mise à jours du contenu : Enfin, l'optimisation d'une page web passe par sa mise à jour
régulière, en y ajoutant de nouveaux contenus par exemple, ou en y ajoutant des
30
Mémoire de recherche appliquée Antoine Pourron
illustrations, telles que des images ou des vidéos avec un texte associé. Google va ainsi
voir que la page continue d'être active.
La troisième et dernière partie de la stratégie de référencement d'un contenu d'un site internet est
le maillage interne, c'est à dire l'organisation du contenu. Ce terme correspond aux liens
hypertextes (liens cliquables) qui vont permettre de lier les différentes pages d'un site web entre
elles. Un maillage interne bien optimisé pour le référencement correspond à un ensemble de liens
logiques à l'intérieur d'un site. Comme nous l'avons vu dans les parties précédentes, lorsque les
robots Google inspectent un site internet, ils suivent l'ensemble des liens qui lient les pages.
Cette stratégie de maillage interne va donc permettre de créer des chemins entre des contenus de
même types et complémentaires, mais aussi entre les différentes rubriques présentes sur le site.
Cela améliore de manière significative le référencement d'un site ou d'une page web. Les liens
entre les pages d'un site internet sont de plusieurs formes :
Liens du menu : Liens visités en premier par les robots Google puisqu'ils arrivent en
premier dans le sens de lecture de la page. Les liens du menu ont pour objectifs de lier
logiquement les pages, pour guider plus facilement le visiteur, mais aussi les robots des
moteurs de recherche.
Liens à l'intérieur des contenus : Faire des liens dans les contenus de chaque page
permet à Google d'associer un lien à une thématique précise, puisque le lien sera entouré
de texte de qualité et optimisé, comme nous l'avons vu dans la partie précédente. Point
important, l'ancre (texte sur lequel se trouvera le lien) des liens doit être choisie avec
attention. Elle doit correspondre à un mot clé précis sur lequel la page souhaite se
référencer.
o Lien optimisé pour le référencement : "Retrouvez dans un deuxième article tout
ce qu'il faut savoir sur l'achat de lunettes sur internet"
o Lien non optimisé : "Pour tout savoir de l'achat de lunettes sur internet, cliquez
ici"
Liens de bas de page : Liens peu pris en compte par Google, ils serviront principalement
à rediriger l'internaute vers les parties principales du site internet.
31
Mémoire de recherche appliquée Antoine Pourron
Ce premier aspect de la stratégie de référencement aura pour conséquence une amélioration des
positions des pages d'un site internet dans les résultats de recherche de Google.
c) Netlinking
Le deuxième aspect d'une bonne stratégie de référencement concerne la notion de
Netlinking, c'est à dire la mise en place d'une stratégie de liens entrants (backlink) et de liens
sortants.
Liens entrants (Backlinks) : Lien situé sur un autre site internet et qui pointe vers notre
site ou bien une page de notre site.
Liens sortants : Lien situé sur notre site pointant vers un site extérieur
Du point de vue du référencement et plus globalement, du point de vue de la visibilité d'un site
web sur internet, il est beaucoup plus intéressant d'avoir d'avantage de backlinks que de liens
sortants. Un site internet possédant de nombreux backlinks va être vu par Google comme un site
de référence, puisque de nombreux sites en parlent et font des liens vers celui-ci. Google
accordera donc à ce site "de référence" de meilleures positions dans les résultats de recherche. Il
est néanmoins nécessaire de noter que les liens ont des poids différents du point de vue du
référencement :
Un lien à l'intérieur d'un contenu, entouré de texte en rapport avec les mots clés
principaux de notre site sera préférable à un lien seul.
Un lien dans une page bien référencée sur Google sera plus intéressant au niveau
référencement, qu'un lien sur une page peu référencée. De même, un lien sur une page
avec un fort Pagerank aura plus de poids qu'un lien sur une page à petit Pagerank.
Un lien en haut de page aura plus de poids qu'un lien situé en bas de page.
Dans la stratégie de référencement à mettre en place, il convient donc de réunir toutes ses
caractéristiques pour optimiser les backlinks réalisés par d'autres sites. Afin d'obtenir ce type de
liens qualitatifs et qui feront augmenter véritablement la position de notre site internet sur
Google, il existe de nombreux moyens différents. En voici quelques exemples :
Echange de liens : Un lien entrant en échange d'un lien sortant
32
Mémoire de recherche appliquée Antoine Pourron
Partenariats : En échange d'un service, un site extérieur pourra faire un backlink vers
notre site.
Backlinks via des partages : Le meilleur moyen d'obtenir des liens entrants est de créer
des contenus intéressants, originaux et de très bonne qualité sur le site internet à
référencer. Le site gagnera en notoriété et sera de plus en plus vu comme un site de
référence dans la thématique qu'il traite. De nombreux sites feront peu à peu des liens
vers ce site, sans rien avoir à demander.
L'objectif est donc d'obtenir le plus de liens entrants possibles, et les plus qualitatifs possibles,
une caractéristique que Google prend fortement en consécration dans son processus de
référencement des sites internet.
d) Suivi de la stratégie SEO
Une fois en place, une stratégie de SEO doit être suivie par le référenceur en charge du
positionnement du site internet sur les moteurs de recherche. En effet, ce travail va permettre de
savoir si la stratégie fonctionne, si les pages du site internet gagnent ou perdent des positions sur
Google par rapport aux concurrents, mais surtout de savoir si la stratégie est bonne ou si il est
nécessaire de la changer ou de l'adapter.
Les mêmes outils présentés précédemment pour le travail de mise en place de la stratégie de
référencement serviront également pour cette partie. Les outils utilisés pour analyser le
référencement et le positionnement des concurrents pourront
aussi servir à l'analyse de notre site. Il existe d'autres moyens
très intéressants et indispensables pour se rendre compte de
l'efficacité d'une stratégie de SEO, chiffres et statistiques
disponibles uniquement si le site web nous appartient. L'un de ces outils est "Google Analytics".
Sur ce site internet mis à disposition gratuitement par Google aux webmasters et référenceurs, il
va leur être possible d'analyser tous les chiffres inhérents au site sur lequel ils doivent travailler :
Nombre de visites par jour, par mois, par an, nombre de visiteurs uniques, nombre de pages vues
33
Mémoire de recherche appliquée Antoine Pourron
par visites, durée moyenne de la visite, les différentes sources de trafic, les contenus les plus
visités, les sites référents les plus importants, les mots clés principaux tapés pour arriver sur le
site, etc. Via cet outil, il va être possible de croiser les données pour affiner le travail de
référencement réalisé sur le site. Connaître le nombre de visiteurs d'Île de France ayant visité une
page précise du site sera par exemple possible. Ainsi, grâce à cette analyse des données, le
référenceur va pouvoir prendre un certain nombre de décisions importantes. Il va par exemple
pouvoir décider de travailler plus particulièrement sur un mot clé plutôt qu'un autre, si ce dernier
apporte moins de visites que le premier.
Il existe également des outils de suivis payants disponibles sur les sites ranks.fr ou bien
Yooda.com, outils qui vont proposer un certain nombre d'analyses supplémentaires par rapport à
Google Analytics :
Ranks : Système qui analyse de manière automatique l'évolution du référencement d'un
site. Il est nécessaire de renseigner au préalable les mots clés sur lesquels le site se
positionne et l'URL (adresse web) du site. L'outil fera en temps réel une analyse de
l'évolution des positions des pages du site internet par rapports aux mots clés renseignés.
Des analyses annexes viennent apporter un avantage à cet outil, comme une synthèse
globale de la visibilité du site (nombre de backlinks, nombres de pages indexés), un suivi
précis des concurrents et des sites leaders du marché.
Yooda : Cet outil propose sensiblement les mêmes services que "Ranks.fr", à la
différence qu'il s'agit d'un logiciel et non d'un site internet. Le premier logiciel permet de
faire un audit de son site internet et d'analyser très précisément le référencement
(évolutions des positions Google tous les jours en fonction des mots clés sur lequel le site
souhaite se positionner, évolutions des parts de marché du site sur Google). Le second
logiciel, un peu moins important, permet de référencer automatiquement un ou plusieurs
sites internet dans des annuaires de référencement.
Les positions sur Google changent très souvent. L'analyse des données du site internet est donc
un travail de tous les jours, un travail d'adaptation pour optimiser toujours plus le
référencement.
34
Mémoire de recherche appliquée Antoine Pourron
7. Les stratégies et techniques SEO actuelles
Après avoir analysé les différentes techniques de base du référencement naturel d'un site
internet sur les moteurs de recherche, il convient de s'intéresser aux dernières techniques mises
en place, qui ont été testées et développées par les professionnels du secteurs en fonction des
évolutions de l'algorithme Google.
Tout d'abord, l'un des derniers changements apporté à cet algorithme est la prise en compte de
plus en plus importante des réseaux sociaux et des interactions qu'il peut y avoir entre les
utilisateurs. En effet, les réseaux sociaux se sont développés de manière exponentielle depuis les
années 2006 et 2007. Google, au travers des mises à jour de mode de référencement des sites
internet, a donc progressivement donné de l'importance à cet aspect social. Cela lui a également
permis de mettre en avant peu à peu son réseau social : Google Plus. Aujourd'hui, des éléments
des réseaux sociaux Twitter et Google plus apparaissent dans les pages de résultats Google, afin
de guider plus facilement le visiteur en fonction des pages qu'ont pu visiter ou "aimer" leurs
contacts issus des réseaux sociaux. Partant de ce constat, les professionnels du référencement
optent depuis plusieurs années pour l'insertion de boutons de partages (pour
les différents réseaux sociaux) dans les pages des sites internet. Plus une page
internet ou plus un contenu sont partagés sur les réseaux sociaux, plus ils seront
référencés dans les pages de résultats de Google. Ils gagneront ainsi des
positions par rapport à la concurrence. De même, un contenu provoquant de
nombreuses interactions sur les réseaux sociaux (commentaires d'utilisateurs, "likes" sur
facebook, "retweet" sur Twitter, "+1" sur Google plus...) gagnera des positions sur les moteurs de
recherche. La mise en place d'une stratégie sur les médias sociaux (appelée plus communément
Social Media Optimization - SMO) devient aujourd'hui presque aussi important qu'une stratégie
de référencement, avec l'avantage non négligeables qu'elles sont complémentaires.
Ensuite, après un ensemble de test réalisés ces dernières années, les professionnels du SEO ont
également mis en avant une stratégie de Netlinking optimale (stratégie de liens comme
présentée dans les parties précédentes) qui semble fonctionner pour développer le référencement
naturel d'un site et lui faire gagner des positions dans les moteurs de recherche :
35
Mémoire de recherche appliquée Antoine Pourron
Sur le schéma18 représenté ci-contre, nous
pouvons constater qu'il s'agit d'une stratégie
de netlinking en 3 étapes, ou 3 paliers. Le
"site cible" (site à référencer) est entouré de
3 éléments distincts correspondants à 3
différents médias internet (Les réseaux
sociaux, les Blogs et les sites de contenus
gratuits tels que les annuaires ou bien les
sites internet de communiqués de presse).
Cette stratégie consiste à créer un ensemble
de liens de 3ème niveau en provenance de
sites externes. Ces liens ne pointeront
jamais directement vers le site internet à
référencer, ils pointeront vers des contenus
de Blogs, des pages d'annuaires ou
communiqués de presse ou des pages Fans
sur les réseaux sociaux. Ces 3 éléments
seront des intermédiaires de deuxième
niveau qui auront pour but de promouvoir le site cible. Des liens seront placés dans des contenus
optimisés pour le référencement sur ces 3 types de sites web. Ils pointeront tous vers un seul et
même site internet, le site cible.
Cette stratégie vise à montrer à Google que le site cible est présent sur internet sur de
nombreuses plateformes différentes, qu'il y a de l'interaction autour de lui et que de nombreux
sites externes en parlent. A moyen terme, cette stratégie de netlinking aura pour effet un meilleur
positionnement du site à promouvoir sur les moteurs de recherche.
18 Source - Presse Citron, Février 2011 - http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-exploser-votre-trafic
36
Mémoire de recherche appliquée Antoine Pourron
CHAPITRE 2 : LE RÉFÉRENCEMENT ILLÉGAL - SEO BLACK HAT
1. Qu'est ce que le SEO Black Hat ?
Le SEO black hat est apparu au même moment que les stratégies de référencement
naturel, puisqu'il s'agit d'un mode de fonctionnement dérivé. "Une pratique dite black hat SEO
est une technique de référencement naturelle considérée comme discutable, non éthique et / ou
punissable par les moteurs de recherche ou les professionnels du référencement19". Tout comme
le SEO "white hat", c'est à dire les stratégies de référencement naturel évoquées dans les
précédentes pages de ce mémoire, son seul objectif est de tout mettre en œuvre pour positionner
un site internet ou une page internet en première position des résultats des moteurs de recherche.
Google étant le moteur de recherche omniprésent en France, et en grande partie à l'international,
les professionnels du référencement analysent régulièrement toutes les évolutions de son
algorithme afin de savoir précisément comment il fonctionne et quelles techniques ils peuvent
mettre en place. L'objectif est ici de décortiquer toutes les facettes du moteur de recherche pour
savoir comment référencer un site internet de toutes les manières possibles. C'est d'ici que
naissent les différentes techniques de référencement. Ces techniques sont ensuite très vite
partagées auprès de la communauté mondiale des professionnels du référencement, via les
réseaux sociaux ou les blogs. L'ensemble de processus est très rapide.
Il en va de même pour les techniques SEO black hat, avec une ampleur tout de même moins
importante, puisque ces techniques demandent une expertise issue du SEO white hat, mais aussi
de nombreuses connaissances dans le SEO black hat. De plus, ces techniques sont caractérisées
de black hat (chapeau noir) dans le sens où elles sont définies comme "non éthiques" ou "sales".
Leur but est simple : "Booster sévèrement le référencement, au risque d'être puni par la suite par
19 Definition Black Hat SEO - Définitions-webmarketing.com - http://www.definitions-webmarketing.com/Definition-Black-hat
37
Mémoire de recherche appliquée Antoine Pourron
Google20". Parallèlement, le SEO black hat a également pour objectif de travailler sur la
concurrence, en faisant en sorte que les sites concurrents perdent des positions sur les moteurs de
recherche, au profit du site ou de la page à référencer. Le SEO black hat consiste à tromper
Google dans son processus de référencement des sites internet, via un ensemble de techniques
que nous allons voir dans les parties suivantes. Encore aujourd'hui, les professionnels du secteur
n'ont pas de définition exacte du black hat, puisque les limites de ses techniques ne sont pas
mesurables et divergent selon les secteurs d'activités et bien d'autres critères. La limite entre
white hat et black hat fait souvent débat. Cependant, la tendance globale du référencement black
hat reste connue.
Kévin Richard, dirigeant de l'agence de référencement Cultivaref et également professionnel
reconnu du référencement naturel a dominante black hat, nous résume précisément ce qu'est le
SEO black hat : "Pour un black hat, les trois business models sont de faire augmenter le trafic
d'un site pour vendre son propre produit, vendre le produit des autres (affiliation) et faire cliquer
les internautes sur les publicités21". Dans cette approche, il ne prend pas en compte tous les
dérivés de ces techniques, tels que l'introduction dans des systèmes informatiques ou la
récupération de données de site en vue de les revendre... Plus simplement, il explique que le
modèle du black hat22 est :
"D'obtenir du trafic (de manière borderline)"
"De monétiser ce trafic (de manière borderline)"
Il termine sa définition en expliquant que le terme de "SEO black hat" est "restrictif puisqu'il
n'englobe pas les cas cités précédemment, qu'il s'agit plutôt de black hat marleting". Dans une
interview accordée au site internet visibilitere-ferencement.fr, il résume les techniques black
hat comme "tout SEO contraire aux guidelines de Google23". Les guidelines sont des pages où
Google va expliquer aux internautes, et plus particulièrement aux référenceurs, comment
référencer correctement un site internet et quelles sont les bonnes manières de faire.
20 Définition Black Hat SEO - nikopik.com - http://www.nikopik.com/2012/04/le-black-hat-seo-resume-en-une-infographie.html21 Définition Black Hat par Kévin Richard - http://www.deliciouscadaver.com/comment-definir-le-black-hat.html22 Définition Black Hat par Kévin Richard - http://www.deliciouscadaver.com/comment-definir-le-black-hat.html23 Interview Kévin Richard pour visibilite-referencement.fr - http://www.visibilite-referencement.fr/blog/black-hat-seo-512banque
38
Mémoire de recherche appliquée Antoine Pourron
Intéressons-nous désormais au réel intérêt de ces techniques dites "non éthiques" et pourquoi
elles sont utilisées.
2. Pourquoi utiliser le SEO Black Hat ?
a) Être visible et référencé rapidement
Nous avons analysé dans les parties précédentes que les stratégies de référencement
naturel ont pour objectif de référencer un site ou une page internet dans les premières positions
des résultats de recherche de Google, en fonction des mots clés sur lesquels le site ou la page
souhaitent se positionner. Les techniques de SEO black hat vont avoir en partie la même
finalité, mais avec la spécificité de le faire plus rapidement si elles sont maitrisées.
Une entreprise, ou de manière plus générale un site internet en milieu concurrentiel (site en
lancement ou site ayant déjà de l'ancienneté), se doivent d'avoir un bon référencement sur le
secteur dans lequel ils évoluent, dans le sens où c'est un gage de sécurité sur le moyen/long
terme, de rentabilité, de visibilité et position intéressante par rapport à la concurrence. Cette
situation d'être dans les premières positions des pages de résultats de recherche est donc
tellement importante que les sites internet n'ont qu'un seul objectif : apparaître le plus rapidement
possible à ce niveau de positionnement sur Google. Nous l'avons détaillé précédemment, la mise
en place de telles stratégies nécessite un important travail en amont, prend du temps avant d'être
effective, prend du temps à être prise en compte par Google, et nécessite enfin un travail de suivi
au jour le jour.
Avec les techniques de référencement black hat, il va être possible de réaliser cette démarche
beaucoup plus rapidement, mais surtout de l'automatiser, au travers de techniques que nous
détaillerons dans les parties suivantes. Les entreprises et les sites internet évoluant dans un
secteur concurrentiel (d'un point de vue du référencement, secteur où il est difficile de se
référencer dans les premières positions sur Google) vont donc parfois opter pour ces stratégies
black hat peu éthiques dans le but d'améliorer leur positionnement Google davantage à court
terme. Un travail va donc être réalisé sur le site cible à référencer, au niveau de nombreux
39
Mémoire de recherche appliquée Antoine Pourron
éléments : contenus, publications, netlinking mais aussi optimisations, automatisations et
protections.
b) Dépasser ses concurrents
Parallèlement, le référencement black hat va également influer sur le positionnement des
concurrents, de manière beaucoup plus directe qu'un référencement naturel dit "white hat". Tous
les sites internet n'utilisent pas les techniques black hat et c'est dans ce sens qu'un site va pouvoir
faire la différence par rapport à la concurrence. L'utilisation du SEO Black hat reste peu
développé dans une grande partie des secteurs, il sera donc possible de positionner un site plus
facilement dans les premières positions d'un moteur de recherche.
Là où les sites vont pouvoir faire une réelle différence dans le développement de ce type de
référencement est dans le degré d'utilisation du black hat. Il existe en effet des techniques de
bases, et des techniques avancées. Ces dernières seront proposées par le référenceur en fonction
des objectifs de positionnement du site internet : Cela peut être la rapidité du référencement
(court ou moyen terme) mais aussi la position choisie sur les moteurs de recherche (1ère place,
entre la 1ère place et la 5ème place, 1ère page, etc.). Les moyens (financiers) mis à disposition
du référenceur par le site internet ou l'entreprise est également un facteur important à prendre en
compte. En effet, à la différence du référencement naturel "white hat" qui peut être réalisé avec
des connaissances de bases et donc par une personne qui n'est pas un expert, le SEO black hat
demande quant à lui beaucoup plus de techniques, de compétences et de connaissances du web.
De plus, ce type de techniques issues de la partie "sombre" du référencement, est maitrisé par
une minorité en France comme à l'étranger. Les référenceurs black hat sont rares, donc plus
chers. Moins de 50 personnes en France sont expertes dans ces stratégies black hat. C'est la
raison pour laquelle ils évoluent dans des secteurs très concurrentiels, où les enjeux financiers
peuvent être très importants et où les entreprises peuvent investir fortement dans ce type de
techniques : Secteur du X, du poker, de la fourniture pharmaceutique, du forex, des paris sportifs,
des produits haut de gammes...
40
Mémoire de recherche appliquée Antoine Pourron
Si une entreprise choisi d'utiliser le SEO black hat pour référencer son site internet à de
meilleures positions que ses concurrents (qui eux aussi l'utilisent potentiellement), il sera
nécessaire qu'il soit mieux développé, plus travaillé et plus poussé. Cependant, cela va dépendre
de nombreux critères que nous allons développer, et l'entreprise devra définir avec le référenceur
jusqu'à quel point elle souhaite aller dans ce référencement non éthique.
3. Les techniques et stratégies SEO Black Hat
a) L'Automatisation
L'automatisation est l'une des principales caractéristiques du référencement black hat. La
majorité des professionnels du référencement pense qu'une fois cette étape d'automatisation
franchie, il ne s'agit plus de SEO comme il l'est préconisé dans le guide du référencement de
Google. Cette automatisation s'opère à de nombreux niveaux dans le processus de référencement
d'un site ou d'une page internet :
1. La création de contenus : Nous avons vu dans les parties précédentes que le contenu est
la base du SEO, puisque c'est lui qui va permettre à Google de positionner et référencer
un site dans une ou plusieurs catégories, en fonction des mots clés insérés dans les
contenus. Nous avons également détaillé le fait que plus il y a de contenus optimisés ou
plus il y a de mises à jours sur un site, plus une page va gagner des positions dans les
pages de recherche. Avec le black hat, et via des logiciels spécifiques, il va être possible
de créer des contenus générés facilement et automatiquement, composés des mots clés
sur lsequels le référenceur souhaite se positionner. Cette technique est plus
communément appelé "content spinning". Pour cela, il suffit de créer un texte spécifique
composé d'autant de synonymes possibles pour chaque mot du texte, le logiciel en
ressortira des textes uniques et différents, mais tous constitués des mots clés spécifiés24. Il
existe de nombreux logiciels permettant de réaliser du content spinning, qu'ils soient
gratuits ou payants.
2. La création de "mini-sites" / blogs : De même, des logiciels existent pour créer
automatiquement des sites ou des blogs par centaine afin d'y déposer un contenu. De
24 Exemple de content spinning en Annexes. Page. 82
41
Mémoire de recherche appliquée Antoine Pourron
nombreuses plateformes sur internet permettent de créer gratuitement des sites/blogs. Au
lieu de les créer un par un pour construire une stratégie de Netlinking (comme vue en
première sous partie de ce mémoire) ou link-building, ces logiciels vont les créer
automatiquement. Parmi les plateformes les plus connues se trouvent Wordpress, Joomla,
Blogger, Tumblr, Blogspot...
3. La mise en ligne de contenus : Certains logiciels très développés de SEO black hat vont
permettre de mettre en ligne automatiquement l'ensemble des contenus créer
préalablement. Ces logiciels vont créer une liste de centaines ou milliers de pages internet
sur lesquels il est possible de poster un contenu (généralement il s'agit de plateforme
gratuites de blog comme les plus connues : Wordpress, Blogger ou encore Tumblr). Le
logiciel va calculer la puissance de chaque page au niveau du référencement (Pagerank
Google) afin de savoir sur quelles pages il est le plus intéressant de déposer un contenu.
Le référenceur pourra ensuite sélectionner le nombre de sites/blogs sur lesquels déposer
les contenus créés en affinant les critères des pages (Pagerank, publicités ou non sur les
sites, sites avec ou sans contenu,...). Le logiciel publiera ensuite de façon automatique
tous les contenus en fonction des chois du référenceur.
4. Intégration de liens dans les contenus : Toujours dans cette même démarche, le
référenceur va choisir d'insérer des liens à l'intérieur des contenus générés. Ces liens
auront naturellement des ancres différentes et variables selon les contenus. C'est l'unique
intérêt de cette technique. Les liens, pointant tous vers des sites internet qui auront
comme but de promouvoir le site à référencer (cf. schéma en partie 1.1.7), montreront à
Google que de nombreux sites internet et de nombreuses pages parlent du "site cible".
Ainsi, le référencement de ce dernier augmentera de façon significative.
5. La création de commentaires : Appelée également "spamdexing25", cette technique vise
à créer des commentaires en très grande quantité sur tous les sites permettant le dépôt de
commentaires. Il s'agit généralement de blogs. Le référenceur va choisir une liste
prédéfinie de blogs/sites en rapport avec la thématique du site internet à référencer afin
d'y déposer des commentaires uniques (Google sanctionne le copié collé) et variables. A
l'intérieur de ces commentaires seront insérés des liens qui pointeront indirectement (ou 25 Définition Spamdexing par dicodunet.com : Tentative de spam spécifiquement orientée vers les moteurs de recherche. Exemple : tenter de positionner dans les premières positions des résultats d'un moteur des pages non pertinentes par rapport au mot clé choisi.
42
Mémoire de recherche appliquée Antoine Pourron
directement) vers le site à référencer. Cela augmentera considérablement le nombre de
backlinks vers le site cible. Des logiciels de SEO black hat permettent donc réaliser ce
type de démarche automatiquement, avec une autre spécificité de taille : Ces logiciels
vont sélectionner pour le référenceur les plateformes où les commentaires sont
uniquement en "Do-follow26".
De manière générale, les logiciels de SEO black hat permettent de réaliser l'ensemble de ces
étapes. D'autres ne vont prendre en compte que le content spinning par exemple. Parmi les
logiciels d'automatisation black hat, voici les plus connus : Link Farm Evolution, plus
communément appelé "LFE", qui va permettre notamment la création de blog qui n'ont qu'une
utilité : le spamdesing. Le logiciel va permettre de passer outre les mesures de sécurité mises en
place par les plateformes de blog, bloquant généralement les créations automatisées. Les autres
outils27 connus de référencement black hat sont :
Scrapebox : Logiciel de "scraping28" en vue d'une stratégie de link-building.
SEnuke : Logiciel black hat netlinking et link-building.
X-Rumer : Logiciel black hat netlinking et link-building.
b) La Manipulation
L'une des principales caractéristiques du référencement black hat est la manipulation, qu'ils
s'agissent de la manipulation des internautes, des webmasters ou bien des moteurs de recherche.
Cependant, ces techniques nécessitent d'avantages de connaissances web que pour celles
présentées dans la partie précédente. Les techniques sont de plusieurs natures et vont avoir une
influence à divers niveau du processus de référencement d'un site ou d'une page internet :
Utilisation des positions CSS sur les pages web : Dans la construction d'un site internet,
le CSS est le code qui permet la disposition des éléments du site sur la page, comme la
26 Do-Follow : Terme technique de référencement qui signifie qu'un lien inséré dans un commentaire sera suivi, pris en compte et référencé par les moteurs de recherche. Un lien non pris en compte par les moteurs de recherche sera un lien No-Follow.27 Présentation SEO Blackout - http://www.seoblackout.com/2010/06/21/smx-paris-2010/28 Scraping (définitions-webmarketing.com) : "L’URL scraping est une technique de collecte automatisée d’URL sur un site ou un ensemble de sites qui est souvent utilisée à des fins de black hat SEO".
43
Mémoire de recherche appliquée Antoine Pourron
verra l'internaute. Les propriétés vont permettre de placer les éléments de gauche à droite
et de haut en bas via des données coordonnées positives par rapport à la gauche et au haut
du site. Le CSS permet cependant de placer des éléments via des coordonnées négatives,
c'est à dire des éléments qui seront en dehors de la page vue par l'internaute. Néanmoins,
les robots des moteurs de recherche verront ces éléments et les référencerons. La
technique consiste donc à placer des éléments (contenus la plupart du temps) avec un
ensemble de mots clés importants pour le référencement du site, en dehors du champ de
vision de l'internaute.
Referer Spamming : Dans le cadre du référencement, le referer est le site internet qui va
amener un internaute vers un autre site. Une technique de SEO black hat consiste à
modifier ce referer automatiquement via les options du navigateur internet afin de créer
un spam de visites. Le site visé par ce referer spamming verra dans ses statistiques de
nombreuses visites en provenance d'un site referer (dont l'adresse sera automatiquement
transformée pour promouvoir le site que nous souhaitons référencer). Des backlinks
seront automatiquement créés sur les sites de statistiques, et cela pour conséquences de
faire monter le positionnement du site à référencer.
Le cloaking : Il s'agit également d'une technique dont la mise en place va avoir lieu dans
le codage du site (partie non visible par l'internaute). Cette démarche nécessite de très
bonnes connaissances en codage et en maitrise de l'outil interne puisqu'elle va avoir une
influence entre l'adresse IP de l'internaute et le contenu affiché sur le site internet. Il va
ainsi être possible de créer une seule page internet avec des versions différentes. L'une
des versions sera par exemple réservée aux robots des moteurs de recherche, avec à
l'intérieur de nombreux éléments pour mettre en avant les mots clés en vue d'un meilleur
référencement. L'autre version sera réservée aux internautes, qui ne verront pas ce type
d'éléments.
L'achat de lien : Certains acteurs du référencement black hat vont parfois être amenés à
acheter des liens (en vue de créer des backlink pour améliorer le positionnement du site à
référencer) sur des sites de qualité et des sites puissants du point de vue du
référencement. Cette démarche est naturellement manuelle, il est impossible de
l'automatiser puisqu'il s'agit d'un rapport entre deux êtres humains. Elle permet d'apporter
un aspect qualitatif à la stratégie de SEO. Cependant, il s'agit d'une technique de
44
Mémoire de recherche appliquée Antoine Pourron
manipulation qui vise à tromper Google. Le lien acheté sur un site internet ne sera pas
"naturel".
Ces différentes techniques de manipulation issues du référencement black hat ne sont pas les
seules. De nombreuses autres stratégies, souvent beaucoup plus techniques, existent et
nécessitent une réelle expertise.
c) La sécurité
Les techniques vues précédemment, et de manière générale l'ensemble des techniques de
référencement SEO, sont des stratégies peu éthiques et qui parfois vont concurrencer
illégalement les autres sites internet. C'est la raison pour laquelle les référenceurs SEO doivent
faire en sorte que leurs travaux soient discrets, sécurisés et protégés, d'une part par rapport à
Google, d'autre part par rapports aux sites concurrents. Différents moyens le permettent, parmi
les principaux, nous avons :
IP et proxy29 changeants : Adresses d'un ordinateur ou d'un serveur web qui ne vont
jamais être identiques pour un même utilisateur. Cela permet de ne jamais retracer
l'origine d'une action sur internet, et de faire passer une action comme provenant de
plusieurs utilisateurs au lieu d'un seul, aux yeux de Google. Technique nécessaire pour
toutes stratégies de spam par exemple.
Balise <head> et propriété "noarchive30" et robots.txt : La propriété "noarchive" est à
insérer dans le code d'un site internet pour empêcher les robots des moteurs de recherche
d'enregistrer la page. Cela va en grande partie permettre de cacher les mauvaises
pratiques black hat mises en place sur un site internet. Utiliser le fichier robots.txt d'un
site internet va permettre quant à lui d'interdire aux robots Google l'indexation de
certaines pages web, où se trouvent des codes/scripts en vue d'une utilisation black hat
par exemple.
Aucuns liens avec Google : Les référenceurs black hat font attention à ne jamais créer
des liens trop proches avec Google depuis les sites qu'ils essayent de référencer, afin de 29 Proxy (par futura-sciences.com) : "Unique machine d'un réseau local connectée à l'internet et effectuant les requêtes internet pour les autres ordinateurs du réseau, comme demander une page web".30 Seoland.fr - la propriété "noarchive" - http://www.seoland.fr/moteurs-de-recherche-referencement-et-droits-d%E2%80%99auteurs/
45
Mémoire de recherche appliquée Antoine Pourron
ne fournir aucune information au moteur de recherche sur des pratiques douteuses :
Eviter l'insertion de codes Google Analytics (pour suivre les statistiques du site), Google
Adsence (régie publicitaire de Google), Google sites maps, etc.
Aucuns liens entre plusieurs "sites cibles" : Les référenceurs travaillent pour la plupart
sur le positionnement de plusieurs sites internet, qu'ils soient de la même thématiques où
non. Ces professionnels conseillent vivement de ne jamais créer de liens entre les sites à
référencer, afin que Google ne décèle jamais la mise en place d'une stratégie black hat
similaire entre ces sites. Les "sites cibles" doivent donc avoir chacun une stratégie
indépendante.
d) Les dérives et abus
Les différentes techniques présentées précédemment ont une influence positive sur le
positionnement et le référencement des sites internet, si elles restent raisonnables. En effet, cette
influence va dépendre en grande partie du degré d'utilisation de ces techniques, de l'ancienneté
mais aussi des antécédents du site internet. D'après un retour des professionnels français du
référencement black hat31 :
Un site internet déjà implanté et ancré sur internet depuis plusieurs années pourra
d'avantage utiliser les techniques black hat qu'un site âgé de quelques mois.
Un site internet sans antécédents (sanctions de la part de Google : désindexation, baisse
plus ou moins importante de positions...) pourra plus facilement s'intéresser au
développement d'une stratégie black hat
Un site internet qui comptabilise de milliers de visites par jour pourra plus facilement
faire du référencement black hat qu'un site avec peu de visites.
Le référencement black hat doit être pris avec beaucoup de recul et se lancer dans ce type de
stratégie doit faire l'objet d'une sérieuse étude et réflexion. Cependant, il existe des abus dans le
SEO black hat dont notamment l'attaque directe, pure et simple d'un concurrent. L'un des
meilleurs exemples serait celui de l'aspiration de site. Google puni très sévèrement le copier
coller de contenu entre les sites. Cette technique vise donc à copier-coller entièrement un site
31 Conférence Seosphère - Paris - Décembre 2010
46
Mémoire de recherche appliquée Antoine Pourron
internet (contenu, design...) dans le but de lui faire perdre de nombreuses positions dans les
moteurs de recherche. Avant que le site visé ne s'en rende compte, il se sera écoulé plusieurs
jours voir plusieurs semaines, et aura ainsi perdu de nombreuses visites. Ce type d'abus, tout
comme de nombreux autres, sont très vite sanctionnés.
4. SEO Black Hat, législation et sanctions
Nous l'avons présenté dans les parties précédentes, le SEO black hat est un ensemble de
techniques peu éthiques et surtout contraires au règlement de Google. Développer un
référencement sur le black hat comporte donc des risques que nous allons développer ci-dessous.
Tout d'abord, du point de vue de Google, les sanctions peuvent être multiples et avoir des
conséquences très importantes pour les sites internet qui travaillent sur un référencement black
hat. Les sanctions peuvent être en premier lieu de nature manuelles. Google, dans sa stratégie
qui consiste à limiter de plus en plus les pratiques black hat, a mis en place une plateforme
appelée "outils pour les webmasters" avec une partie "spam report". Depuis cette plateforme, il
est possible pour tout internaute de dénoncé à Google une pratique black hat qu'il a pu voir ou
subir. Suite à cela, Google mène une enquête et prend une décision. Si Google juge que le site
dénoncé utilise des techniques de black hat (duplicate content32, spamdexing,...), le site se verra
sanctionné de plusieurs manières possibles :
Forte perte de positions d'une ou plusieurs pages du site sur les pages de résultats de
recherche Google. Cette sanction est temporaire.
Forte perte de positions de l'ensemble du site sur les pages de résultats de Google
Désindexation des pages du site présentant des techniques black hat (Blacklistage)
Désindexation totale du site internet (Blacklistage)
Ce type de sanctions peuvent également être automatiques puisque, comme nous l'avons vu
dans les parties précédentes, Google met constamment à jour sont algorithme pour déceler ces
pratiques contraire à son règlement. C'est ainsi que de nombreux sites ayant basé une grande
32 Duplicate content : terme utilisé en référencement correspond à un simple copié collé de contenu
47
Mémoire de recherche appliquée Antoine Pourron
partie de leur stratégie de référencement sur ces techniques black hat ont vu leurs pages baisser
en position sur Google, voir même disparaître.
De telles sanctions peuvent être catastrophiques pour un site internet, ou pour une entreprise. La
désindexation de pages peut être la cause d'une perte financière considérable. Lors des dernières
mises à jours de l'algorithme Google, certaines entreprises ont même dû fermer. C'est la raison
pour laquelle il est nécessaire d'être très prudent avec ce type de pratiques, même si elles peuvent
être source de forts gains à court terme. Elles restent tout de même risquées.
D'une autre manière, le droit s'intéresse également de plus en plus aux questions de SEO. En
effet, de plus en plus de contentieux apparaissent. La mission du référenceur a un enjeu très
important pour tout site internet et cela peut déboucher sur des excès de tous types. Un article
publié sur lejournaldunet.com insiste sur le fait que "La gestion contractuelle du risque
juridique inhérent aux prestations de référencement suppose de connaître en amont les sanctions
prononcées par les Cours et Tribunaux lorsque les opérations menées pour le compte du client
ont conduit à franchir la limite de la légalité33".
5 Jurisprudences ont été mises en place et sont nécessaires à connaître :
"Les sites Internet référencés ne doivent, sauf à engager leur responsabilité civile, reprendre de
quelque manière que ce soit (notamment à titre de métatags) le nom patronymique d’une
personne (1), la dénomination sociale ou le nom commercial d’une société concurrente (2) un
nom de domaine identique ou similaire à celui d’un tiers (3), ou encore une marque de
commerce déposée (4).Une étude de la jurisprudence révèle en outre le prononcé de
condamnations complémentaires sur le fondement de la concurrence déloyale, notamment
lorsque la preuve est apportée que ces agissements ont créé un risque de confusion entre les sites
internet et parfois un détournement de clientèle (5) 34".
33 Source : SEO et droit : 5 jurisprudences à connaître impérativement http://www.journaldunet.com/solutions/expert/51603/seo-et-droit---5-jurisprudences-a-connaitre-imperativement.shtml34 Source : SEO et droit : 5 jurisprudences à connaître impérativement http://www.journaldunet.com/solutions/expert/51603/seo-et-droit---5-jurisprudences-a-connaitre-imperativement.shtml
48
Mémoire de recherche appliquée Antoine Pourron
En France, la justice s'est également intéressée aux questions de référencement via des stratégies
de Netlinking et de sites satellites (Cour d'appel de Douai). La cours d'appel de Douai insiste sur
le fait que la création de liens "non naturels" peuvent être défini comme un acte de concurrence
déloyale, action pouvant ainsi amener une entreprise ou un référenceur devant les tribunaux.
Cependant, comme toutes jurisprudences, les termes utilisés et les différentes techniques de
référencements vont rendre une action en justice compliquée, sur un secteur encore peu connu.
Dans ce même article, publié par Gérard Haas (Avocat, Hass société d'avocats), il résume et
explique la situation en écrivant : "Il peut être avancé que la création de sites satellites n’est pas
en elle-même constitutive de concurrence déloyale sauf dans les cas où il est démontré que
l’objectif unique de ces sites satellites est d’optimiser le référencement naturel su site
principal35".
Le SEO black hat est donc une stratégie gagnante, mais dont il faut connaître tous les aspects,
qu'ils s'agissent des sanctions de Google ou des possibles condamnations par la justice. Ignorer
ces aspects peut être une source d'insécurité pours les professionnels du référencement, pour les
sites internet mais aussi pour les entreprises.
35 Gérard Hass - Journaldunet.com http://www.journaldunet.com/solutions/expert/51603/seo-et-droit---5-jurisprudences-a-connaitre-imperativement.shtml
49
Mémoire de recherche appliquée Antoine Pourron
CHAPITRE 3 : PROBLÉMATIQUE ET HYPOTHÈSES
Suite à cette partie théorique et exploratoire, nous avons réalisé un état des lieux et
analysé ce que sont les différents types de référencement, leurs caractéristiques, leurs forces,
leurs faiblesses et les intérêts respectifs pour les sites internet et les entreprises par rapport aux
moteurs de recherche, en particulier Google. Le SEO white hat va permettre d'apporter un
référencement de qualité sur du moyen et long terme dans un milieu concurrentiel, et un
positionnement qui s'avère être indispensable pour qu'un site interne devienne rentable et
pérenne. De son côté, le SEO black hat, développé en deuxième sous partie, sera être un
ensemble de techniques contraire aux directives de Google mais qui vont permettre à un site
internet de se référencer rapidement, sur le court terme, dans un secteur à forte concurrence. Ces
stratégies black hat demandent beaucoup plus de maitrises des techniques et outils du web, et un
investissement financier important, mais peuvent être
sources de forts revenus, plus rapidement que via un
référencement naturel white hat. Cependant, et comme
nous l'avons vu en fin de première partie de ce mémoire,
le référencement black hat comportes des dangers et des
risques pour les sites internet et entreprises qui utilisent
ces techniques.
Il convient alors de se demander comment optimiser le SEO dans un milieu concurrentiel, alors
que le SEO Black Hat apparaît comme plus productif pour les entreprises, mais risqué ?
Plusieurs hypothèses répondant potentiellement à cette problématique peuvent alors être
dégagées, hypothèses qui seront à la base de l'étude terrain de ce mémoire de recherche :
La première hypothèse serait de travailler sur l'élaboration de techniques dites "grey
hat36", c'est à dire des stratégies reprenant certaines techniques positives issues du
36 Illustration "grey hat" par http://blog.axe-net.fr
50
Mémoire de recherche appliquée Antoine Pourron
référencement black hat, mais en proscrivant toute la partie néfaste et risquée de cette
dernière.
La seconde serait de développer des stratégies SEO, avec une préparation en amont, un
suivi et une analyse plus travaillés sur du moyen terme, en y apportant un gage de
résultats pour les entreprises, en vue d'éviter le SEO black hat et les risques liés.
Au travers d'une étude terrain basée sur des entretiens semi-directifs auprès de professionnels et
experts du référencement, l'objectif va être de confirmer ou d'infirmer les hypothèses présentées
précédemment. Dans cette seconde partie qui constituera la partie terrain, nous nous
intéresserons tout d'abord à la mise en place du questionnaire en vue des interviews, en détaillant
le choix du type d'entretien, les objectifs, les thèmes que nous allons abordés et enfin les
difficultés rencontrées lors de ces entretiens. Les résultats liés aux entretiens feront l'objet d'une
analyse précise pour en dégager des préconisations, en vue de répondre de la manière la plus
claire possible à la problématique de ce mémoire de recherche appliquée.
51
Mémoire de recherche appliquée Antoine Pourron
DEUXIEME PARTIE - TERRAIN
CHAPITRE 1 : PRÉSENTATION DE L'ÉTUDE
1. Choix de la méthode d'étude
Suite à la problématique et aux hypothèses développées à la fin de la partie théorique de
ce mémoire de recherche appliquée, nous avons décidé de travailler sur une méthode qualitative
de recueil des données plutôt qu'une méthode quantitative. En effet, le nombre de professionnels
du référencement est restreint en France, et il l'est encore bien inférieur pour les référenceurs
black hat. En France, on dénombre un peu moins de 50 référenceurs black hat experts dans ce
secteur. C'est la raison pour laquelle une méthode quantitative de recueil des données ne pourrait
fonctionner ici. De plus, l'objectif de la problématique étant d'apporter une réponse précise et
technique, l'aspect qualitatif des réponses serait beaucoup plus intéressant. L'entretien semble
donc correspondre à cette problématique davantage que le questionnaire.
Dans le sens où il s'agit d'une problématique et d'hypothèses techniques, il va être nécessaire
d'obtenir des réponses précises et claires sur les différents thèmes abordés : Le référencement
white hat, le référencement grey hat, le référencement black what, l'algorithme Google,... C'est
pourquoi nous allons choisir de réaliser des entretiens de type semi-directifs. Une première
question générale sera posée aux professionnels de référencement, puis, en fonction du
développement de leurs réponses, nous aborderons les autres thèmes choisis, soit de manière
naturelle, soit via un ensemble d'autres questions. Sur un sujet comme le référencement, et plus
particulièrement le référencement black hat, il s'agit d'un domaine qui peut parfois gêner, dans le
sens où il s'agit de techniques sombres et illégales. Mais il est également possible que les
professionnels ne souhaitent pas répondre de manière précise aux questions, puisque ce métier
est réservé à peu de personnes, où l'expertise se monnaye à une forte valeur. L'entretien semi-
directif aura donc pour effet de laisser parler au maximum les interrogés, avec la possibilité de
les relancer sur d'autres thématiques par la suite.
52
Mémoire de recherche appliquée Antoine Pourron
2. Objectifs de l'entretien
Au travers de l'entretien semi-directif que nous allons réaliser, l'objectif va être d'échanger
sur les différentes facettes du référencement naturel sur internet. La problématique, définie au
terme de la partie théorique de ce mémoire, nécessite une approche tournée particulièrement sur
de la stratégie et de la technique. Le but d'un tel entretien est donc d'obtenir le plus de réponses
précises et claires possibles sur les notions de SEO black hat, grey hat et white hat, mais aussi sur
les avis des professionnels par rapport à ces différentes méthodes, sur ce qu'implique aujourd'hui
une stratégie de référencement ou encore sur l'adaptation de ces experts aux évolutions de
l'algorithme Google.
De manière plus générale, l'entretien aura pour objectif de confirmer ou d'infirmer les deux
hypothèses développées précédemment. C'est la raison pour laquelle le choix des personnes à
interroger est important et c'est pourquoi nous avons choisi de ne travailler ici qu'avec des
experts français du référencement, certains évoluant uniquement sur du SEO white hat et d'autres
uniquement dans le domaine du SEO Black hat. Une troisième catégorie de professionnels
développe quant à elle des stratégies de référencement naturel via les deux écoles précédentes.
Avoir l'avis de personnes qui connaissent les deux modes de fonctionnement a un réel intérêt
dans le sens où elles vont avoir le recul nécessaire pour définir les avantages et les limites de ces
deux méthodes.
3. Thèmes et questions de l'entretien
Avec l'entretien que nous allons réaliser pour répondre à la problématique évoquée
précédemment, nous avons la volonté de recueillir les témoignages et avis de deux types de
professionnels du référencement naturel et gratuit : Les experts en référencement naturel white
hat et les experts en référencement black hat. Nous rappelons qu'il est important et intéressant
d'interviewer ces différents types d'acteurs français du référencement afin d'avoir une vision
transversale mais précise du domaine. Cela nous permettra d'obtenir un grand nombre de
53
Mémoire de recherche appliquée Antoine Pourron
connaissances en vue de répondre de la meilleure manière possible à cette problématique et aux
hypothèses dégagées via des préconisations. Comme les personnes interviewées font partie de
deux catégories distinctes de référenceurs, il convient alors de réaliser deux types de questions
sur des thématiques quelques peu différentes, mais qui se rejoignent.
Concernant les entretiens à réaliser avec les experts du SEO white hat, la grille d'entretien37 ci-
dessous présente l'ensemble des thèmes que nous souhaitons aborder et sur lesquelles nous
souhaitons obtenir des réponses.
Partie du guide / les thèmesInterventions et relances prévues / Les questions
pour amener l’individu à parler sur ce thème
Thème 1 : Avis sur le SEO Black Hat
- Comment êtes-vous arrivé dans le secteur du SEO ?
- De manière générale, que pensez-vous du SEO
Black Hat ?
Thème 2 : La limite entre SEO Black
Hat et SEO White Hat
- Selon vous, où se situe la limite entre le SEO white
Hat et le SEO Black Hat ?
- Pourquoi ?
Thèmes 3 : Le SEO Grey Hat
- Qu'est ce que le SEO Grey Hat pour vous ?
- Est-ce un bon compromis entre le White Hat et le
Black Hat ?
Thèmes 4 : Changements
d'algorithmes et méthodes de travail
- En tant que SEO White hat, est-ce que les
changements d'algorithmes ont eu un impact sur
votre référencement ?
- Est-ce que les changements d'algorithmes ont fait
changer votre façon de travailler ?
Thèmes 5 : Développement SEO White
Hat par rapport au Black Hat
- Pensez-vous que le SEO White hat pourrait être
amélioré pour éviter de passer par le black Hat ?
- Comment ?
- Quel est votre argumentaire pour favoriser le SEO
White Hat envers des clients qui hésiteraient avec le
37 Grille d'entretien avec questionnaire associé présenté en annexe P. 80
54
Mémoire de recherche appliquée Antoine Pourron
SEO Black Hat ?
Thème 6 : Promesses de résultats et
SEO
- Pensez-vous qu'il soit possible aujourd'hui de faire
des promesses de résultats sur les stratégies SEO ?
Concernant les entretiens à réaliser avec les experts du SEO Black Hat ou bien les experts qui
travaillent sur les deux types de référencement, nous avons élaboré une autre grille
d'entretien38. Les thèmes se rejoignent mais certaines des questions divergent. L'analyse que nous
réaliserons à la suite des entretiens nous permettra de faire se confronter les deux approches afin
d'en dégager une réponse précise à la problématique et aux hypothèses. Ci-dessous la seconde
grille d'entretien :
Partie du guide / les thèmesInterventions et relances prévues / Les questions
pour amener l’individu à parler sur ce thème
Thème 1 : Avis sur le SEO Black Hat
- Comment êtes-vous arrivé dans le secteur du SEO,
et plus particulièrement dans le SEO Black Hat ?
- Quelles sont vos motivations dans le SEO Black
Hat ?
- Quelles sont pour vous les avantages du SEO Black
Hat ?
Thème 2 : La limite entre SEO Black
Hat et SEO White Hat
- Selon vous, où se situe la limite entre le SEO white
Hat et le SEO Black Hat ? Pourquoi ?
Thèmes 3 : Le SEO Grey Hat
- Qu'est ce que le SEO Grey Hat pour vous ?
- Est-ce un bon compromis entre le White Hat et le
Black Hat (Pour les personnes qui hésiteraient à aller
vers du Black Hat) ?
Thèmes 4 : Changements
d'algorithmes et méthodes de travail
- En tant que SEO Black hat, est-ce que les
changements d'algorithmes ont eu un impact sur
votre référencement ?
- Est-ce que les changements d'algorithmes ont fait
38 Grille d'entretien avec questionnaire associé présenté en annexe P. 81
55
Mémoire de recherche appliquée Antoine Pourron
changer votre façon de travailler ?
Thèmes 5 : Développement SEO White
Hat par rapport au Black Hat
- Pensez-vous que le SEO White hat pourrait être
amélioré pour éviter de passer par le black Hat ?
- Comment ?
Thème 6 : Promesses de résultats et
SEO
- Pensez-vous qu'il soit possible aujourd'hui de faire
des promesses de résultats sur les stratégies SEO ?
4. Choix des acteurs
Dans le domaine d'activité du web, et ici spécifiquement dans le secteur du
référencement, les professionnels et experts échangent fortement entre eux et avec les internautes
via les réseaux sociaux, leurs blogs respectifs. Ils n'hésitent pas à partager leurs derniers essais en
matière de référencement, qu'il s'agisse du SEO black hat ou SEO white hat, mais aussi leurs
ressentis par rapport à l'évolution des algorithmes Google par exemple. Parfois, certains vont
même jusqu'à partager leurs stratégies de référencement afin d'y expliquer ce qui a fonctionné et
ce qui n'a pas fonctionné, en détaillant les avantages et les limites. Dans le domaine du Black hat,
secteur réservé à une poignée de français, il est beaucoup plus difficile de voir un expert black
hat partager facilement ses stratégies, qui généralement sont sur des sites dont l'accus est
fortement limité. Cependant, les référenceurs et experts français, White ou black hat, sont
connus, notamment grâce à Twitter où ils échangent quotidiennement.
C'est grâce à ce moyen qu'une sélection des meilleurs référenceurs de France à pu être établie
en vue de les interroger pour ce mémoire de recherche appliquée. Contactés tout d'abord par
email, une grande majorité a répondu favorablement à cette demande d'entretien. Ces derniers se
sont alors déroulés par téléphones, par skype ou bien en face à face. Ci-dessous, nous allons
maintenant décrire les différents acteurs qui ont été interrogés lors de ces entretiens semi-
directifs :
56
Mémoire de recherche appliquée Antoine Pourron
Franck Ruet - Etudiant ISEG Lyon et référenceur Black Hat confirmé :
Actuellement en 4ème année d'études supérieures à la Marketing & Communication School -
ISEG Campus de Lyon, en spécialité E-marketing, Franck s'est très vite trouvé une passion pour
le référencement il y a quelques années. Suite à des d'expériences de référencement qui ont
portées leurs fruits, il a décidé de se lancer il y a deux ans en tant qu'auto-entrepreneur et propose
aujourd'hui ses services en freelance. Il s'est très vite spécialisé dans le référencement black hat
suite à de nombreuses rencontres. Il est aujourd'hui reconnu pour ses compétences dans cette
petite communauté française du SEO Black Hat, c'est la raison pour laquelle il a été important et
intéressant de réaliser un entretien avec lui.
Maxime Doki-Thonon - Co-Géran 6WWW et consultant SEO :
Maxime est à la tête du groupe 6WWW depuis 2 ans, une agence de communication Web située
à Paris. Il s'occupe principalement de la partie référencement naturelle du groupe avec comme
spécialités le planning stratégique de campagne de référencement et le gestion de campagnes de
Netlinking. Avant de s'orienter vers le référencement, Maxime s'intéressait principalement à la
création web (design et développement). Il s'agit d'un professionnel qui a donc du recul sur le
monde d'internet et qui est très ouvert d'esprit. Dans le cadre de son entreprise, ses stratégies de
référencement sont orientées white hat, mais il lui plait de s'informer continuellement sur les
stratégies de SEO black hat pour sa veille et sa culture personnelle comme professionnelle.
Kévin Richard - Référenceur web orienté black hat / formateur et gérant de Cultivaref :
Kévin est considéré par la communauté des SEO black hat française comme l'un des plus
compétents dans son domaine. Son activité consiste en plusieurs missions : La réalisation de
plusieurs missions de référencement pour le compte de clients en vue d'augmenter de manière
significative le trafic et le taux de conversion sur leurs sites. Il propose le choix entre du SEO
White Hat et du SEO Black Hat. Il forme également individuellement ou en groupe au
référencement et à l'acquisition de trafic au travers de 3 aspects : La technique, le rédactionnel et
le netlinking. Dans la communauté SEO, Kévin est bien plus connu sous le pseudonyme de
"512banque".
57
Mémoire de recherche appliquée Antoine Pourron
Paul Sanches - Référenceur et formateur black hat :
Davantage connu sur internet sous le pseudonyme de "Tiger SEO", Paul est également l'un des
meilleurs référenceur black hat de France. Il travaille depuis plusieurs années sur le
référencement d'acteurs dans le secteur des jeux en ligne, comme par exemple le poker, mais
s'intéresse de plus en plus à des thématiques moins concurrentielles. Pour Paul, les techniques
black hat sont des techniques de référencement avancées et insiste sur le fait que c'est un état
d'esprit, qui vise à se poser continuellement des questions et avoir du recul pour créer les
meilleurs stratégies possibles. Partant de ce constat, il insiste aussi sur le fait que tout est
possible, du SEO white hat au SEO Black hat, jusqu'à d'éventuelles techniques de hacking.
Obtenir son intervention sur ce sujet a été un réel point positif.
Sandrine Bertrand - Consultante en référencement naturel SEO :
Sandrine est consultante dans la région de Toulouse, région qui regroupe une forte communauté
de professionnels du référencement. Etant dans ce secteur d'activité depuis près de 10 ans, elle
conseille aujourd'hui des sites internet en vue d'améliorer leur visibilité sur les moteurs de
recherche.
Maxime Fulpin - Chef de projet Web-marketing - Agence Cybercité (Lyon)
Diplômé d'une licence professionnelle Marketing Digital de l'université Lyon 3, Maxime
travaille depuis le 4 Octobre 2010 au sein d'une des principales agences de référencement de la
région lyonnaise : Cybercité. Il gère chaque jour le référencement de nombreux clients
(référencement naturel (SEO), référencement payant (Search engine advertising) et
développement de communautés sur les réseaux sociaux (SMO : Social Media Optimization).
Maxime réalise également des missions en Freelance en création de sites internet optimisés pour
le référencement.
5. Difficultés rencontrées
Même si les entretiens se sont très bien déroulés avec les différents professionnels et
experts du référencement cités précédemment, quelques difficultés sont tout de même apparues.
58
Mémoire de recherche appliquée Antoine Pourron
La prise de contact n’a en aucun cas été difficile, puisque même si ces professionnels sont très
sollicités, ils restent néanmoins accessibles rapidement et facilement, via Twitter ou bien par
email. Puis de manière générale, il s’agit de personnes très ouvertes d’esprit. La première
difficulté a d’avantage été de les rencontrer. En effet, ces différents experts exercent
principalement sur les zones de Paris et de Toulouse, et ont pour la plupart un emploi du temps
très chargé, même le week end. Les jours de semaines, ils réalisent généralement des formations
ou travaillent pour le compte de clients divers. Puis le soir et le week end, certains travaillent sur
leurs propres projets. C’est pourquoi il est n’est pas toujours évident pour eux de nous consacrer
30 min ou une heure sur leurs emplois du temps. Nous avons donc pu rencontrer certains de ces
professionnels en face à face lors de déplacement à Paris ou à Lyon. Pour les personnes qui ne
pouvaient se rendre disponibles, les entretiens se faisaient en général par le logiciel de discussion
à distance « Skype », ou bien par téléphone. Pour les experts qui étaient extrêmement occupés,
certains des entretiens ont du être effectués par email.
Une autre difficulté concerne plus particulièrement la différence entre les entretiens en face à
face et les entretiens par téléphone. Par téléphone il est beaucoup plus difficile de déceler des
hésitations par exemple, et impossible de voir des expressions du visage, qui pourraient être
preuve d’inconfort face à ce sujet de référencement illégal / black hat. Cependant, dans les
entretiens, les référenceurs black hat en ont parlé de manière naturelle, sans donner l’impression
de se limiter. L’impression avec les personnes contactées par téléphones était plutôt semblable.
Concernant les quelques personnes interrogées par email, nous ne pouvions malheureusement
nous intéresser qu’au contenu.
L'une des difficultés à également été retenue dans la prise de note. La problématique de ce
mémoire de recherche étant très technique, les personnes interrogées souhaitaient illustrer leurs
propos en montrant certaines techniques sur ordinateur ou bien via un partage d'écran lors des
entretiens par le logiciel de discussion Skype. Suivre les explications sur écrans et prendre des
notes parallèlement étaient plus difficile à mettre en œuvre.
Il est nécessaire de noter enfin une difficulté rencontrée avec certains experts du SEO, qu’ils
soient orientés white hat ou orientés black hat. Ces derniers ne semblent jamais avoir honte de
59
Mémoire de recherche appliquée Antoine Pourron
parler de la partie sombre du référencement naturel, il ne s’agit pour eux que de techniques
avancées et d’un état d’esprit spécifique. Cependant, dès que nous souhaitons obtenir des détails
sur leurs stratégies de référencement naturel ou obtenir des petites astuces en vue de répondre à
notre problématique et aux hypothèses, il arrive parfois que certains restent vagues. En effet,
l’explication de ces techniques avancées se monnaye généralement très cher, d’où leurs emplois
du temps chargés concernant les formations. La concurrence étant au cœur de leurs activités
quotidiennes, en vue de positionner leurs sites et ceux de leurs clients en premières positions des
résultats de recherche Google, les référenceurs ne partagent pas facilement leurs stratégies et
techniques.
Malgré cela, le retour sur ces entretiens a été beaucoup plus positif que négatif, et il a été très
intéressant d’avoir le retour de tels experts et professionnels du SEO en white hat et black hat.
60
Mémoire de recherche appliquée Antoine Pourron
CHAPITRE 2 : ANALYSE DE LA PARTIE TERRAIN
1. Résumés des entretiens
1. Entretien Kévin RichardPartie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Le SEO était et est toujours une nécessité. Sans le SEO, beaucoup
d'entreprises n'existeraient plus.
- Le Black Hat est ce qui a le plus fonctionné, c'est un bon moyen
d'obtenir des résultats rapidement.
- Le Black Hat est risqué, il faut avant tout se poser la question de la
nécessité de rentabilité du site ou non (est-ce un site jetable ?)
- Avantages : Passionnant, on va vraiment au bout des choses, on
peut tout tester. Le Black Hat a 10 longueurs d'avances sur les autres
types de SEO. On appelle les SEO Black hat lorsqu'on a une
obligation de résultats
Inconvénients : Parfois incompris voire rejeté, techniques
dangereuses si mal employées
Thème 2 : La limite
entre SEO Black Hat et
SEO White Hat
- Si l'on peut dire à Google les techniques que l'on a employées, c'est
du SEO White Hat.
- Si on ne peut pas le dire ou si l'on hésite, c'est du SEO Black Hat.
Thèmes 3 : Le SEO
Grey Hat
- C'est du SEO "pas trop" Black Hat. C'est du Black avec quelques
scrupules.
- Or, on voit aujourd'hui que le Grey Hat est celui qui se fait le plus
pénaliser par Google, donc c'est comme du Black Hat.
- Soit on respecte la parole de Google totalement, soit on la
transgresse totalement. Le Grey Hat n'a aucun intérêt.
Thèmes 4 :
Changements
- Bien entendu, la méthode de travail change, on s'adapte pour
trouver de nouvelles techniques.
61
Mémoire de recherche appliquée Antoine Pourron
d'algorithmes Google
Thèmes 5 :
Développement SEO
White Hat par rapport
au Black Hat
- Le White hat ne peut absolument pas avoir les mêmes résultats que
du SEO Black Hat. Les clients disent qu'ils ont testé (White Hat) et
cela n'a rien donné. Un site a optimiser, c'est facile. Un site à
positionner (ranker), c'est plus difficile.
Thème 6 : Promesses
de résultats et SEO
- Impossible aujourd'hui de faire des promesses de résultats. On
arrive à se tromper parfois en termes de délais et d'atteinte de
positions. Mais il y des exemples extrêmes où malgré un lourd
travail, le site ne bougera pas d'un centimètre sur les moteurs de
recherche.
- "Restons humbles, nous ne savons rien, nous sommes en
perpétuelle recherche et amélioration"
2. Entretien Maxime Doki-ThononPartie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Pour quelqu'un qui travaille à son compte sur des petits projets, il n'y
a pas vraiment d'inconvénients, simplement de perdre quelques
positions sur les moteurs de recherche.
- Pour une entreprise, c'est plus compliqué. Elle s'expose à des risques
de "bad buzz". Le principal risque est bien sûr la pénalité qui peut
arriver vite si le travail est mal fait.
- L'avantage du Black hat est qu'il n'y a pas besoin d'une grande équipe
pour accomplir de grandes choses.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- Tout dépend de la définition que l'on donne du SEO White Hat et du
SEO Black Hat.
- Selon Google, dès lors que l'on rentre dans une stratégie de
Netlinking (échanges de liens, etc.) on fait du SEO Black Hat.
Thèmes 3 : Le SEO - Le SEO Grey Hat, c'est faire des liens, là ou c'est possible, sans pour
62
Mémoire de recherche appliquée Antoine Pourron
Grey Hat
autant spammer. C'est un mix entre les définitions citées
précédemment : Black Hat pour Google (création de liens et stratégie
de netlinking) et White Hat dans la façon de les créer.
Thèmes 4 :
Changements
d'algorithmes Google
- Avant, ma devise était : "Tant que le site est clean (optimisé
correctement sans abus), fais ce qu'il te plait en Netlinking".
- Maintenant c'est plus compliqué, il faut faire attention de ne pas sur-
optimiser une page et il est nécessaire d'être plus subtile dans la
stratégie de Netlinking (variation des ancres, pourcentage d'ancres
branding/désoptimiser, diversification de la provenance des liens, etc.)
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- En terme de liens créés, le White hat ne peut pas concurrencer la
Black Hat. C'est avant tout la qualité des liens créés qui compte . En
terme de positionnement, oui c'est possible, c'est juste une question de
rentabilité. Dans certains secteurs, le white hat peut être aussi rentable
que du Black Hat. Dans d'autres secteurs, utiliser du white hat serait
une aberration.
Thème 6 : Promesses
de résultats et SEO
- C'est de plus en plus dur avec ces changements d'algorithmes. Il est
difficile de comprendre comment et pourquoi certaines positions
n'évoluent pas, et il est difficile de prédire ce qui se passera chez
Google à court terme.
- On peut promettre un travail, mais pas un résultat.
3. Entretien Maxime FulpinPartie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- J'ai plutôt des idées négatives, ayant eu personnellement le cas sur un
site où les actions de black hat réalisées par un tiers lui ont fait perdre
de la visibilité sur Google. Mais sinon, dans certains secteurs hyper
concurrentiels, les techniques black hat sont obligatoires.
Thème 2 : La limite - La limite se situe au moment où les actions que l'on met en place
63
Mémoire de recherche appliquée Antoine Pourron
entre SEO Black Hat
et SEO White Hat
peuvent être détectées par Google et les moteurs de recherche comme
non naturelles.
Thèmes 3 : Le SEO
Grey Hat
- On est soit white hat, soit black hat. Faire du grey hat c'est faire du
black hat
Thèmes 4 :
Changements
d'algorithmes Google
- Oui. Les dernières mises à jour de l'algorithme (Panda et Pinguin) me
font changer ma façon de travailler. On adapte les techniques en
fonction des nouvelles "règles" qui en découlent.
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- Pour être correctement visible sur le web, il faut utiliser un mix
webmarketing de SEO, de SMO (Social Media Optimization) et de
SEA (Search Engine Advertising)
Thème 6 : Promesses
de résultats et SEO
- Non, ne jamais promettre des résultats. On est complètement
dépendant des moteurs de recherche, et principalement en France, à
95% de Google.
4. Entretien Paul SanchesPartie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Je n'aime pas le terme de black hat, c'est plutôt du hacking version
SEO. Un condensé d'ingéniosité, de toujours rechercher la petite chose
qui fera qu'on va référencer un site rapidement. Je vois une
opportunité, je l'exploite au maximum. Il y a plusieurs stratégies, pas
besoin lancer la créations de milliers de backlinks en 30 min :
Sélectionner les bons liens, connaître les bonnes sources de backlinks,
de bonnes optimisations sur sites... De plus en plus c'est le
comportement utilisateur qui va être pris en compte. Il faut utiliser ca,
faire qu'un site semble légitime, qu'il donne confiance.
Thème 2 : La limite
entre SEO Black Hat
- Faire du black hat mais sans que ce soit un travail sale. Créer
automatiquement 70 liens qualitatifs et bien positionnés au lieu de
64
Mémoire de recherche appliquée Antoine Pourron
et SEO White Hat
créer 5000 liens en quelques heures, c'est faire du grey hat. En fait je
suis plus sur un travail de grey hat que de black hat. Je cherche
l'optimisation du black hat pour faire un travail qui semble propre aux
yeux de Google et de l'internaute.
Thèmes 3 : Le SEO
Grey Hat
- La meilleure des solutions. On fait du grey hat surtout pour de très
gros clients où le site à référencer ne peut pas être touché directement.
On passe par des sites intermédiaires qu'on va optimiser et ranker, une
fois qu'ils sont bien niveau SEO, on fait des redirections 301 39vers les
pages du site principal pour augmenter leurs positions.
Thèmes 4 :
Changements
d'algorithmes Google
- Avec les changements, je me suis pris quelques pénalités sur des sites
de clients où je n'ai pas réussi à atteindre l'objectif. Je commence
aujourd'hui à comprendre les raisons : Trop de communiqués de presse
envoyés d'un coup (pas assez espacés dans le temps), content spinning
(automatisation de création de contenu aléatoire) de pas assez bonne
qualité. C'est le spam de commentaires qui a vraiment bien fonctionné
et qui a permis de ne pas trop descendre dans les positions Google.
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- Avec le White hat, on va réussir à faire la même chose qu'avec du
Black Hat, c'est le timing qui change. Il faudra beaucoup plus de
temps, il va falloir passer par la création d'une communauté, pour créer
une référence. Il va falloir investir beaucoup plus : main d'œuvre pour
création de contenu et modération de la communauté, achat d'un très
bon nom de domaine... Le but est de créer un site clean, un site portail
référencer via White hat et on le pousse avec des sites intermédiaires
via du black hat.
Thème 6 : Promesses
de résultats et SEO
- Je garantis toujours des résultats, en fonction de là d'où part le site à
référencer. Je garantis sur des positions larges ou précises : 3
premières pages Google, 1ère page, Top 3 des positions, etc.
5. Entretien Sandrine Bertrand39 Définition "redirection301" par définitions-webmarketing.com : "La redirection 301 est un code présent dans l’entête d’une page HTTP qui indique au navigateur d’un visiteur ou au robot d’indexation d’un moteur que le contenu d’une page a définitivement changé de localisation et donc d’URL".
65
Mémoire de recherche appliquée Antoine Pourron
Partie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Le Black Hat sert à faire avancer le white hat, en découvrant de
nouvelles stratégies, de nouvelles méthodes et de nouvelles techniques.
Les référenceurs black hat permettent d'indiquer là où il y a du danger
dans le référencement.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- Pour moi il n'y a plus de white hat, les règles imposées par Google
sont trop restreintes, et si on les suit à lettre, on ne peut pas faire un
référencement qui fonctionne et il est impossible de positionner
correctement un site internet. Le SEO est grey hat majoritairement
aujourd'hui.
Thèmes 3 : Le SEO
Grey Hat
- Dès qu'on envoie des communiqués de presse sur des sites de CP, dès
qu'on cherche à avoir des backlinks, on est dans le Grey Hat.
- Le grey hat est un ensemble de techniques qui reviennent le plus
souvent. En fonction de l'attente des clients, comment elles souhaitent
se positionner, on va travailler sur des communiqués de presse, du
netlinking, on est dans le grey la plupart du temps.
Thèmes 4 :
Changements
d'algorithmes Google
- Les évolutions d'algorithmes n'ont pas changé ma façon de travailler,
il n'y a vraiment rien de très nouveau. Pingouin (nouvel algorithme
2012), c'est la même chose que Florida en 2003, à peu de choses près.
C'est la même problématique, à la différence qu'il faut être un peu plus
fin dans les stratégies de référencement. Avec Pingouin, les warning
s'allument juste plus vite.
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- Il ne faut surtout pas faire de white hat en essayant de faire du black
hat.
- Une technique au niveau des optimisations consiste à essayer de faire
quelque chose de toujours plus propre. Les white hat on tendance à
trop vouloir sur-optimiser leur site, à travailler beaucoup plus le "on
site" (tout ce qui se trouver sur le site internet) plutôt que le "off site"
66
Mémoire de recherche appliquée Antoine Pourron
(Sites externes au site à référencer).
Thème 6 : Promesses
de résultats et SEO
- Impossible, du moment que l'on dépend de Google, il peut changer
de moyen de référencement des sites à n'importe quel moment. On
peut donc promettre les moyens mais pas les résultats.
6. Entretien Franck RuetPartie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Le SEO Black hat est très bien, si on en fait correctement. Trop de
personnes abusent des techniques et salissent l'image de ses stratégies.
Les avantages sont le gain de temps et la "recherche", cela permet de
multiplier les projets. Les inconvénients sont la pérennité des postions
qui peuvent disparaître du jour au lendemain.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- La limite entre les deux c'est l'automatisation. Le white n'en a que
très peu, ce sont uniquement les référenceurs des très grandes
entreprise qui bénéficient de liens « vraiment » naturels d’autres sites.
- Tout les soit disant white hat font des liens « artificiels », donc selon
moi la frontière est l’automatisation
Thèmes 3 : Le SEO
Grey Hat
- Je ne saurais définir un grey hat, c'est une référencement comme un
autre selon moi.
Thèmes 4 :
Changements
d'algorithmes Google
- Les changement d’algo changent les manières de travailler puisqu’il
faut toujours s’adapter. Le référencement, lorsqu’il n’y a que très peu
de changement d’algo, devient une routine. Avec les changement
d’algo, on se remet en question, on cherche des nouvelles sources de
liens, etc.
Thèmes 5 :
Développement SEO
White Hat par
- Le SEO WH ne peut selon moi pas atteindre les même résultats
qu’un BH sur certaines thématiques dans la mesure où la concurrence
est tellement féroce que les acteurs utilisent des techniques de plus en
67
Mémoire de recherche appliquée Antoine Pourron
rapport au Black Hat plus borderline et des outils de plus en plus puissants.
Thème 6 : Promesses
de résultats et SEO
- Je pense que l'on peut promettre des résultats. Lorsque l’on est sur de
ses qualité et ses « techniques », on peut garantir des position. Pas une
position exacte, mais une page1, un top5, un top3 etc. C’est possible.
2. Analyse des résultats
Les propos recueillis de ces différents profils de professionnels du référencement nous
montrent tout d'abord, et de manière générale, qu'il y a une forte diversité concernant l'approche
et la vision des techniques de SEO white hat, grey hat et black hat.
Tout d'abord, il apparaît très clairement que les avis sont partagés sur les stratégies de SEO Black
Hat, même si dans l'ensemble nous avons obtenu un retour plutôt positif de ces techniques. Dans
les professionnels qui n'utilisent pas les techniques Black Hat, il y d'un coté les personnes qui
pensent que ce sont des techniques trop risquées pour les site internet et qu'il est important de ne
pas les utilisées. De l'autre côté, certaines personnes émettent quelques réservent concernant le
Black Hat, mais pensent que ces techniques peuvent être utiles et même indispensables dans
certaines situations de forte concurrence. Le SEO Black Hat, avec ses techniques de
référencement avancé, va aussi permettre de trouver des failles de Google indiquant aux white
d'éventuelles possibilités de référencement. Il va permettre également d'indiquer là où sont les
dangers. Au travers de ces entretiens réalisés, nous avons eu la confirmation que le Black hat, s'il
est bien utilisé, est un moyen d'obtenir des résultats rapidement. La notion de durée revient très
souvent, entre un site qui pourra se référencer correctement à moyen et long terme en utilisant les
techniques de SEO White hat, et un site qui se positionnera correctement à court terme via des
stratégies de SEO Black Hat. Le second critère apparu comme très important à prendre en
considération est naturellement le degré de concurrence dans le marché sur lequel un site
souhaite se positionner sur Google.
Ensuite, concernant l'approche du SEO Grey Hat, les avis sont aussi très partagés. Certains
pensent qu'il n'y a plus de white hat dès que l'on franchi la barrière de l'automatisation, comme la
68
Mémoire de recherche appliquée Antoine Pourron
création de contenus générés aléatoirement (content spinning). D'autres pensent que le white hat
n'existe plus, puisque les règles de Google sont trop restreintes. Cela signifie que dès l'on va
chercher à entrer dans une stratégie de netlinking pour créer des backlinks, cela va à l'encontre
des recommandations de Google donc il ne s'agit plus de SEO white hat. De même, certains
experts du référencement pensent que le simple fait de vouloir référencer un site internet en
créant des communiqués de presse ou en inscrivant le site en question dans des annuaires n'est
plus considéré comme une stratégie de SEO White Hat. Enfin pour certains, le SEO Grey hat
apparaît comme la meilleure des solutions, c'est le moyen d'automatiser des tâches, d'affiner les
stratégie pour faire un travail plus qualitatif que du pure black hat, ce dernier visant à inonder le
web de contenus et de liens, souvent mal réalisés et étant ainsi plus risqué.
Le dernier point important traité dans ces entretiens concernait l'optimisation de référencement
white hat dans le but de faire prendre moins de risque aux sites internet à la rentabilité des
entreprises et clients. Encore une fois, les avis divergent selon les types de référenceurs.
Cependant, une tendance reste globale : Le SEO white hat est intéressant pour se positionner sur
des mots clés peu ou moyennement concurrentiels. Dès lors que l'on souhaite se positionner sur
des requêtes ultra concurrentielles, où les majorités des acteurs travaillent sur des stratégies
autres que du SEO white hat, ce dernier va être difficilement applicable. Néanmoins, d'après les
retours issus des entretiens évoqués précédemment, certains des acteurs importants du
référencement en France affirment qu'un site peut tout à fait obtenir les mêmes résultats avec du
SEO white hat qu'un site se basant sur des stratégies de SEO Black hat. La différence se fera sur
les moyens mis en œuvre et le délai. Un site internet pourra se positionner correctement dans un
milieu concurrentiel via des stratégies White hat en achetant un nom de domaine composés des
mots clés les plus importants sur lesquels le site souhaite se positionner. Ce type de noms de
domaine sont très chers. Il va également falloir que le site deviennent une référence dans son
domaine, créer une communauté via une forte prise en compte de l'utilisateur. Cela nécessite de
rémunérer une main d'œuvre pour créer les contenus du site internet, modérer et animer la
communauté via un forum ou des commentaires. Le cout du référencement sera beaucoup plus
élevé que via du SEO black hat, mais le résultat final peut être le même.
69
Mémoire de recherche appliquée Antoine Pourron
En regroupant l'ensemble des propos recueillis au travers de ces entretiens de professionnels et
expert du référencement, il en ressort une stratégie de SEO White hat / Grey Hat qui semble
fonctionner pour référencer un site internet dans un milieu concurrentiel :
Nom de domaine : Si l'entreprise, la marque ou le site internet n'a pas ou peu de
notoriété, le nom de domaine va être extrêmement important dans le processus de
référencement. Un bon nom de domaine est un nom de domaine qui contient les mots clés
sur lesquels le site souhaite se positionner (Exemple avec le mot clé poker : poker-
france.fr, poker.com, poker-france.com, jouer-au-poker.com, etc.). L'extension du nom
de domaine (.fr .com .net ,etc.) a également un poids du point de vue du référencement.
D'après les différentes expériences des professionnels du SEO, les sites en .com sont plus
facilement référencés que des sites d'une autre extension. En France, les .fr seront
également plus facilement référencés. Les deux éléments sont donc à prendre en compte,
deux éléments qui ont cependant un coup financier assez important.
Le travail "on-site" : Avec les dernières modifications de l'algorithme Google, il
convient de travailler fortement le contenu du site à référencer (site cible). Un bon
contenu n'est pas un contenu sur-optimisé. Il est donc nécessaire de créer des contenus de
qualités, en utilisant d'avantage qu'auparavant le champ lexical du mot clé sur lequel le
site souhaite se positionner. Le site cible doit être propre (que du white hat) et où
l'internaute doit pouvoir avoir confiance du premier coup d'œil. Le comportement de
l'utilisateur sur le site est de plus en plus pris en compte par Google dans le
positionnement des sites dans son moteur de recherche.
Le Travail "Off-site" : Travail que trop peu de référenceurs white hat négligent pour
passer du temps à sur-optimiser un site. C'est une erreur. Le travail de Netlinking est très
important et doit se faire de manière qualitative, même si il est automatisé via des
logiciels black hat. Automatiser la création de 70 backlinks en 1 jour (par exemple) sur
des sites propres répertoriés plus ou moins manuellement, en utilisant des ancres variées
sera bien plus bénéfique que la création de 3000 backlinks en 1 jour sur des sites choisis
au hasard avec une ancre identique. Ce travail d'automatisation ne se fera jamais vers le
site cible, mais vers des sites intermédiaires ou sites satellites, qui eux auront pour but de
pousser le référencement du site cible.
70
Mémoire de recherche appliquée Antoine Pourron
Stratégie globale : L'objectif est donc de créer un site cible propre via du SEO White hat
et le pousser au niveau référencement grâce à des sites intermédiaires développé avec du
black hat. Ce serait ce qui se rapproche le plus du SEO dit "Grey Hat". Le site cible sera
bien moins en danger avec une telle stratégie qu'avec l'utilisation pure et dure du SEO
Black hat sur le site à référencer.
Enfin, les avis se rejoignent principalement sur la notion de promesse des résultats. La majorité
des personnes interrogées est catégorique : Il est impossible de promettre des résultats sur un
système que nous ne pouvons contrôler. Google peut changer son algorithme et sa façon
d'indexer les sites internet à tout moment, les référenceurs dépendent donc totalement de Google
et c'est la raison pour laquelle les promesses de résultats pour les clients ne peuvent pas exister.
Cependant, certains experts nuancent ces propos en expliquant qu'il est possible de promettre des
résultats, mais à plus ou moins grande échelle. Certains professionnels, majoritairement à
dominante black hat, vont promettre de positionner un site internet dans les 3 premières pages
Google sur tels ou tels mots clés, ou bien en fin de première page, en Top 5 ou en Top 3.
3. Validation des hypothèses
Pour rappel, ce mémoire de recherche a pour but de répondre à la question "comment
optimiser le SEO dans un milieu concurrentiel, alors que le SEO Black Hat apparaît comme plus
productif pour les entreprises, mais risqué ?"
La première hypothèse que nous souhaitions vérifier dans ce mémoire était la suivante : Il est
possible d'optimiser le SEO en travaillant sur l'élaboration de techniques dites "grey hat ", c'est à
dire des stratégies reprenant certaines techniques positives issues du référencement black hat,
mais en proscrivant toute la partie néfaste et risquée de cette dernière.
Suite aux entretiens réalisés auprès des professionnels cités précédemment, il apparaît que cette
hypothèse répond en grande partie à notre problématique, partant de la définition du SEO Grey
que donne la majorité de ces experts du référencement contactés. Le référencement Grey Hat, ou
71
Mémoire de recherche appliquée Antoine Pourron
gris, va en effet être une solution efficace pour optimiser le référencement d'un site internet sur
les pages de résultats des moteurs de recherche. Pour cela, une partie de la stratégie SEO mise en
place va s'inspirer du référencement White hat pour créer une base solide. Le site internet cible
va donc être optimisé correctement, sans faire d'abus ni de sur-optimisation. Il sera optimisé en
tous points : contenu de qualité, mots clés du même champ lexical, bonne organisation dans la
disposition des rubriques du site, fort développement de l'interactivité avec le visiteur et mises à
jours régulières et constantes (stratégie "On Site"). La deuxième partie de la stratégie SEO
viendra prendre des techniques et outils du référencement Black Hat pour travailler sur des sites
intermédiaires (Stratégie "Off site), qui eux auront pour unique objectif d'améliorer le
référencement du site cible : automatisation des contenus sur les sites intermédiaires, stratégie de
netlinking (création de liens entrants / Backlinks). Pour reprendre une phrase de Paul Sanches,
référenceur black reconnu, le but est de "créer un site clean ou y ajoutant des couches de black
hat".
La seconde hypothèse pouvant potentiellement répondre à notre problématique était la suivante :
Il est possible d'optimiser le SEO en développant des stratégies avec une préparation en amont,
un suivi et une analyse beaucoup plus travaillés sur du moyen terme, en y apportant un gage de
résultats pour les entreprises, en vue d'éviter le SEO black hat et ses risques.
Il apparait très clairement que cette hypothèse ne peut être validée compte tendu des retours que
nous avons pu avoir lors des entretiens. Même si certains points de cette hypothèses peuvent être
utilisés dans la mise en place d'une stratégie de référencement, comme le travail de suivi par
exemple, le fait que le référencement dépende entièrement d'un acteur externe (les moteurs de
recherche et plus précisément Google) nous montre que cette hypothèse ne peut être confirmée.
De plus, et nous l'avons précédemment, le référencement d'un site internet va dépendre de la
volonté du client. Si ce dernier souhaite se positionner à court terme sur une requête
concurrentielle pour une raison notamment financière, il acceptera difficilement l'idée de passer
par une stratégie de SEO white hat pour se positionner à moyen ou long termes. De plus, nous
avons vu dans les parties précédentes que l'utilisation du SEO black hat peut être une stratégie
gagnante, seulement si elle est parfaitement maitrisée.
72
Mémoire de recherche appliquée Antoine Pourron
CHAPITRE 3 : PRÉCONISATIONS
Pour répondre à la problématique de ce mémoire de recherche appliquée, nous avons
énuméré ci-dessous un ensemble de préconisations issues de la partie théorique de ce et des
réponses apportées lors de la partie terrain.
Le SEO dans un milieu concurrentiel est donc un domaine composés de plusieurs acteurs. Les
référenceurs évoluent au travers de deux types de référencement, le white hat et le black hat. Ils
vont pour la plupart s'orienter de plus en plus vers la partie située entre ces deux stratégies, le
grey hat, qui apparaît comme une solution très intéressante pour les acteurs. Le référencement
naturel white, comme nous l'avons décrit tout au long de ce mémoire, est une stratégie qui va
apporter des résultats, mais à long terme. En plus d'être couteuse, cette stratégie va devoir faire
face à une concurrence forte qui utilise de nombreuses autres techniques de référencement, dont
le black hat). De plus, les règles de Google sur le référencement étant très restreintes, le SEO
white hat n'a que peu de possibilités pour positionner un site dans les résultats de recherche.
C'est pourquoi nous pensons qu'il serait intéressant et plus productif pour les référenceurs White
Hat de passer progressivement sur la mise en place de stratégies grey hat. Nous l'avons vu, ces
stratégies offrent beaucoup de possibilité, un gain de temps non négligeable et des résultats plus
rapides, tout en minimisant les risques. Le pure black hat et les techniques de hacking
représentent aujourd'hui un trop gros danger pour des sites internet en lancement dans un secteur
concurrentiel, ou des sites déjà en place depuis plusieurs années. Le grey hat va donc avoir en
partie les avantages des stratégies black hat, sans les inconvénients. Nous l'avons vu dans les
parties précédentes, référencer un site via des stratégies de Grey Hat consiste à référencer un site
cible qui sera propre aux yeux de Google, mais aussi de l'internaute. Ce site pourra ensuite
gagner des positions par la création de sites intermédiaires et de sites satellites qui quant à eux
seront optimisés via des techniques de SEO Black Hat, comme l'automatisation de création de
contenu ou l'automatisation de création de liens entrants (backlinks). Attention cependant au fait
que malgré ce travail d'automatisation, ce dernier doit rester qualitatif et ciblé. Cela nécessite une
gestion parfaite des outils Black Hat et c'est ce qu'il permet de minimiser les risques.
73
Mémoire de recherche appliquée Antoine Pourron
Ensuite, l'interaction avec l'utilisateur va devoir être de plus en plus au cœur des stratégies de
référencement puisque Google va prendre beaucoup plus en compte désormais le comportement
des utilisateurs, sur les sites mais également sur les liens qu'il va y avoir entre les sites et les
réseaux sociaux. Par interaction, il faut entendre partages, avis et commentaires sur les contenus.
Mettre l'internaute au cœur de la vie du site est un très bon moyen de créer de la fidélité, de
l'interaction et de montrer à Google que le site a une réelle légitimité. Ainsi, le site internet va se
positionner de mieux en mieux sur les moteurs de recherche. Plus un site internet est puissant du
point de vue du référencement, plus il a une légitimité auprès de l'internet et plus il est ancien,
plus il va être possible d'intégrer de nouvelles techniques issues du SEO Black hat dans la
stratégie Grey Hat du site. Il s'agit d'un modèle exponentiel.
Enfin, et ceci découle directement des dernières changements d'algorithmes de Google, la qualité
des contenus et des liens vont être encore plus importants qu'auparavant. Un contenu de qualité
et optimisé pour le référencement est un contenu qui va devoir être varié et couvrir tout le champ
lexical de la thématique sur laquelle le site souhaite se référencer sur Google. De même, il est
important de ne pas sur-optimisé un site internet, c'est à dire utiliser constamment les mêmes
termes et mêmes mots clés, en ayant la volonté de se référencer plus facilement sur ceux-ci.
Il en va de même pour la qualité et la variation des liens entrants (backlinks), où là aussi la
qualité va de plus en plus primé sur la quantité. Nous l'avons expliqué dans les parties
précédentes, il est nécessaire de privilégier les liens en provenance de sites travaillant dans la
même thématique que le site à référencer, où bien une thématique complémentaire. La qualité va
aussi apparaître aux yeux de Google via la variation de l'ancre du lien, qui ne doit pas être
constamment la même. Enfin, un lien en provenance d'un site mieux référencé aura beaucoup
plus de poids qu'un lien d'un site mal positionné.
Nous proposons alors de prendre en compte l'ensemble de ces points pour optimiser et améliorer
le SEO des sites dans un milieu concurrentiel, dans le but de mieux se positionner sur les
moteurs de recherche et de minimiser les risques quand aux pénalités des moteurs ou aux actions
éventuelles en justice.
74
Mémoire de recherche appliquée Antoine Pourron
75
Mémoire de recherche appliquée Antoine Pourron
CONCLUSION
Ce mémoire de recherche a eu pour but de comprendre et analyser un secteur de l'outil
internet qui est en constant changement : le référencement naturel. Plus spécifiquement, l'objectif
était d'analyser le fonctionnement des acteurs du référencement et les stratégies qu'ils mettent en
place pour positionner un site internet dans les pages de résultats des moteurs de recherche. Il
convenait ici de comprendre pourquoi certains acteurs se dirigeaient vers un SEO "white Hat",
c'est à dire légal et conforme aux règles de Google, et pourquoi certains travaillaient sur des
stratégies de SEO "Black Hat", partie sombre et "illégale" du référencement.
Dans une première partie théorique, nous avons mis en avant les caractéristiques et les approches
de ces deux parties du référencement naturel, mais nous nous sommes aussi intéressé aux
moteurs de recherche, acteurs centraux du référencement et indexation des sites. Nous nous
sommes alors plus spécifiquement tourné vers Google, qui possède près de 95% des parts de
marchés de la recherche sur internet en France. C'est l'acteur qui va, de plus, influer sur toutes les
stratégies de référencement mises en place par les professionnels puisque ces derniers dépendent
de Google.
Nous nous sommes alors demandé comment pouvait être optimisé les stratégies de
référencement naturel (SEO) "légale", afin de protéger les sites internet et les entreprises d'un
référencement Black hat certes très productif, mais risqué. Suite à cette problématique, nous
avons décidé d'interrogé un certains nombre de professionnels et experts du référencement afin
de valider ou informer les différentes hypothèses établies, et en tirer ainsi des préconisations
précises.
Les résultats obtenus lors des entretiens et de leurs analyses nous ont permis de préconiser un
certains nombre de techniques et stratégies de SEO dans le but d'optimiser le référencement des
sites internet en milieu concurrentiel :
Travailler d'avantage sur un référencement réfléchis et qualitatif
76
Mémoire de recherche appliquée Antoine Pourron
o Optimisation "On Site" : Travail sur le contenu et le netlinking du site internet.
Important de ne pas sur-optimisé le site internet, pénalisé aujourd'hui par Google.
o Optimisation "Off Site" : Travail sur la stratégie de netlinking en vue d'obtenir des
liens entrants (backlinks) d'avantage qualitatifs que quantitatif
Mettre en place des stratégies de SEO dit "Grey Hat", c'est à dire un ensemble de
techniques basées sur le référencement white hat afin de créer une base solide. Utiliser
ensuite des couches de SEO black hat pour pousser le référencement du site principal.
Cette stratégie a pour but de minimiser tous les risques liés au SEO black hat, tout en
gardant ses avantages de résultats rapides.
Prise en compte de plus en plus importante de l'interaction entre le site et l'internaute par
les moteurs de recherche.
Privilégier de plus en plus l'aspect social des sites internet et le principe de partage.
Ces différentes pratiques vont permettre à un site internet dans un milieu concurrentiel de
maintenir ou améliorer son positionnement sur les moteurs de recherche, et principalement sur
Google.
En plus des résultats obtenus de la part des experts du référencement dans le but de répondre à la
problématique, échanger avec eux sur ces sujets ont permis de découvrir des techniques précises
et concrètes pouvant être mises en place très rapidement. Cela a été également l'occasion de
découvrir de nouveaux outils et de connaître leurs avantages, leurs inconvénients et leurs
conséquences sur le référencement naturel de sites internet. L'intérêt de ce mémoire a aussi été de
connaître plus précisément la partie "sombre" du référencement (SEO Black Hat), leurs modes
de pensées et de fonctionnement, un monde réservé à très peu de personne en France. Cela
s'explique par l'expertise nécessaire qu'il faut pour maitriser ces techniques, et en tirer des
résultats conséquents, sûrs, tout en minimisant les risques.
Nous avons vu dans ce mémoire que la plupart des référenceurs luttent tous les jours contre les
règles imposées par le moteur de recherche Google, professionnels cherchant constamment à
optimiser leurs stratégies en fonction des failles de Google pour améliorer le positionnement des
77
Mémoire de recherche appliquée Antoine Pourron
sites internet dont ils sont responsables. Nous avons également vu que Google cherche, depuis sa
création, à rendre son moteur de recherche toujours plus pertinent pour l'utilisateur, au travers de
nombreux changements d'algorithmes. Mais ces changements ont également pour objectifs de
pénaliser et éradiquer toutes les stratégies de référencement plus ou moins abusives. Nous
pouvons alors nous demander si Google arrivera un jour à réaliser un moteur de recherche
parfait, classant les sites internet par réel intérêt pour l'internaute, en ne prenant plus en compte
les travaux des référenceurs ? Cette démarche de la part du géant de la recherche est-elle
possible? Dans un sens un peu moins radical, Google arrivera t-il à formater le travail des
référenceurs pour éviter toutes dérives ? Avec l'évolution constante et de plus en plus rapide de
l'algorithme du géant de la recherche, les référenceurs auront-ils encore une place primordiale
ces prochaines années sur le positionnement des sites dont ils sont responsables ?
78
Mémoire de recherche appliquée Antoine Pourron
BIBLIOGRAPHIE
Ouvrages :
Andrieu O. (2012). Réussir son référencement web - édition 2012. Eyrolles.
Références électroniques :
http://www.01net.com/editorial/186972/petite-histoire-des-moteurs-de-recherche/ : Petite
histoire des moteurs de recherche, par Jean-Christophe Féraud (directeur du service
High-Tech et Médias des "Echos").
http://referenceurdulundi.blogue.fr/2008/09/15/historique-des-moteurs-de-recherche/
http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-
moteur.shtml
http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/
http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-
milliard-de.html
http://www.seomoz.org/google-algorithm-change
http://www.entoiledefond.com/blog/referencement/le-nettoyage-de-printemps-selon-
google.html
http://www.webrankinfo.com/dossiers/techniques/google-panda
http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus
http://online.wsj.com/article/SB10001424052748703745704576136742065119876.html
http://www.hitwise.com/us/press-center/press-releases/bing-searches-increase-twenty-
one-percent/
http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-
marche-de-google-aux-etats-unis_1478441_651865.html
http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-
sur-une-page-de-resultats-google
79
Mémoire de recherche appliquée Antoine Pourron
http://www.webrankinfo.com/dossiers/yandex/chiffres-cles-russie
http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-
exploser-votre-trafic
http://www.definitions-webmarketing.com/Definition-Black-hat
http://www.nikopik.com/2012/04/le-black-hat-seo-resume-en-une-infographie.html
http://www.deliciouscadaver.com/comment-definir-le-black-hat.html
http://www.visibilite-referencement.fr/blog/black-hat-seo-512banque
http://www.definitions-webmarketing.com/Definition-URL-scraping
http://www.futura-sciences.com/fr/definition/t/internet-2/d/proxy_488/
http://www.seoland.fr/moteurs-de-recherche-referencement-et-droits-d
%E2%80%99auteurs/
http://www.seoblackout.com/2010/06/21/smx-paris-2010/
http://www.journaldunet.com/solutions/expert/51603/seo-et-droit---5-jurisprudences-a-
connaitre-imperativement.shtml
http://www.definitions-webmarketing.com/Definition-Redirection-301
80
Mémoire de recherche appliquée Antoine Pourron
ANNEXES
ANNEXE 1 - GRILLE D'ENTRETIEN - WHITE HAT
ANNEXE 2 - GRILLE D'ENTRETIEN - BLACK HAT
ANNEXE 3 - ENTRETIEN KÉVIN RICHARD
ANNEXE 4 - ENTRETIEN MAXIME DOKI-THONON
ANNEXE 5 - ENTRETIEN MAXIME FULPIN
ANNEXE 6 - ENTRETIEN PAUL SANCHES
ANNEXE 7 - ENTRETIEN SANDRINE BERTRAND
ANNEXE 8 - ENTRETIEN FRANCK RUET
ANNEXE 9 - EXEMPLE DE CONTENT SPINNING
81
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 1 - GRILLE D'ENTRETIEN - WHITE HAT
Parcours : Comment en êtes-vous arrivé au référencement naturel ? Quelles sont vos
motivations ?
Black Hat : De manière générale, que pensez-vous du SEO black hat ? Ou se situe pour vous la
limite entre le SEO White Hat et le SEO Black Hat ?
Grey Hat : Comment définiriez-vous le SEO Grey Hat ? Est-ce un bon compromis entre le SEO
White Hat et le SEO Black Hat ?
Algorithmes Google : Est-ce que les changements d'algorithmes de Google on fait changer votre
façon de travailler ? A quels niveaux ?
SEO White Hat : Comment pensez-vous que le SEO White Hat pourrait être amélioré pour
éviter de passer par un SEO Black Hat qui apparaît comme risqué ? Quel est votre argumentaire
pour valoriser le SEO White Hat envers des clients qui serait tenté par du SEO Black Hat ?
Promesses de résultats : Pensez-vous qu'il possible aujourd'hui de promettre des résultats précis
en SEO ?
82
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 2 - GRILLE D'ENTRETIEN - BLACK HAT
Parcours : Comment en êtes-vous arrivé au référencement naturel Black Hat ? Quelles sont vos
motivations ?
Black Hat : De manière générale, que pensez-vous du SEO black hat ? Quels sont ses avantages
et ses inconvénients ?
Grey Hat : Comment définiriez-vous le SEO Grey Hat ? Est-ce un bon compromis entre le SEO
White Hat et le SEO Black Hat ?
Algorithmes Google : Est-ce que les changements d'algorithmes de Google on fait changer votre
façon de travailler ? A quels niveaux ?
SEO White Hat : Pensez-vous aujourd'hui que le SEO White Hat pourrait avoir les mêmes
résultats que le SEO Black Hat ? Quelles seraient les différences ?
Promesses de résultats : Pensez-vous qu'il possible aujourd'hui de promettre des résultats précis
en SEO ?
83
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 3 - ENTRETIEN KÉVIN RICHARD
Partie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Le SEO était et est toujours une nécessité. Sans le SEO, beaucoup
d'entreprises n'existeraient plus.
- Le Black Hat est ce qui a le plus fonctionné, c'est un bon moyen
d'obtenir des résultats rapidement.
- Le Black Hat est risqué, il faut avant tout se poser la question de la
nécessité de rentabilité du site ou non (est-ce un site jetable ?)
- Avantages : Passionnant, on va vraiment au bout des choses, on
peut tout tester. Le Black Hat a 10 longueurs d'avances sur les autres
types de SEO. On appelle les SEO Black hat lorsqu'on a une
obligation de résultats
Inconvénients : Parfois incompris voire rejeté, techniques
dangereuses si mal employées
Thème 2 : La limite
entre SEO Black Hat et
SEO White Hat
- Si l'on peut dire à Google les techniques que l'on a employées, c'est
du SEO White Hat.
- Si on ne peut pas le dire ou si l'on hésite, c'est du SEO Black Hat.
Thèmes 3 : Le SEO
Grey Hat
- C'est du SEO "pas trop" Black Hat. C'est du Black avec quelques
scrupules.
- Or, on voit aujourd'hui que le Grey Hat est celui qui se fait le plus
pénaliser par Google, donc c'est comme du Black Hat.
- Soit on respecte la parole de Google totalement, soit on la
transgresse totalement. Le Grey Hat n'a aucun intérêt.
Thèmes 4 :
Changements
d'algorithmes Google
- Bien entendu, la méthode de travail change, on s'adapte pour
trouver de nouvelles techniques.
Thèmes 5 :
Développement SEO
- Le White hat ne peut absolument pas avoir les mêmes résultats que
du SEO Black Hat. Les clients disent qu'ils ont testé (White Hat) et
84
Mémoire de recherche appliquée Antoine Pourron
White Hat par rapport
au Black Hat
cela n'a rien donné. Un site a optimiser, c'est facile. Un site à
positionner (ranker), c'est plus difficile.
Thème 6 : Promesses
de résultats et SEO
- Impossible aujourd'hui de faire des promesses de résultats. On
arrive à se tromper parfois en termes de délais et d'atteinte de
positions. Mais il y des exemples extrêmes où malgré un lourd
travail, le site ne bougera pas d'un centimètre sur les moteurs de
recherche.
- "Restons humbles, nous ne savons rien, nous sommes en
perpétuelle recherche et amélioration"
85
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 4 - ENTRETIEN MAXIME DOKI-THONON
Partie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Pour quelqu'un qui travaille à son compte sur des petits projets, il n'y
a pas vraiment d'inconvénients, simplement de perdre quelques
positions sur les moteurs de recherche.
- Pour une entreprise, c'est plus compliqué. Elle s'expose à des risques
de "bad buzz". Le principal risque est bien sûr la pénalité qui peut
arriver vite si le travail est mal fait.
- L'avantage du Black hat est qu'il n'y a pas besoin d'une grande équipe
pour accomplir de grandes choses.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- Tout dépend de la définition que l'on donne du SEO White Hat et du
SEO Black Hat.
- Selon Google, dès lors que l'on rentre dans une stratégie de
Netlinking (échanges de liens, etc.) on fait du SEO Black Hat.
Thèmes 3 : Le SEO
Grey Hat
- Le SEO Grey Hat, c'est faire des liens, là ou c'est possible, sans pour
autant spammer. C'est un mix entre les définitions citées
précédemment : Black Hat pour Google (création de liens et stratégie
de netlinking) et White Hat dans la façon de les créer.
Thèmes 4 :
Changements
d'algorithmes Google
- Avant, ma devise était : "Tant que le site est clean (optimisé
correctement sans abus), fais ce qu'il te plait en Netlinking".
- Maintenant c'est plus compliqué, il faut faire attention de ne pas sur-
optimiser une page et il est nécessaire d'être plus subtile dans la
stratégie de Netlinking (variation des ancres, pourcentage d'ancres
branding/désoptimiser, diversification de la provenance des liens, etc.)
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- En terme de liens créés, le White hat ne peut pas concurrencer la
Black Hat. C'est avant tout la qualité des liens créés qui compte . En
terme de positionnement, oui c'est possible, c'est juste une question de
rentabilité. Dans certains secteurs, le white hat peut être aussi rentable
86
Mémoire de recherche appliquée Antoine Pourron
que du Black Hat. Dans d'autres secteurs, utiliser du white hat serait
une aberration.
Thème 6 : Promesses
de résultats et SEO
- C'est de plus en plus dur avec ces changements d'algorithmes. Il est
difficile de comprendre comment et pourquoi certaines positions
n'évoluent pas, et il est difficile de prédire ce qui se passera chez
Google à court terme.
- On peut promettre un travail, mais pas un résultat.
87
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 5 - ENTRETIEN MAXIME FULPIN
Partie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- J'ai plutôt des idées négatives, ayant eu personnellement le cas sur un
site où les actions de black hat réalisées par un tiers lui ont fait perdre
de la visibilité sur Google. Mais sinon, dans certains secteurs hyper
concurrentiels, les techniques black hat sont obligatoires.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- La limite se situe au moment où les actions que l'on met en place
peuvent être détectées par Google et les moteurs de recherche comme
non naturelles.
Thèmes 3 : Le SEO
Grey Hat
- On est soit white hat, soit black hat. Faire du grey hat c'est faire du
black hat
Thèmes 4 :
Changements
d'algorithmes Google
- Oui. Les dernières mises à jour de l'algorithme (Panda et Pinguin) me
font changer ma façon de travailler. On adapte les techniques en
fonction des nouvelles "règles" qui en découlent.
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- Pour être correctement visible sur le web, il faut utiliser un mix
webmarketing de SEO, de SMO (Social Media Optimization) et de
SEA (Search Engine Advertising)
Thème 6 : Promesses
de résultats et SEO
- Non, ne jamais promettre des résultats. On est complètement
dépendant des moteurs de recherche, et principalement en France, à
95% de Google.
88
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 6 - ENTRETIEN PAUL SANCHES
Partie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Je n'aime pas le terme de black hat, c'est plutôt du hacking version
SEO. Un condensé d'ingéniosité, de toujours rechercher la petite chose
qui fera qu'on va référencer un site rapidement. Je vois une
opportunité, je l'exploite au maximum. Il y a plusieurs stratégies, pas
besoin lancer la créations de milliers de backlinks en 30 min :
Sélectionner les bons liens, connaître les bonnes sources de backlinks,
de bonnes optimisations sur sites... De plus en plus c'est le
comportement utilisateur qui va être pris en compte. Il faut utiliser ca,
faire qu'un site semble légitime, qu'il donne confiance.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- Faire du black hat mais sans que ce soit un travail sale. Créer
automatiquement 70 liens qualitatifs et bien positionnés au lieu de
créer 5000 liens en quelques heures, c'est faire du grey hat. En fait je
suis plus sur un travail de grey hat que de black hat. Je cherche
l'optimisation du black hat pour faire un travail qui semble propre aux
yeux de Google et de l'internaute.
Thèmes 3 : Le SEO
Grey Hat
- La meilleure des solutions. On fait du grey hat surtout pour de très
gros clients où le site à référencer ne peut pas être touché directement.
On passe par des sites intermédiaires qu'on va optimiser et ranker, une
fois qu'ils sont bien niveau SEO, on fait des redirections 301 vers les
pages du site principal pour augmenter leurs positions.
Thèmes 4 :
Changements
d'algorithmes Google
- Avec les changements, je me suis pris quelques pénalités sur des sites
de clients où je n'ai pas réussi à atteindre l'objectif. Je commence
aujourd'hui à comprendre les raisons : Trop de communiqués de presse
envoyés d'un coup (pas assez espacés dans le temps), content spinning
(automatisation de création de contenu aléatoire) de pas assez bonne
qualité. C'est le spam de commentaires qui a vraiment bien fonctionné
89
Mémoire de recherche appliquée Antoine Pourron
et qui a permis de ne pas trop descendre dans les positions Google.
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- Avec le White hat, on va réussir à faire la même chose qu'avec du
Black Hat, c'est le timing qui change. Il faudra beaucoup plus de
temps, il va falloir passer par la création d'une communauté, pour créer
une référence. Il va falloir investir beaucoup plus : main d'œuvre pour
création de contenu et modération de la communauté, achat d'un très
bon nom de domaine... Le but est de créer un site clean, un site portail
référencer via White hat et on le pousse avec des sites intermédiaires
via du black hat.
Thème 6 : Promesses
de résultats et SEO
- Je garantis toujours des résultats, en fonction de là d'où part le site à
référencer. Je garantis sur des positions larges ou précises : 3
premières pages Google, 1ère page, Top 3 des positions, etc.
90
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 7 - ENTRETIEN SANDRINE BERTRAND
Partie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Le Black Hat sert à faire avancer le white hat, en découvrant de
nouvelles stratégies, de nouvelles méthodes et de nouvelles techniques.
Les référenceurs black hat permettent d'indiquer là où il y a du danger
dans le référencement.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- Pour moi il n'y a plus de white hat, les règles imposées par Google
sont trop restreintes, et si on les suit à lettre, on ne peut pas faire un
référencement qui fonctionne et il est impossible de positionner
correctement un site internet. Le SEO est grey hat majoritairement
aujourd'hui.
Thèmes 3 : Le SEO
Grey Hat
- Dès qu'on envoie des communiqués de presse sur des sites de CP, dès
qu'on cherche à avoir des backlinks, on est dans le Grey Hat.
- Le grey hat est un ensemble de techniques qui reviennent le plus
souvent. En fonction de l'attente des clients, comment elles souhaitent
se positionner, on va travailler sur des communiqués de presse, du
netlinking, on est dans le grey la plupart du temps.
Thèmes 4 :
Changements
d'algorithmes Google
- Les évolutions d'algorithmes n'ont pas changé ma façon de travailler,
il n'y a vraiment rien de très nouveau. Pingouin (nouvel algorithme
2012), c'est la même chose que Florida en 2003, à peu de choses près.
C'est la même problématique, à la différence qu'il faut être un peu plus
fin dans les stratégies de référencement. Avec Pingouin, les warning
s'allument juste plus vite.
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- Il ne faut surtout pas faire de white hat en essayant de faire du black
hat.
- Une technique au niveau des optimisations consiste à essayer de faire
quelque chose de toujours plus propre. Les white hat on tendance à
trop vouloir sur-optimiser leur site, à travailler beaucoup plus le "on
91
Mémoire de recherche appliquée Antoine Pourron
site" (tout ce qui se trouver sur le site internet) plutôt que le "off site"
(Sites externes au site à référencer).
Thème 6 : Promesses
de résultats et SEO
- Impossible, du moment que l'on dépend de Google, il peut changer
de moyen de référencement des sites à n'importe quel moment. On
peut donc promettre les moyens mais pas les résultats.
92
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 8 - ENTRETIEN FRANCK RUET
6. Entretien Franck RuetPartie du guide / les
thèmesRéponses
Thème 1 : Avis sur le
SEO Black Hat
- Le SEO Black hat est très bien, si on en fait correctement. Trop de
personnes abusent des techniques et salissent l'image de ses stratégies.
Les avantages sont le gain de temps et la "recherche", cela permet de
multiplier les projets. Les inconvénients sont la pérennité des postions
qui peuvent disparaître du jour au lendemain.
Thème 2 : La limite
entre SEO Black Hat
et SEO White Hat
- La limite entre les deux c'est l'automatisation. Le white n'en a que
très peu, ce sont uniquement les référenceurs des très grandes
entreprise qui bénéficient de liens « vraiment » naturels d’autres sites.
- Tout les soit disant white hat font des liens « artificiels », donc selon
moi la frontière est l’automatisation
Thèmes 3 : Le SEO
Grey Hat
- Je ne saurais définir un grey hat, c'est une référencement comme un
autre selon moi.
Thèmes 4 :
Changements
d'algorithmes Google
- Les changement d’algo changent les manières de travailler puisqu’il
faut toujours s’adapter. Le référencement, lorsqu’il n’y a que très peu
de changement d’algo, devient une routine. Avec les changement
d’algo, on se remet en question, on cherche des nouvelles sources de
liens, etc.
Thèmes 5 :
Développement SEO
White Hat par
rapport au Black Hat
- Le SEO WH ne peut selon moi pas atteindre les même résultats
qu’un BH sur certaines thématiques dans la mesure où la concurrence
est tellement féroce que les acteurs utilisent des techniques de plus en
plus borderline et des outils de plus en plus puissants.
Thème 6 : Promesses
de résultats et SEO
- Je pense que l'on peut promettre des résultats. Lorsque l’on est sur de
ses qualité et ses « techniques », on peut garantir des position. Pas une
position exacte, mais une page1, un top5, un top3 etc. C’est possible.
93
Mémoire de recherche appliquée Antoine Pourron
94
Mémoire de recherche appliquée Antoine Pourron
ANNEXE 9 - EXEMPLE DE CONTENT SPINNING
95
Mémoire de recherche appliquée Antoine Pourron
GLOSSAIRE (Définition issues du site internet definitions-webmarketing.com)
Achat de liens : L’achat de liens est, comme son nom l’indique, la pratique qui consiste a
acheter des liens sur des sites appartenant généralement à la même thématique que le site à
promouvoir et possédant un bon PageRank ou une bonne réputation sur les moteurs de
recherche. L’objectif est d’augmenter la popularité et la qualité du référencement naturel.
Algorithme Google : L’algorithme Google est l’ensemble des traitements mathématiques
appliquées aux pages web présentes dans l’index du moteur pour déterminer leur classement
dans les pages de résultats pour une requête donnée.
Ancre : Dans le domaine du référencement naturel, l’ancre désigne le texte illustrant un lien
hypertexte.
Backlink : Un backlink est un lien externe pointant vers un site web ou plus exactement une
page web. Le nombre et la qualité des backlinks sont des indicateurs de popularité d’un site web
qui sont pris fortement en compte par les moteurs de recherche dans leur politique d’indexation
et de classement des sites en réponse à une requête.
Black Hat : Une pratique dite black hat SEO est une technique de référencement naturelle
considérée comme discutable, non éthique et / ou punissable par les moteurs de recherche ou les
professionnels du référencement.
Cloaking : Le cloaking consiste à configurer un serveur web pour qu’il ne présente pas la même
page aux robots d’indexation des moteurs (essentiellement Google) que celle présentée aux
visiteurs humain. L’intérêt est alors de présenter au robot d’indexation une page "sur-optimisée"
en terme de référencement naturel qui ne serait pas forcément agréable ou lisible pour un
internaute.
Content spinning : Le content spinning ou création de contenus automatisée est une technique
qui permet de créer automatiquement différentes versions d’un même texte pour éviter le
duplicate content.
96
Mémoire de recherche appliquée Antoine Pourron
Duplicate content : Le duplicate content ou contenu dupliqué désigne le phénomène par lequel
un contenu identique se retrouve sur plusieurs pages Internet au sein d’un même site ou à travers
plusieurs sites ou domaines.
Lien interne : Un lien interne est un lien qui ne pointe pas vers un site extérieur, mais vers une
page du même site ou un autre endroit de la page dans laquelle il se trouve. Des liens internes à
une page ou à un site présentent un intérêt pour la navigation, mais ils jouent également un rôle
dans l’optimisation du référencement naturel.
Linkbaiting : Le linkbaiting désigne la pratique d’utilisation des link baits pour favoriser la
popularité d’un site en multipliant les liens externes à des fins d’optimisation du référencement
naturel.
Netlinking : Le netlinking est l’action de développer le nombre de liens hypertextes externes
pointant vers un site ou une page web. L’objectif est d’obtenir un trafic qualifié en provenance
de ces liens, mais également et surtout de favoriser le référencement naturel grâce à
l’amélioration de la popularité du site.
Pagerank : Le Pagerank est un système développé par les fondateurs de Google qui affecte une
notation à une page web en fonction des liens externes pointant vers cette page et de la nature des
sites sur lesquels ces liens sont présents.
SEA : SEA est un acronyme pour Search Engine Advertising. Le SEA désigne essentiellement le
domaine des liens commerciaux qui pour les puristes relève de l’activité publicitaire et non du
référencement naturel ou SEO.
SEM : Le SEM est l’acronyme couramment utilisé par les professionnels pour désigner le Search
Engine Marketing. Dans un sens large, le SEM désigne l’utilisation des liens commerciaux et le
référencement naturel.
SEO : SEO est l’acronyme de Search Engine Optimization qui est couramment utilisé par les
praticiens pour désigner le référencement naturel.
SERP : SERP est l’acronyme de "search engine result page" ou page de résultats des moteurs de
recherche. SERP est un raccourci utilisé fréquemment par les praticiens du référencement, même
lorsqu’ils ne sont pas anglophones.
SMO : SMO est l’acronyme pour Social Media Optimization (ou optimisation). Le SMO désigne
l’ensemble des techniques et actions destinées à développer la visibilité et l’image d’un site web
ou d’une marque sur les réseaux ou médias sociaux.
97
Mémoire de recherche appliquée Antoine Pourron
Ranking : Le ranking ou rang est la position qu’occupe une page ou un site web dans les pages
de résultats d’un outil de recherche qui sont consécutives à une requête effectuée sur un mot clé.
Redirection 301 : La redirection 301 est un code présent dans l’entête d’une page HTTP qui
indique au navigateur d’un visiteur ou au robot d’indexation d’un moteur que le contenu d’une
page a définitivement changé de localisation et donc d’URL.
Spamdexing : Le spamdexing désigne les pratiques de référencement contraires à la déontologie
ou aux recommandations des moteurs de recherche qui visent à abuser ces moteurs pour obtenir
une place privilégiée sur les pages de résultat. Il s’agit donc de spammer les index, d’où le terme
de spamdexing.
White Hat : Une pratique "white hat" est une technique de référencement naturel considérée
comme conforme et éthique par les moteurs de recherche et les professionnels du référencement.
98