la gratuité c'est le vol payant › 2017 › ... · la seconde section abordera plus en...
Post on 06-Jul-2020
2 Views
Preview:
TRANSCRIPT
Google et le Web 2.0: logique économique et régulation
1
La Gratuité c'est le vol payant !
Google, le Web 2.0 et le modèle économique du gratuit: une industrie à réguler?
Xavier Wauthy, CEREC, Facultés universitaires Saint-Louis & CORE
-------------------------------------------------------------
I. INTRODUCTION
En 2007, la prise de participation de Microsoft dans le capital de FaceBook a transformé
son fondateur, Mark Zuckerberg, en multimilliardaire. Plus précisément, en se portant
acquéreur de 1,6% du capital de Facebook pour un montant d'environ 250 millions de
dollars, Microsoft a implicitement valorisé l'ensemble de Facebook à hauteur de 15
milliards de dollars. Un montant assurément vertigineux pour une entreprise naissante
dans un secteur émergent, et qui plus est, apparemment bâtie sur du sable1. Les
créateurs de Google n'ont pas dû en prendre trop ombrage puisqu'au même moment ils
faisaient leur entrée dans le top 10 du classement Forbes des Américains les plus riches.
La valorisation de leur "bébé" se montait en novembre 2007 à environ 35 milliards de
dollars. Et quelques mois auparavant, ils avaient racheté YouTube pour un montant
nettement plus raisonnable: 1,65 milliard de dollars. Par ailleurs, Google a rapidement
contre-attaqué en s'alliant avec d'autres réseaux sociaux autour du projet OpenSpace
pour développer une offre concurrente. En fin de compte, ou plutôt avec le faible recul
qui nous sépare de novembre 2005, le montant mis en jeu lors du rachat de My Space
paraît presque dérisoire: il s'agissait alors de 580 millions de dollars. A l'heure où nous
écrivons ces lignes, le sort que réservera Yahoo à l'offre de rachat émanant de Microsoft
n'est pas encore connu mais à lire les déclarations de Microsoft, il est clair en tout cas
que le montant de 44,6 milliards de dollars reflète d'abord et avant tout la conviction que
l'avenir de cette industrie se situe non tant dans la maîtrise technologique que dans le
contrôle d'un concept presqu' aussi vieux que le marché lui-même: la publicité.
Que les montants mis en jeu lors de ces diverses péripéties du Web soient démesurés ou
non, qu'ils contribuent ou non au gonflement d'une seconde bulle Internet n'a pas
tellement d'importance; en toute hypothèse ces montants illustrent un adage bien connu
des économistes: "There's no such thing as a free lunch!". Idiome que nous pourrions
traduire dans le présent contexte par l'affirmation suivante: "Si Internet semble ouvrir
1 Sans entrer ici dans le débat relatif à la paternité effective du concept Facebook, il convient de souligner que les contenus proposés via des sites tels que Facebook sont en effet très fragiles, dans la mesure où ils sont pour l'essentiel totalement dépendants du bon vouloir des contributeurs individuels. Ceux-ci peuvent du jour au lendemain se détourner du produit. Dépourvu de son contenu, le site social perd totalement son intérêt et retombe dans l'anonymat potentiellement abyssal du Web.
Google et le Web 2.0: logique économique et régulation
2
une ère du "Gratuit", il (Internet) n'est manifestement pas gratuit pour tout le monde"2.
Derrière la consommation de contenus socialisés tels que ceux proposés par FaceBook ou
Myspace, derrière l'utilisation de moteurs de recherche tels que Google, GoogleScholar
ou encore les produits annexes tels que GoogleMap, Gmail ou GoogleDocs se cachent des
logiques industrielles de grande envergure. L'objectif de la présente contribution est tout
d'abord de remettre en perspective l'idée de "gratuité" qui est souvent associée au
développement d'Internet et en particulier du Web 2.0. Pour ce faire, nous analyserons
les différentes logiques économiques sous-jacentes aux développements de moteurs de
recherche, de leurs produits annexes, ainsi que des sites du Web 2.0. Nous tenterons de
cerner les grands enjeux industriels qui les organisent. Comme nous le verrons, les
activités liées au développement des moteurs de recherche et plus généralement des
produits du Web 2.0 d'un côté obéissent à des principes économiques extrêmement
classiques et d'un autre côté posent, notamment via la combinaison d'une "offre" à la fois
très locale et totalement globale, de nouveaux défis. Après avoir identifié les grandes
forces qui structurent, sous l'angle économique, le développement de ce secteur
d'activité, nous pourrons dès lors nous tourner plus facilement vers les problèmes
éventuels qu'il pose en matière de régulation.3
L'article sera structuré de la manière suivante : dans une première section nous
développerons les implications économiques d'une caractéristique centrale des produits
valorisés au travers des moteurs de recherche et du Web 2.0; à savoir leur caractère de
"produits de contenus". La seconde section abordera plus en détail le modèle économique
du "gratuit" qui a été choisi pour assurer le développement des activités du Web 2.0. La
troisième section sera quant à elle exclusivement consacrée aux difficultés que posent les
moteurs de recherche et les produits du Web 2.0 aux autorités de régulation,
principalement sous l'angle de la concurrence.
2 Le lecteur se référera utilement à l'ouvrage récent de Olivier Bomsel qui développe, au-delà du seul cadre d'Internet, les implications (et les malentendus) qui se sont développés autour du concept de gratuité dans les industries de réseau. Bomsel, O. "Gratuit", Folio Actuel, 2007. 3 Précisons d'emblée que nous n'entendons pas couvrir dans ce chapitre les questions relatives à la propriété intellectuelle. A l'évidence néanmoins, le développement des sites Web 2.0 ou encore de certains produits Google pose des questions en matière de droit d'auteur ou de droit des marques. Nous laissons à nos collègues juristes le soin de les détailler dans d'autres chapitres de cet ouvrage. Notre hypothèse de travail consistera ici à supposer que l'ensemble de ces problèmes juridiques sont ou ont été réglés dans un sens assurant la survie du secteur d'activité lui-même. En d'autres termes, et pour prendre un exemple, nous prenons comme hypothèse de travail le fait que d'une manière ou d'une autre les questions de droit d'auteur qui opposent Google et Copiepresse en Belgique seront réglées dans un sens qui préservera l'essence du produit Google News, à savoir la mise à disposition, gratuite pour l'utilisateur, de résultats de recherche issus de sites Web des quotidiens francophones.
Google et le Web 2.0: logique économique et régulation
3
II: MOTEURS DE RECHERCHE, WEB 2.0: DES PRODUITS DE CONTENU
Une caractéristique commune à presque tous les produits consommés sur Internet est
qu'il s'agit de produits de contenu(s). Sous l'angle économique, un "contenu" est par
définition un bien intangible dont la consommation repose sur un processus intellectuel
dans le chef de l'individu (la lecture d'un document, l'écoute, le visionnage) ou encore
sur l'interprétation par un intermédiaire, un medium (c'est typiquement le cas pour un
logiciel "interprété" par votre PC, ou encore l'interface qui vous permet de consulter une
base de données).
Les biens de contenus posent une série de problèmes économiques, et ce
indépendamment de leur caractère numérique, ou de leur lien avec les réseaux
informatiques. Comme on le verra, la problématique des moteurs de recherche ou du
Web 2.0 peut être interprétée, en partie du moins, comme une matérialisation nouvelle
de mécanismes somme toute très anciens. Dans une version minimaliste, la révolution
Internet ne serait, sous l'angle économique, au plus qu'un "changement d'échelle",
remettant au centre du débat, sous une forme exacerbée, un ensemble de questions
anciennes.
II.a. Contenu et bien public
Pour caractériser la nature économique des biens, les économistes recourent le plus
souvent à la combinaison de deux critères: celui de rivalité dans la consommation d'une
part et celui d'excluabilité d'autre part. La consommation d'un bien est dite non-rivale
lorsque la consommation du bien par un individu ne réduit en rien les possibilités de
consommation du même bien par d'autres individus. Parallèlement, un bien est dit à
consommation non-excluable lorsqu'il est impossible d'empêcher la consommation du
bien par un individu sans en priver du même coup tous les autres individus. En croisant
ces deux critères, il est aisé de comprendre que la logique marchande traditionnelle
requiert la présence de biens excluables et à consommation rivale. En effet, c'est la
présence simultanée de l'excluabilité et de la rivalité qui fonde le modèle de marché, la
logique d'achat-vente, selon laquelle les biens consommés ont été achetés
individuellement par chaque utilisateur. On parle dans ce cas de "biens privés". Un bien
non-excluable et dont la consommation n'est pas rivale est qualifié de "bien public". En
principe, la fourniture d'un bien public ne peut pas être assurée par le mécanisme de
marché classique. En effet, sur la base de la non-rivalité dans la consommation, il suffit
de produire une unité du bien pour satisfaire à la consommation d'une infinité
d'individus; dès lors la production d'une seule unité du bien est suffisante. Sur la base de
la non-excluabilité, il est par ailleurs impossible de forcer un individu à payer la
Google et le Web 2.0: logique économique et régulation
4
consommation du bien en question. Pour peu que la production du bien public soit
coûteuse, le risque est alors grand de ne pas voir ce bien fourni sur le marché, faute de
pouvoir rentabiliser la production.
En tant qu'expression d'une idée, le contenu présente tous les traits du "bien public". Si
l'on admet en effet qu'un contenu est l'expression d'une idée, alors sa consommation est
non-rivale: par exemple ma lecture d'un article dans la presse quotidienne ne conduit à
aucune détérioration du contenu de l'article et par conséquent ne limite en rien les
possibilités pour une tierce personne de bénéficier de la même information. La question
de l'excluabilité est quant à elle directement liée au support qui est utilisé pour véhiculer
le contenu. En règle générale, il ne sera pas possible pour le journaliste de m'empêcher
de céder mon journal à mon voisin, qui dès lors pourra prendre connaissance de la même
information sans acquitter aucun paiement. C'est encore plus clair s'il s'agit d'une
information diffusée en clair par la radio: dès lors qu'elle est diffusée sur les ondes, elle
devient accessible à tous ceux qui disposent d'un récepteur. Si l'auteur du contenu veut
me priver de la consommation, il n'a d'autre choix que celui d'interrompre la diffusion
auquel cas il prive du même coup tous les autres utilisateurs. Un contenu diffusé tend
donc à devenir non-excluable.4
S'il existe une ambiguïté quant au caractère de "bien public" des contenus, l'exemple
précédent suggère que cette ambiguïté tient non tant au contenu lui-même qu'à la
présence et surtout à la nature du support sur lequel est fixé le contenu. Il illustre une
dimension essentielle des problèmes économiques posés par les contenus: les contenus
sont en effet "fixés" d'une manière ou d'une autre sur un support, qui en assure la
diffusion et/ou définit l'interface qui permet la consommation effective. On pourrait parler
de contenant ou de support. C'est dès lors la combinaison du contenu et du contenant
sur lequel il est fixé qui définira le "produit de contenu" au sens économique. Il s'agira
en l'occurrence d'un produit joint dont la valeur économique est fondée précisément sur
la stricte complémentarité qui lie ses composantes: le contenu sans son support est sans
valeur économique car il ne peut être consommé par autrui; le contenant sans son
contenu est la plupart du temps sans valeur économique intrinsèque. Tout au plus
pourrait-il être acquis en tant que structure d’accueil dont la valeur marchande ne
résulterait que de la capacité à recevoir des contenus. Sa consommation dépourvue de
contenu est totalement dénuée d'intérêt.
4 C’est dans cette perspective qu’il convient d’aborder la problématique du cryptage; celui-ci consiste en effet à transformer, par un moyen technique, la nature économique d’un bien en le rendant excluable.
Google et le Web 2.0: logique économique et régulation
5
Lorsque contenu et contenant sont considérés simultanément, à quel type de bien a-t-on
affaire? Le contenu en tant que tel reste un bien à consommation non-rivale et non-
excluable. Néanmoins le "produit de contenu" pourra ne plus être vu comme un bien
public au sens strict. En particulier, le caractère "matériel" du contenant constituera le
vecteur par lequel différentes formes d'excluabilité peuvent être réintroduites. Ainsi je ne
peux pas totalement empêcher quelqu'un qui n'aurait pas acheté mon quotidien de
presse écrite de lire les articles qui s'y trouvent imprimés; cependant je peux
raisonnablement considérer que pour lire gratuitement le journal en question, un individu
doit disposer dans un entourage relativement proche d'une connaissance qui l'a acheté. Il
y a une limite physique aux possibilités de consommation gratuite qui résulte des
contraintes physiques imposées par le caractère matériel du support. Pour l'essentiel,
c'est le caractère de bien privé intrinsèque du support qui permet le contrôle plus ou
moins strict de la consommation du contenu lui-même. Ainsi, la fonction principale de la
propriété intellectuelle dans cette perspective est de renforcer la caractère "privé" du
bien de contenu en limitant autant que possible les consommations multiples. Plus le
support tend lui-même à prendre les traits d'un bien public, moins il est facile dans les
faits d'en limiter l'usage et plus il est difficile d'exercer le droit de propriété intellectuelle;
celui-ci en effet s'appuie très largement sur un contrôle d'usage du contenu par le
contrôle du support.
Cette approche en termes de rivalité et excluabilité relative des biens de contenus est
une clé d'entrée essentielle pour appréhender correctement l'analyse des moteurs de
recherche ou du Web 2.0. Elle est indispensable pour comprendre les logiques
commerciales qui vont présider aux développements des industries de contenus. En
effet, les évolutions technologiques récentes ont eu pour conséquence directe de
dématérialiser le support sur lequel le contenu est fixé, c-à-d. de renforcer la dimension
de "bien public" des produits de contenu.
II.b. Production, et coûts de production des contenus
En tant qu'expression d'une idée à diffuser, le produit de contenu met en oeuvre deux
types de coûts de production de nature très différente. Dans un premier temps, il est
nécessaire de produire le contenu lui-même. C'est la phase de création qui correspond à
un coût fixe, le plus souvent irrécupérable. Nous pourrions parler du coût du prototype,
ou de l'oeuvre originale. Il s'agira dans un second temps de diffuser le contenu sous la
forme d'un produit de contenu, en "reproduisant" le contenu original via un support.
Contrairement au coût de création qui mobilisera des ressources souvent conséquentes,
le coût d'une diffusion additionnelle, particulièrement dans l’environnement numérique
Google et le Web 2.0: logique économique et régulation
6
(c’est moins vrai par exemple pour l’édition de livres) est la plupart du temps négligeable
(dans le cas d'un CD vierge par exemple) voire tout simplement nul, dans le cas d'une
diffusion radio par voie hertzienne. A ceci près évidemment qu'il faut disposer de
l'infrastructure permettant d'assurer soit la production massive des supports (une chaîne
de pressage pour disques vinyle, une imprimerie), soit la diffusion (un émetteur
radio,...). A nouveau, ce dernier coût est fixe, c'est-à-dire indépendant de la quantité
effective de contenu diffusée; il est par contre récupérable.
Au minimum donc, l'existence de biens de contenu accessibles à la consommation
publique mobilise le coût de création originale, qui doit être récupéré d'une manière ou
d'une autre. Il devrait être clair à ce stade que si le bien de contenu revêt les traits d'un
bien public pur et à défaut d’une interdiction légale, par le droit de la propriété
intellectuelle, de reproduire le contenu sauf avec l’autorisation de l’auteur, pour
couvrir le financement des coûts de création et de diffusion au sein d'un modèle
marchand, on ne peut compter que sur la vente du prototype, avant qu'il ne soit diffusé!5
En effet, le caractère non-excluable du bien public pur rend impossible la vente
d'exemplaires multiples. Le bien étant non-excluable, il est impossible de conditionner la
consommation à l’achat et en toute hypothèse son caractère non-rival ouvre la possibilité
de consommations multiples à partir d’un seul exemplaire produit. C'est donc le caractère
excluable du support, du contenant, qui rend possible la diffusion des biens de contenus
au travers d'une logique industrielle classique, où la vente des supports avec une marge
unitaire substantielle assure le financement du développement de la première copie.
Dans cette perspective, la diffusion de masse présente l'avantage de répartir le coût de
mise en oeuvre de l'original sur un plus grand nombre de consommateurs et par là
d'abaisser le coût de production moyen du produit de contenu.
Il n'est évidemment nul besoin de souligner ici que le passage des supports analogiques
aux supports numériques réduit fortement le degré d'excluabilité des biens de contenus.
Premièrement, le numérique autorise techniquement une reproduction à l'identique des
contenus à un coût unitaire dérisoire et qui plus est, sur une base très décentralisée. En
d'autres termes, à peu près n'importe qui peut dupliquer, à petite échelle, à peu près
n'importe où. Deuxièmement, le réseau Internet permet une diffusion de masse
totalement dématérialisée. La notion même de support de diffusion, dans le chef de
l'utilisateur final tend à disparaître au profit d'une diffusion de signaux numériques via
des "tubes", ce que J.P. Barlow qualifiait il y a quelques années déjà dans le titre resté
5 Boldrin et Levine démontrent que contrairement à une idée très largement répandue, il n'est souvent pas nécessaire de disposer du monopole temporel conféré par le droit d'auteur pour rentabiliser l'investissement dans la création intellectuelle; voir M. Boldrin et D. Levine (2005), Against Intellectual Monopoly, à télécharger sur http://www.dklevine.com/general/intellectual/againstnew.htm
Google et le Web 2.0: logique économique et régulation
7
célèbre de "Selling wines without bottles". En matière de commercialisation de contenu,
le rapport de forces s'est dès lors déplacé en faveur d'un nouvel intermédiaire, le
distributeur numérique (tel i-Tunes) et surtout du diffuseur numérique, celui qui
achemine le contenu vers l'utilisateur final. Il convient de noter à ce stade que les
réseaux numériques peuvent acheminer simultanément un spectre très large de
contenus de sorte que les opérateurs réseaux peuvent en partie organiser la concurrence
pour l'utilisation du réseau lui-même.
II.c. Modes d'appropriation classique de la valeur des biens de contenu
Comme dans n'importe quelle industrie, la consommation d'un bien de contenu est
génératrice d'une valeur dont l'appropriation constitue l'enjeu principal pour les
opérateurs industriels. En matière de biens de contenus, plus sans doute que dans
d'autres secteurs d'activité, les mécanismes d'appropriation de valeur peuvent se révéler
complexes. D'une part, la nature de bien public des contenus eux-mêmes pose
intrinsèquement un problème (sur lequel nous reviendrons) mais d'autre part, la
consommation d'un seul et même contenu de base peut générer des valeurs très
différentes d'un individu à l'autre. Les biens de contenu sont des biens d'expérience et
des biens à consommation personnalisable. Leur numérisation a pour effet de décupler
l'importance de ces deux caractéristiques dans la problématique d'appropriation.
La valeur attribuée à un contenu donné, disons un film de cinéma, peut très fortement
varier d'un individu à l'autre. Autant mon épouse peut être sensible au romantisme et à
l'humanité véhiculée par "Love Actually", autant mon adolescent de fils pourra n'y voir
qu'un navet sirupeux, déclinant jusqu'à l'écoeurement le chapelet des valeurs
bourgeoises. Pour lui le contenu est sans valeur. Le problème est que ce diagnostic ne
pourra être posé qu'après avoir vu le film! Les économistes parlent dans ce cas de
"biens d'expérience", pour caractériser le fait que la qualité du produit n'est révélée
parfaitement qu'ex post. Or, il est nécessaire de pouvoir convaincre de la valeur du bien
ex ante. En effet, espérer financer la production d'un bien d'expérience sur la base de la
satisfaction révélée ex post se heurte à un problème majeur: comment forcer mon
épouse qui de facto s'est approprié le contenu en regardant le film à révéler qu'il lui a plu
si elle sait que le prix qu'elle devra payer est fonction de son niveau de satisfaction? En
l'absence de mécanisme incitatif garantissant un transfert correct d'information ex post,
les biens de contenu, parce qu'ils sont des biens d'expérience se doivent de convaincre
ex ante, pour obtenir un paiement ex ante! Un enjeu fondamental pour ce type de bien
sera donc de transmettre une information ciblée sur les caractéristiques et les
préférences des consommateurs potentiels.
Google et le Web 2.0: logique économique et régulation
8
L'augmentation de la circulation et de la consommation du bien de contenu sur Internet
est vertigineuse.6 Cela confère aux moteurs de recherche un rôle d'autant plus
important. En leur absence, surfer sur le Web reviendrait à errer à la recherche
d'information dans une immense bibliothèque où les livres seraient classés de manière
aléatoire. Parce qu'ils filtrent et trient les contenus sur la base des requêtes des
utilisateurs, les moteurs de recherche créent une valeur ajoutée essentielle au
développement du réseau numérique. Sur le plan économique, les moteurs de recherche,
tout comme les réseaux sociaux d'ailleurs, assurent une fonction d'appariement
(matchmaking) entre les différentes catégories d'individus. Cette fonction est essentielle
car la "rencontre" est en fait la source de création de valeur.
Parallèlement, si un même contenu de base peut se voir attribuer des valeurs différentes
selon les catégories d'utilisateurs auxquelles il est destiné, l'appropriation de ces valeurs
par le producteur de contenu passera par des formes variées de discrimination.
L'exemple des éditions hard back, paper back ou encore édition originale versus édition
de poche est bien connu. Le caractère immatériel des biens de contenu constitue une
formidable opportunité dans la mesure où ces stratégies, dites de versionage, seront
d'autant plus faciles à mettre en oeuvre qu'elles ne porteront en général que sur le
support. Dès lors, les stratégies de versionage sont d'autant plus rentables qu'elles sont
moins coûteuses et plus précises (pour peu que l'information relatives aux
caractéristiques de l'utilisateurs puissent être mieux ciblées- y compris par exemple en
termes d'intensité d'utilisation). Le versionage permet donc à la fois d'affiner le contenu
sur les caractéristiques de l'utilisateur, et donc d'en augmenter la valeur, tout en
augmentant la diffusion et donc le volume. Dans ces conditions, la capacité à recueillir
une information ciblée sur les utilisateurs potentiels est primordiale. Par définition, les
moteurs de recherche et les sites du Web 2.0 sont dotés de cette capacité.
Potentiellement, ils occupent une place cruciale dans la chaîne d'appropriation de valeur.
Dernier point, crucial, sur lequel nous reviendrons en détails dans la section suivante: la
valeur les biens de contenu, parce qu'ils sont associés à la problématique des biens
publics, est souvent appropriée de manière indirecte. Le modèle de la télévision
hertzienne ou de la presse écrite en est l'illustration la plus claire. Une émission diffusée
sur une chaîne de télévision non cryptée constitue un bien public. Que je regarde ou non
l'émission n'affecte en rien la possibilité pour d'autres de regarder cette émission ;il est
par ailleurs impossible de m'empêcher de regarder cette émission si j'en ai envie, dès
lors qu'elle est diffusée. On peut supposer que les téléspectateurs retirent un certain
6 Selon le site Netcraft.com, en janvier 2008, le nombre de serveurs Web actifs recensés se montait à 155 583 825.
Google et le Web 2.0: logique économique et régulation
9
bénéfice lorsqu'ils regardent cette émission. La diffusion est créatrice de valeur, mais
cette valeur ne peut être directement appropriée par le diffuseur. Comment contourner
l'obstacle? Plusieurs moyens existent. Pourquoi ne pas imposer une redevance sur le
téléviseur, c'est-à-dire sur le support par lequel transitent les consommations
individuelles? Cette mesure présente l'avantage de la simplicité mais elle conduit à une
"taxation" forfaitaire des utilisateurs. Faute de pouvoir mesurer directement les
utilisations, on prélèvera un montant global, indépendant des utilisations effectives.
Autre solution envisageable: crypter les émissions. Dans ce cas, seuls ceux qui ont accès
au décodeur, après paiement, sont en mesure de "consommer". Dans ce cas de figure, le
"truc" consiste donc, via un moyen technique, à réintroduire une forme d'excluabilité
dans le processus afin de parvenir à conditionner la consommation effective à un
paiement. Dernier modèle tout aussi classique: le financement indirect par la publicité.
Dans ce cas de figure, la technique utilisée consiste à exploiter le fait qu'au contenu, un
bien public, est associé un bien privé qui lui est strictement complémentaire: l'accès à
l'audience. Sa consommation est rivale puisque les secondes d'antenne consacrées à la
diffusion d'un spot publicitaire donné ne sont plus disponibles pour un autre annonceur. Il
est par ailleurs facile d'exclure de la diffusion un annonceur qui n'aurait pas rempli les
termes de son contrat sans que cela ne limite les possibilités de diffusion des autres
annonceurs. Dans ce cas de figure, celui qui consomme le bien privé, l'accès à l'audience,
pourra financer la production du bien public que constitue le programme. On voit poindre
ici la logique de la "gratuité" pour les utilisateurs. Un thème que nous développerons plus
avant dans la section suivante.
III. LA VALEUR DU GRATUIT
Venons-en maintenant à ce qui constitue sans doute "la" composante la plus marquante
de Google et des réseaux sociaux de type FaceBook ou Myspace, à savoir leur caractère
gratuit! Car ce qui fascine certainement le plus les surfeurs lambda que nous sommes
toutes et tous est l'impression d'avoir accès, instantanément, mais surtout gratuitement,
à une quantité d'informations absolument inimaginable il y a moins de dix ans. A y
regarder de plus près, la surprise ne fait que grandir. Car non seulement nous avons
accès gratuitement à un flux d'information gigantesque et ininterrompu mais ce flux ne
nous arrive pas en ordre dispersé. Il est trié, hiérarchisé, traité et donc quasiment
directement intelligible et utile, en fonction de nos desiderata. Nous pouvons de plus
contribuer à traiter cette information, la partager avec d'autres, bénéficier de leurs
expériences, de leurs savoirs. Gratuitement! Allons plus loin encore: grâce à des produits
tels que docs.google.com nous pourrions progressivement nous passer d'acheter au prix
Google et le Web 2.0: logique économique et régulation
10
fort des licences d'utilisation pour les suites logicielles telles que Office. Plus besoin non
plus de logiciels de messagerie, ni d'agenda. Tout est sur le Web; qui plus est, tout est
communicable! Nous en sommes arrivés à un stade où la gratuité des contenus véhiculés
sur Internet semble presque être devenue un droit.
Mais, bien entendu, la fourniture de ces torrents d'information intelligente ne peut pas
être totalement gratuite. La mise à disposition des informations partagées au travers des
réseaux sociaux requiert à la fois des capacités de stockage et une capacité de
traitement des informations, tant en terme de programmes que d'ordinateurs
gigantesques. Les montants astronomiques qui sont mis en jeu lors des rachats de sites
tels que MySpace, YouTube et autres suffisent à indiquer que nous sommes en présence
d'une logique industrielle "lourde". Quels en sont les ressorts principaux?
En se limitant en tout état de cause au seul aspect "Offre", trois aspects (au moins) se
conjuguent pour expliquer la forme économique qui accompagne l'émergence de ce
secteur d'activité:
- il s'agit de "systèmes d'information" caractérisés par une forte complémentarité;
- la présence d'effets de réseaux, et surtout d'effets de réseaux croisés constitue le
vecteur de croissance de l'activité du secteur;
- la contribution gratuite des utilisateurs finaux à la constitution des bases de données
qui sont au coeur du modèle assure la rentabilité du système.7
III.a. Systèmes d'information et complémentarité
La transmission d'information, et plus généralement de contenu, s'est toujours appuyée
sur un "système" de transmission caractérisé par une relation de complémentarité
stricte. Comme évoqué précédemment, c'est déjà le cas au niveau du produit de contenu
en tant que tel, défini comme la combinaison du contenu et de son support. Lorsque
deux biens sont caractérisés par une relation de complémentarité stricte, le
consommateur fixe son niveau de consommation sur la base de la dépense globale
engendrée par la consommation, nécessairement jointe, de deux biens. Ainsi, le choix
d'une voiture est en général réalisé en prenant en compte sa consommation. De même,
lors de l'achat d'un rasoir, je vais prendre en compte le prix des lames qui lui sont
associées. Supposons alors qu'un seul et même producteur produise les deux
composantes. Il aura tout le loisir de tarifer de manière différente les deux composantes
7 Il est tentant d’établir ici un parallèle avec la logique des logiciels OpenSource où la contribution gratuite de certains utilisateurs conduit à développer le logiciel lui-même. Une différence majeure tient cependant au fait que les informations fournies gratuitement par les utilisateurs finaux sont ici revendues indirectement à d’autres utilisateurs: les annonceurs.
Google et le Web 2.0: logique économique et régulation
11
tout en induisant une dépense globale équivalente pour un consommateur donné. Par
exemple, une baisse de prix sur le rasoir pourra être récupérée par le producteur via une
augmentation légère du prix des lames. Dans les cas les plus simples, la firme
bénéficiera d'une situation de monopoleur multi produit et déterminera sa tarification
optimale en structurant les prix des différentes composantes de manière à générer le
plus grand volume de ventes.
La consommation d'information, en particulier numérique, met en oeuvre un ensemble
de biens complémentaires au sein de ce qu'il est convenu d'appeler des "systèmes
d'information".8 Pour aller sur Internet, je dois disposer d'une connexion (un modem et
un compte auprès d'un fournisseur d'accès), un ordinateur (ou une variante de celui-ci),
un écran, des logiciels installés sur l'ordinateur. Bref un ensemble de composantes qui,
mises bout à bout, me permettent d'accéder à l'information recherchée. Dans ce cadre,
l'amélioration de la qualité d'un des maillons de la chaîne de complémentarité contribue à
augmenter la valeur de l'ensemble. Le point le plus important cependant est de réaliser
que d'une part cette augmentation de valeur pourra être capturée, appropriée ailleurs
qu'à l'endroit où elle se réalise, dans la chaîne de complémentarité et que d'autre part, à
valeur globale inchangée, la répartition de cette valeur entre les différents maillons de la
chaîne peut changer. Ainsi je pourrai augmenter la valeur d'un "bundle" de biens par
exemple via une accélération de la vitesse de transmission sur mon réseau sans
augmenter le prix de la composante directement impliquée, en l'occurrence le modem,
tout en m'appropriant l'augmentation de valeur en tarifant à un prix plus élevé l'accès au
réseau ou au logiciel. Lorsque différents opérateurs privés interviennent à des stades
différents de la chaîne de valeur, la concurrence opère de manière verticale et sera
d'autant plus forte que la complémentarité entre les composantes du système est forte.
Nous pouvons dès lors nous débarrasser d'une première illusion en matière de gratuité:
le fait de pouvoir consulter gratuitement de l'information sur Internet entraîne bel et bien
une dépense, en particulier dans le domaine du hardware, plus en amont de la chaîne,
qui nous donne l'accès effectif à l'information en question. De la même manière que les
opérateurs de téléphonie mobile on pu trouver utile de sponsoriser l'achat des téléphones
pour stimuler le développement du marché des communications mobiles. Si l'appareil est
fourni gratuitement, il n'en reste pas moins vrai qu'en tant que consommateur, je suis
amené à payer en fin de mois une facture qui n'existerait pas si je ne détenais pas cet
appareil "gratuit". Globalement, il y a donc bel et bien une augmentation de ma dépense.
A contrario, de nouveaux opérateurs sur Internet, en particulier au niveau de
8 On pourra se référer à l'ouvrage de C. Shapiro et A. Varian (1999), Economie de l'information, De Boeck.
Google et le Web 2.0: logique économique et régulation
12
l'infrastructure, peuvent trouver rentable de sponsoriser les contenus ou à tout le moins
promouvoir leur circulation pour augmenter la demande pour leurs propres produits qui
permettent d'accéder à ces contenus.
Indiscutablement, la masse des contenus accessibles sur le réseau Internet, le
développement de moteurs de recherche qui augmentent l'accessibilité effective de ces
contenus ou encore les réseaux sociaux constituent autant d'éléments qui augmentent la
valeur du système d'information. Système qui, pris globalement, n'est évidemment pas
gratuit. Ainsi, améliorer l'accessibilité des contenus contribue directement à augmenter la
valeur intrinsèque du réseau et par conséquent à augmenter les possibilités d'extraire de
la valeur à d'autres stades de la chaîne. Il est par exemple clair que la relative mollesse
des fournisseurs d'accès au réseau en matière de contrôle de la circulation de contenus
protégés est corrélée au développement du trafic sur le réseau Internet et à
l'intensification de la demande pour des connections haut débit payante.
En conclusion, si l'on voit le réseau Internet comme une composante d'un plus vaste
système d'information à composantes fortement complémentaires, la gratuité de
certaines composantes, en l'occurrence une série de services dont la valeur ajoutée
résulte d'un traitement intelligent de contenus n'est pas en soi surprenante.
III.b: Externalités de Réseaux et Plates-Formes
A côté des considérations liées au concept de "systèmes d'information" et de leur
complémentarité, il est une seconde dimension, encore plus essentielle, à placer au coeur
de toute analyse qui vise à comprendre la nature des mécanismes à l'oeuvre dans le
développement des moteurs de recherche, c'est celle du réseau lui-même. Plus
précisément, d'un point de vue économique, les interfaces par lesquelles transite
l'information véhiculée sur Internet peuvent être qualifiées de "biens à effets de
réseaux". Par définition un effet de réseau, au sens économique, est présent dès lors que
la valeur d'un bien dépend directement du nombre d'utilisateurs du bien en question.
Ainsi, le téléphone est-il caractérisé par des effets de réseau très puissants: rien ne sert
de détenir un téléphone si vous êtes le/la seul(e) à en détenir un; qui appelleriez-vous?
Plus le nombre d'utilisateurs est élevé, plus le bien est utile et plus le nombre
d'utilisateurs peut augmenter à prix de vente inchangé. La présence d'utilisateurs
additionnels génère donc une externalité positive, l'externalité de réseau, à la fois sur les
utilisateurs déjà présents et sur les utilisateurs futurs. L'enclenchement de ces
externalités de réseau engendre donc une spirale ascendante qui conduit au
développement exponentiel de l'industrie, dès lors que la taille minimale critique est
atteinte.
Google et le Web 2.0: logique économique et régulation
13
Vu comme un système d'échange d'informations, le réseau numérique est un bien à effet
de réseau. La valeur que j'attribue à la possibilité de me connecter au réseau Internet
dépend directement de l'importance des connexions que je pourrai établir, de la quantité
d'information que je pourrai y trouver, et par conséquent du nombre d'agents
économiques eux-mêmes connectés au réseau Internet. En matière de communauté
sociale, un phénomène comparable est indiscutablement à l'oeuvre: l'intérêt, la valeur
que peut présenter à mes yeux un site tel que FaceBook va positivement dépendre du
nombre d'autres individus affiliés au même site puisque plus ce nombre est élevé, plus je
risque d'y nouer des contacts intéressants. Dans le même ordre idée, la vie sur
SecondLife est d'autant plus passionnante que le nombre de membres de la communauté
est grand. En effet, plus il y d'affiliés, plus les contributions sont nombreuses et donc
plus les univers proposés sont différents et potentiellement intéressants.
Le présence d'effets de réseaux peut certainement justifier que, dans une phase initiale
en tout cas, le bien mis en vente soit "sponsorisé", c'est-à-dire vendu à un prix
artificiellement bas, voire nul. Il s'agit ici d'"amorcer" la pompe, de développer un
premier marché à la masse critique suffisante pour créer une disponibilité à payer
significative, c-à-d. apte à faire émerger une demande solvable. Dans cette perspective,
la gratuité, partielle ou totale, du bien à effet de réseau ne peut cependant qu'être
transitoire. Tôt ou tard, la consommation du bien de réseau deviendrait donc payante. Ce
qui s'avère en partie être le cas dans les faits. En effet, ce qui est en jeu à ce niveau est
bien l'accès à Internet vu comme un système d'information. Or globalement, les
dépenses de ménages pour accéder au réseau des réseaux ont augmenté, via l'achat
d'ordinateur plus puissants, de connections plus rapides, de volumes plus élevés, au fur
et à mesure du développement du réseau lui-même.
Ces effets de réseaux simples ne suffisent cependant pas à nous plonger au coeur du
fonctionnement des moteurs de recherche et autres sites "sociaux". Ceux-ci sont en effet
principalement caractérisés par des effets de réseaux croisés. Nous sommes en présence
de biens à effets de réseaux croisés lorsque plusieurs catégories d'agents économiques
gravitent autour d'un même bien dont ils valorisent l'usage, éventuellement de manière
différente. L'exemple le plus simple est sans doute celui d'un centre ou d'une foire
commerciale. Imaginons un vaste espace clos tel qu'un grand hall d'exposition
totalement vide. Comment ajouter de la valeur à cet espace? S'il était, pour une raison
indéterminée, rempli de jeunes couples, je pourrais envisager de vendre des
emplacements à une série de commerçants spécialisés dans l'organisation de banquets,
de soirées de mariage, des coiffeurs, des fleuristes etc... Et comment pourrais-je
Google et le Web 2.0: logique économique et régulation
14
imaginer concentrer dans ce lieu précis un grand nombre de couples en route vers le
mariage sinon en leur garantissant la présence de nombreux exposants spécialisés dans
le mariage. Mon hall d'exposition acquiert une valeur ajoutée pour les futurs mariés
précisément parce que s'y trouvent concentrés de nombreux exposants, qui eux-mêmes
trouvent intéressant d'y exposer compte tenu de la forte teneur en futurs mariés au
mètre carré. Pour chacun des deux groupes l'intérêt qu'il y a à être présent dans le hall
résulte de la présence en grand nombre de représentants de l'autre groupe.
Nous retrouvons dans cet exemple la notion d'externalités de réseaux, mais croisées, c-
à-d. d'un groupe vers l'autre. Plus précisément, c'est la présence d'un groupe qui suscite
l'arrivée de l'autre, et réciproquement. Par définition, une externalité est présente
lorsque l’action d’un agent économique a un impact, positif ou négatif, sur le bien-être
d’un (ou plusieurs) autre(s) agent(s) qui ne sont pas partie prenante à la transaction. En
présence d’externalités, les mécanismes de marché ne suffisent pas à conduire à une
allocation de ressources efficace précisément parce que les agents à l’origine de
l’externalité n’intègrent pas dans leur prise de décision l’impact que cette décision a sur
la situation de tiers. Ainsi, le fait d’installer un logiciel anti-virus sur mon ordinateur
améliore ma situation parce que mon ordinateur est protégé, mais en même temps, ce
logiciel améliore la situation de mes correspondants, dont je ne risque plus d’infecter les
ordinateurs puisque je ne transmettrai plus de virus. Considérons alors le cas suivant : la
valeur économique que j’accorde à la protection de mon ordinateur est trop faible que
pour m’inciter à acheter le logiciel anti-virus mais la valeur sociale de cet achat (qui
correspond à la valeur privée augmentée de l’impact positif sur les autres utilisateurs)
est supérieure au prix. Pour assurer une allocation des ressources efficace, il conviendrait
que j’achète le logiciel mais, à titre individuel, je n’y suis pas incité. Nous observons ici
une défaillance de marché. L’internalisation de l’externalité va consister en la mise en
place d’un mécanisme dont l’effet sera de m’amener à prendre en compte, dans mon
calcul économique individuel, la valeur de l’externalité. Dans le cas d’espèce, le
gouvernement pourrait par exemple décider de subsidier l’achat de logiciels antivirus.
Plus encore que dans le cas d'externalités de réseaux simples, l'internalisation des
externalités est problématique lorsque celles-ci sont croisées. C'est précisément le rôle
de l'opérateur de marché (l'organisateur d'un "salon du mariage" dans l'exemple
précédent) que d'internaliser ces externalités, via la mise en place de mécanismes
incitatifs , en autres usant de modes de tarification particuliers.
La présence d'externalités de réseau croisées ouvre une série de perspectives qui n'ont
été que récemment analysées par les économistes. Ces derniers qualifient les marchés à
Google et le Web 2.0: logique économique et régulation
15
externalités de réseau croisées de marchés multi-faces, ou marchés à versants multiples.
L'idée de base est que chaque face correspond à une catégorie d'agents affectés
(positivement ou négativement) par la présence des autres groupes. Le produit, ou plus
précisément sa valeur économique, naît précisément de la présence simultanée des
différents groupes sur ce que nous pourrions appeler la "plate-forme". Le rôle de
l'initiateur de la plate-forme, le "teneur" de marché, consistant précisément à assurer la
présence simultanée des différents groupes sur la plate-forme et à stimuler leurs
interactions. La tarification différenciée tant de l'accès que de l'usage de la plate-forme
constitue le moyen privilégié pour stimuler les effets de réseau. Ainsi, une manière
simple d'augmenter l'attractivité du salon pour les exposants peut consister à offrir
gratuitement l'accès aux visiteurs. A la limite, l'organisateur pourra aller jusqu'à subsidier
l’accès des visiteurs.
Selon les économistes Rochet et Tirole9, la caractéristique définitionnelle d’un marché
multi-face est la non-neutralité de la structure de tarification. Considérons par exemple
un site Internet dont la fonction est de faire se rencontrer (d’apparier) des hommes et
des femmes (Meeetic.com par exemple). Le succès d’une telle plate-forme dépend de la
présence simultanée de représentants des deux sexes. Supposons alors que le promoteur
de la plate-forme envisage de la rentabiliser en faisant payer les contacts noués entre
hommes et femmes via le site. Le prix fixé par contact serait, imaginons, de 1€. La
question se pose alors de savoir comment répartir cette charge de 1€ entre hommes et
femmes. La “structure de tarification” sera considérée comme non neutre dès lors que la
simple modification de la répartition du prix total entre les différentes catégories d’agents
modifie le volume de transactions réalisé. En d’autre termes, selon que ce sont les
hommes ou les femmes qui prennent en charge l’intégralité de l’euro, le nombre de
contacts noués sur le site diffère. En matière de tarification optimale, le propriétaire de la
plate-forme se devra donc d’ajuster la structure de ses prix de manière à maximiser les
transactions. Une stratégie typique consistera à proposer un tarif très attractif, à la limite
nul, à la partie du marché la plus sensible au prix tout en “se rattrapant” par des tarifs
élevés sur le côté captif du marché. Une structure de tarif extrêmement asymétrique
n’aura évidemment rien de surprenant dans ce type de marché.
Dans le domaine des industries numériques, de très nombreux marchés peuvent être
considérés comme multi-faces. Ainsi en va-t-il par exemple des systèmes d’exploitation.
L’objectif est ici "d’embarquer" sur une même plate-forme des utilisateurs et des
développeurs d’application. La mise au point d’un protocole d’échange de fichiers au
9 J. Rochet and J. Tirole, "Two-sided markets: A progress Report", Rand journal of Economics, 37-3, pp.645-667.
Google et le Web 2.0: logique économique et régulation
16
format standardisé correspond à une logique comparable. Afin d’imposer un standard tel
que le PDF il est absolument nécessaire de “réunir” sur une plateforme d’échange
virtuelle ceux qui génèrent les fichiers à transmettre et ceux qui vont les lire. Une
manière simple de maximiser les chances de voir le standard s’établir consiste à “donner”
le logiciel de lecture de manière à garantir à celui qui génère un fichier que le
destinataire n’aura à subir aucun coût spécifique pour lire le fichier. Si dès lors la
transmission des fichiers sous un format standardisé présente une valeur économique,
l’auteur sera prêt à payer pour un logiciel qui génère les fichiers au format PDF.
Nous voyons au travers de ces quelques exemples poindre une seconde logique
économique pour expliquer le "gratuit". Sur des marchés multi-faces, la logique du
gratuit correspond “simplement” à une structure tarifaire très asymétrique mise en place
pour exploiter au mieux des externalités de réseau croisées. La gratuité constitue un
formidable moyen d’enclencher ces effets de réseaux: du point de vue des utilisateurs
qui en bénéficient les freins qui subsistent à l’affiliation à une plate-forme donnée sont
réduits à leur plus simple expression de sorte que, pour peu que le produit proposé sur la
plate-forme soit attrayant (même faiblement), la présence de ce côté-là du marché est
assurée. Ainsi, le système de tarification asymétrique mis en place en téléphonie mobile,
où seul l’appelant paye la communication, a été un moteur très puissant pour favoriser le
développement du marché lui-même.10
Des logiques très comparables sont à l’oeuvre en ce qui concerne les moteurs de
recherche ou les sites de socialisation du Web 2.0. Ceux-ci constituent en effet un cas
particulier de marchés multi-faces. A la base, en quoi consiste un moteur de recherche?
Une interface Web sur laquelle des utilisateurs en quête d’informations se connectent
pour rechercher l’information. Ces utilisateurs constituent une première face du marché.
De l’autre côté nous trouvons un ensemble d’agents qui publient de l’information sur le
Web, et qui souhaitent que cette information soit “vue”.11 Le moteur de recherche assure
l’intermédiation entre ces deux faces d’une part en triant l’information brute publiée par
les “auteurs” et d'autre part en la restituant sous forme organisée aux “lecteurs” en
fonction de leurs requêtes. A la base, rien n’oblige évidemment le propriétaire du site à
proposer un accès gratuit à l’un, l’autre ou les deux côtés du marché. Or, dans le cas de
Google, “tout est gratuit”! Google allant par ailleurs bien au-delà du simple tri
10 Il est en effet parfois utile de rappeler que la prise en charge intégrale de la communication par l'appelant n'est en rien liée à une contrainte technique ou une quelconque disposition réglementaire. Il s'agit d'un choix de tarification, parmi d'autres possibles. 11 Bien entendu, un seul individu peut combiner les deux usages et donc, selon les circonstances, se situer d'un côté du marché ou de l'autre.
Google et le Web 2.0: logique économique et régulation
17
d’informations via le développement de moteurs thématiques tels que Google News,
GoogleMap, ainsi que de logiciels de bureautique tels que GoogleDocs.
Les produits proposés par Google sont caractérisés par une consommation non-rivale. Ce
qui n’a rien d’étonnant puisqu’il s’agit essentiellement d’information, c’est-à-dire de
contenus. S’agit-il de biens publics? Au sens strict non! Pour peu qu’il s’en donne la
peine, Google pourrait très bien envisager de tarifer l’accès à ces services. Par contre, le
choix d’une “tarification” gratuite conduit à ce que les services proposés soient non-
excluables. Par construction, les produits Google sont dès lors devenus des biens publics.
Comment sont-ils financés? Par la vente simultanée d’un bien privé: l’accès à l’audience.
Nous retrouvons donc ici la logique d’appropriation des valeurs du modèle de medias
gratuits classique. Les annonceurs constituent donc une troisième face du marché, pour
qui l’accès à la plate-forme n’est, évidemment, pas gratuit.12
Sur le plan économique, les différents modèles du monde Web 2.0 ne proposent pas
autre chose. Il est d’ailleurs intéressant de noter que selon les cas, la gratuité pour les
utilisateurs est ou n’est pas de mise. Ainsi, l’accès à FaceBook, son utilisation intensive
ou pas sont totalement gratuites pour les individus, le modèle de rentabilité semblant
exclusivement reposer sur les revenus publicitaires. A contrario, SecondLife requiert de
ses utilisateurs intensifs une mise de fonds non virtuelle, dès lors qu’ils veulent
contribuer à construire le monde virtuel de SecondLife. e-Bay quant à lui obéit à un
modèle dans lequel les deux versants du marché contribuent au financement du produit.
Tout ceci nous amène à conclure que sur le plan économique, les logiques industrielles à
l’oeuvre dans l’industrie des moteurs de recherche ou du Web 2.0 ne sont pas
fondamentalement différentes de celles qui ont pu avoir cours dans l’industrie des medias
classiques, tels que la télévision ou la presse écrite. Vue sous cet angle, la gratuité
apparaît nettement moins miraculeuse. Dès lors, pour reprendre l’expression, un peu
facile, de Denis Olivennes si "la Gratuité, c'est le vol!", il reste à préciser qui est volé
dans l'histoire, et pourquoi. Car en fin de compte, tout n'est pas gratuit. Du point de vue
d'un opérateur de plateforme à multiples versants, la gratuité est un mode de tarification
parfaitement rationnel, ni plus ni moins.
12 Notons que nous n’entrons pas à ce stade dans toutes les subtilités liées à l’application du concept de marchés multi-faces aux évolutions d’Internet. L’ensemble du réseau, avec toutes les composantes hardware et software, ainsi que les industries de contenus qui y sont liées peuvent être vues comme constituant un vaste marché réellement multi-faces. On observe une convergence d’intérêts fondamentale: le développement du trafic numérique. C’est en effet lui qui est la source de complémentarité, et donc des valeurs ajoutées potentielles majeure. On y observe aussi une divergence fondamentale quant au partage de ces valeurs ajoutées, notamment entre fournisseurs de contenus, gestionnaires de plates-formes et opérateurs de réseau.
Google et le Web 2.0: logique économique et régulation
18
III.d Réseaux numériques, contenus et versionage
Faut-il dès lors considérer que ces nouveaux produits du Web ne présentent aucune
spécificité? Probablement pas, car si nous avons pu expliquer assez simplement la
logique du “gratuit” en recourant aux marchés multi-faces, il nous reste à expliquer le
caractère apparemment démesuré des valorisations boursières associées à ces produits,
réellement émergents dans le cas de Facebook, ou plus ou moins stabilisé dans le cas de
Google. La question est simple: comment expliquer la valeur économique attribuée à ces
plateformes ? Sur la base de la section précédente, il devrait être clair que si FaceBook a
été valorisé à hauteur de 15 milliards de dollars par Microsoft, c’est que ce dernier
considère avec bienveillance le modèle de rentabilité de FaceBook. A quoi correspondent
réellement les 35 milliards de dollars qui constituent la fortune, en actions, des
inventeurs de Google? Ces valorisations apparaissent encore plus paradoxales lorsque
l’on prend en compte les problèmes juridiques que posent la plupart des ces sites
notamment dans le domaine de la protection de la vie privée et de la propriété
intellectuelle. Pour l’essentiel en effet, les sites Web en question contribuent à faire
circuler des contenus, voire se nourrissent littéralement de ces contenus, dont certains,
voire la majorité, sont protégés par le droit d’auteur.13
Une caractéristique tout à fait centrale aux produits du Web 2.0 peut contribuer à
expliquer leur valeur supposée, dans un modèle où la rentabilité économique provient
principalement de la vente du bien privé que constitue l’accès à l’audience. Comme nous
l’avons mentionné dans la section précédente, en matière de contenus, la notion de
versionage revêt une importance capitale. Ce concept de versionage correspond à l’idée
de calibrer, d’affiner le contenu, en fonction des caractéristiques personnelles du
destinataire. D’une manière générale, le versionage est essentiel à la mise en oeuvre
d’une discrimination par les prix. En matière de biens de contenu la composante de
versionage est particulièrement importante dans la mesure où chaque utilisateur
potentiel pourra n’être intéressé que par une partie seulement d’un contenu global.
Prenons le cas d’un quotidien. Pour certains lecteurs, seules les pages d’information
régionales éveillent leur intérêt alors que pour d’autres ce sont les sports qui comptent,
ou encore les nouvelles financières. Un quotidien généraliste offre une forme de
compromis en globalisant l’ensemble de ces informations sur un seul support. Un
versionage de ce contenu global selon les caractéristiques spécifiques des individus
pourrait permettre au producteur d’augmenter les profits qu’il réalise en vendant ces
informations. D’une manière générale, la valeur d’une information, d’un contenu pour un
13 Pour rappel, nous n’entrerons pas dans le cadre de ce chapitre sur les différents problèmes juridiques posés par l’essor du Web 2.0.
Google et le Web 2.0: logique économique et régulation
19
utilisateur est d’autant plus grande qu’il ou elle est calibrée sur ses besoins. Encore faut-
il pour cela qu’il puisse discerner ex ante à quel type de lecteur il a affaire et/ou qu’il
puisse facilement, c-à-d. à un coût faible, décliner son produit de base en fonction de ses
caractéristiques. Plus généralement, en matière de publicité, l’impact individuel d’un
message donné sera d’autant plus grand qu’il s’adresse et est conçu en fonction des
préférences spécifiques de l’individu qui va le recevoir.
Dans ce domaine, presque par définition, un moteur de recherche constitue une sorte
d’arme absolue. En effet, à travers les requêtes qu’il exprime, l’utilisateur du moteur de
recherche exprime, au moins partiellement, ses préférences, révèle des centres d’intérêt
qui permettent dès lors de le ranger dans certaines catégories de consommateurs et
donc de mieux cibler d’éventuels messages publicitaires. A la valeur ajoutée pour
l’utilisateur final que constitue la restitution par Google d’une information triée sur la
base de requêtes correspond, pour l’annonceur, une valeur ajoutée résultant du ciblage,
du profilage des paires d’yeux rivées devant leurs écrans.
Comme évoqué plus haut, la logique de base d’un marché multi-face repose sur des
externalités croisées positives liées au nombre de participants des différents côtés du
marché. Dans le contexte des moteurs de recherche, une logique qualitative vient
s’ajouter à la logique quantitative. Non seulement les utilisateurs sont très nombreux,
mais en plus ils sont très ciblés, très profilés, tant en ce qui concernent les surfeurs qui
consultent le moteur de recherches que les éditeurs de site qui les alimentent.
L’extension des offres Google en direction des services annexes renforce encore un peu
plus le phénomène. Les sites de socialisation quant à eux sont également à même de
réaliser un profilage comparable, puisque leur fonctionnement repose sur les affinités
déclarées des participants, qui d’une certaine manière se regroupent eux-mêmes en
groupes cibles.
Cerise sur la gâteau: ce sont donc les utilisateurs eux-mêmes qui fournissent
l’information qu'il restera à structurer dans les bases de données. On peut d’ailleurs
considérer que c’est, de facto, le prix qu’ils payent pour bénéficier des produits en
question “gratuitement”. L’information qu’ils donnent gratuitement aux moteurs de
recherche et autres sites sociaux est une information à haute valeur ajoutée pour ceux
qui savent la traiter et la vendre. Les opérateurs commerciaux sont prêts à payer pour
obtenir ces informations, et d’un point de vue économique c’est exactement ce qu’ils font
en proposant gratuitement à la consommation un service coûteux à produire. Sachant
que le modèle de rentabilité des produits commerciaux du Web 2.0 et des moteurs de
recherche de type Google repose sur un modèle publicitaire, on mesure immédiatement
Google et le Web 2.0: logique économique et régulation
20
la valeur que peut avoir une machine à accéder à et à cibler l’audience aussi puissante
que celle matérialisée par les gigantesques bases de données “utilisateurs” stockées par
Google, FaceBook et consorts.
En résumé, des produits tels que Google ne sont, pour les annonceurs potentiels, rien de
plus que des boîtes à audience ayant pour particularité d’établir un contact quasiment
personnalisé, individualisé entre eux et les utilisateurs, grâce aux contributions des
utilisateurs eux-mêmes. Le processus n’est pas nouveau mais, outre le caractère
potentiellement très précis du profilage, les sites en question se caractérisent également
par l’étendue de leur couverture. Ils constituent en effet des plateformes d’intermédiation
tout à la fois très locales et complètement globales. Elles sont en effet à même de cibler
des groupes très concentrés sur le plan géographique, par exemple autour d’une localité,
ou d’un quartier et de fournir par là un accès à une audience locale pour des annonceurs
locaux et dans le même temps de couvrir l’ensemble de la planète pour cibler un groupe
défini par, disons, le goût commun des figurines “Star Trek”. D’une certaine manière, les
sites du Web 2.0 sont en train de réaliser le fantasme absolu de tous les annonceurs:
disposer d’une base de données individuelles globale et d’un accès sélectif et multicritère
vers le public. Tout cela mérite bien un peu de gratuité!
Qu'il s'agisse de Google, acteur dominant du segment des moteurs de recherche ou
d'autres sites du Web 2.0, ces acteurs sont devenus des maillons essentiels des
systèmes d'information opérant sur le réseau Internet. Au même titre que les
fournisseurs d'accès, qui contrôlent l'accès physique à l'information en contrôlant le
support, les opérateurs Web contrôlent également l'accès utile à l'information en la
filtrant et la traitant. Ils occupent une place centrale dans la création de valeur ajoutée
liée à la consommation des produits de contenu. Précisément par leur capacité à traiter
l'information de manière utile pour les utilisateurs finaux, en leur en assurant un accès
rapide et peu coûteux.14 Leur valeur ajoutée est d'autant plus grande que le volume
d'informations à traiter est important (parce que l'importance du tri s'en trouve accrue),
ce qui est d'autant plus probable que l'information est bien triée. Dans le même temps,
ces opérateurs Web créent eux-mêmes, avec l'aide de leurs utilisateurs, du contenu à
forte valeur ajoutée: une base de données "utilisateurs" d'autant plus précises que la
capacité de tri est puissante (et que dès lors les utilisateurs sont incités à livrer beaucoup
d'information). Et bien évidemment, les Google et autres contrôlent fermement l'accès à
cette base de données que constitue cette audience ciblée sur laquelle repose toute la
stratégie commerciale des opérateurs. Dans ce cadre, la "gratuité" offerte aux
consommateurs finaux ne constitue rien d'autre qu'un moyen extrêmement classique
14 Ce faisant, ils entrent évidemment en concurrence avec les diffuseurs traditionnels de contenu.
Google et le Web 2.0: logique économique et régulation
21
d'augmenter la valeur des bases de données dont on pourra dès lors tarifer plus
chèrement l'accès.
IV. QUESTIONS DE REGULATION
A ce stade nous serions donc tentés de conclure à l’absence de nouveauté radicale dans
le chef de Google et des autres sites Web 2.0 , sous l’angle strictement économique du
moins. Il se dégage de ce qui précède une impression de déjà vu. Le “business model”
est somme toute très classique: proposer gratuitement un bien non-rival, et de ce fait le
transformer en bien public, pour créer de manière complémentaire un bien privé.15 Seuls
la dimension du phénomène, son caractère presque universel et la finesse du versionage
qu’il permet d'obtenir seraient réellement inhabituels.16 De ce point de vue, il n’est a
priori pas clair que les développements récents appellent de nouvelles analyses sur le
plan de la régulation industrielle.17 Sur le plan méthodologique, il faut néanmoins
reconnaître que le caractère multi-face des sites Web 2.0 et, surtout, des moteurs de
recherche peut obliger à revisiter certaines conclusions trop rapides.
Notons tout d'abord que pour magnifier les effets de réseaux croisés qui sont au centre
de la logique économique organisant le monde du Web 2.0, tous les contenus sont bons
à faire circuler! Qu'il s'agisse de contenus libres ou "protégés". Des opérateurs tels que
Google ou YouTube sont les alliés objectifs des consommateurs s'il s'agit de favoriser la
circulation "libre" de tous les contenus. Le monde numérique ouvre des possibilités
nouvelles de diffusion de contenus et de contournement des filières classiques s'appuyant
sur la propriété intellectuelle. Tous ceux qui tirent profit d'une circulation d'informations
accrues sur le Web en bénéficient directement, au moins à court terme. L'émergence du
Web 2.0 redistribue donc considérablement les pouvoirs au sein de la chaîne de valeur
des contenus et met à mal l'industrie classique de la production et de la diffusion de ces
contenus. Cette réalité appelle-t-elle de nouvelles formes de régulation, ou des
15 Il est d’ailleurs assez amusant de constater qu’il s’agit ici du processus exactement opposé à celui à l’oeuvre en matière de droit d’auteur. Dans ce cas en effet, il s’agit d’un bien par nature public, que l'on transforme en bien privé, ou à tout le moins dont on ôte le caractère non-excuable, par des dispositions légales. Il n’est guère étonnant dès lors que sur le terrain du Web 2.0, les acteurs traditionnels de la propriété intellectuelle soient omniprésents, et peinent à s’inscrire dans cette logique de plate-forme. 16 Le lecteur intéressé par une réflexion critique sur la nouveauté du business model de Google pourra se reporter utilement à l'article de Nicholas G. Carr, " The Google enigma",e-news, Strategy+Business, 49, 01/31/08 17 Il va sans dire que les développements en question posent de nouvelles et importantes questions sur le plan du droit des marques par exemple, ou de la vie privée par exemple. Dans cette contribution, nous nous concentrons néanmoins sur les questions de régulation relatives à la concurrence au sens large.
Google et le Web 2.0: logique économique et régulation
22
adaptations majeures de l'arsenal dont peuvent faire usage les ayants droits dans le
domaine de la propriété intellectuelle? Il nous semble que rien ne l'impose de manière
évidente. Redistribuer les pouvoirs dans une industrie remet par définition en cause
certaines situations acquises, élimine certaines formes de rentes, c'est un fait! Mais cela
n'implique pas qu'il faille freiner les évolutions en question. Il ne fait aucun doute que le
piratage sur Internet nuit à l'industrie du disque; il est par contre nettement moins clair
que cela nuit à la création artistique. Il y aura des pertes d'emplois dans l'industrie du
disque, c'est certain! Mais pourquoi ces emplois seraient-ils nécessairement préférables à
ceux qui pourront se développer dans l'industrie du Web 2.0?18
Des questions de régulation se posent néanmoins. En particulier, les nouveaux modes de
diffusion numérique des produits de contenu appellent sans doute la mise en place de
nouveaux instruments, de contraintes additionnelles si l'on veut garantir un exercice
effectif du droit de propriété intellectuelle, au sens traditionnel.19 Nous nous
concentrerons ici sur les questions de concurrence que peut poser le développement
tentaculaire d'un produit tel que Google et plus généralement l'émergence des positions
très dominantes qui caractérise la structure des marchés du Web 2.0.
Afin de gagner encore en trafic, Google a développé ces dernières années un ensemble
impressionnant de produits dérivés qui soit s'inspirent du moteur généraliste en le
"dédiant" à un projet, ou un objet particulier (ainsi en va-t-il des projets tels que
GoogleScholar ou GoogleLibrary et autres Google News) soit s'inspirent des concepts
issus du Web 2.0 (comme par exemple dans certaines fonctions partageables de
GoogleMap) soit enfin proposent purement et simplement aux surfeurs de créer un
véritable bureau (dont le contenu peut évidemment être partagé) sur le Web afin de les
débarrasser encore un peu plus des contingences matérielles liées au transport d'un
ordinateur portable. Google apparaît dès lors comme un concurrent pour un nombre
croissant d'industries dont il détourne éventuellement les usages ou, à tout le moins,
change les habitudes. Le recours systématique à la gratuité pourrait à ce titre être perçu
comme une forme de concurrence déloyale. Du dumping en fait, dans la mesure où la
18 Le rapport "Olivennes" en France est particulièrement édifiant sur ce point. On peut par exemple y lire que " la généralisation du gratuit illégal a un coût collectif pour les industries culturelles, pour les créateurs et pour la nation." Même en négligeant le fait que cette affirmation n'est supportée par aucune donnée chiffrée, même stylisée, on percevra aisément le caractère assez léger du propos: qu'il y ait bien un coût collectif pour l'industrie est plus que probable, cependant, le coût pour les créateurs, en tant que collectivité est moins immédiat et évidemment, au niveau de la Nation la démonstration d'un coût net reste intégralement à faire. Affirmer que "(la) consommation illégale est aujourd'hui une source de destruction de valeur" est pour le moins prématuré, si l'on met en balance les effets positifs à la fois pour les utilisateurs et les agents économiques du Web en plus des effets négatifs sur les opérateurs classiques et les créateurs. 19 On pourra à nouveau se reporter au rapport "Olivennes" pour voir exposés quelques moyens techniquement accessibles pour endiguer le piratage des oeuvres culturelles.
Google et le Web 2.0: logique économique et régulation
23
mise à disposition gratuite systématique, c-à-d. au-delà du simple échantillonnage
publicitaire, pourrait être assimilé à une vente à perte. Deux problèmes peuvent dès lors
être identifiés. D'une part la gratuité pratiquée par Google pourrait être considérée
comme une forme de distorsion de concurrence sur les marchés qu'il entend pénétrer. Si
nous nous plaçons par exemple du point de vue de Microsoft, que penser de la stratégie
"Google" consistant à offrir aux affiliés GoogleAccounts une suite bureautique
raisonnablement performante en échange de quelques données personnelles? Faut-il y
voir une tentative de préemption sur le marché des suites bureautiques? D'autre part, la
gratuité proposée par Google dans un aussi grand nombre de directions n'est-elle pas de
nature à imposer durablement une structure de monopole sur l'utilisation du réseau
Internet lui-même? Google devenant "le" passage obligé pour l'accès aux contenus
numériques, y aurait-il dès lors un risque important de voir se développer de manière
durable une structure de marché extrêmement peu concurrentielle dans les secteurs
d'activité concernés?
Rappelons tout d'abord que dans les marchés caractérisés par des externalités de réseau
positives20, la structure de marché efficace sur le plan économique est souvent le
monopole. Celui-ci, en concentrant autour de lui toute l'activité du marché, génère par
définition les effets de réseau les plus larges et par conséquent les externalités les plus
fortes. Les positions dominantes dans ce type d'industrie sont donc souhaitables sur le
plan de l'efficacité. La "seule" question qui se pose est de savoir si les opérateurs
dominants tirent un profit "anormal" de leur position dominante. En particulier ces
opérateurs érigent-ils des barrières à l'entrée?
Pour répondre à cette question, la première difficulté est d'identifier correctement les
marchés sur lesquels se poseraient les problèmes de concurrence. Par définition en effet,
une plate-forme multi-face, c-à-d. caractérisée par des effets de réseau croisés, opère
simultanément sur plusieurs versants à la fois. Il pourrait dès lors être tentant de
considérer chaque marché séparément, puisque sur chaque marché on observe de la part
de l'opérateur une (ou des) forme(s) particulière(s) de tarification. Comment identifier,
mesurer la présence d'un pouvoir de marché? Comment déceler concrètement les
comportements anti-concurrentiels?
Les analyses économiques récentes nous livrent quelques enseignements simples.
Premier constat: sur un marché à multiple versants, le fait d'observer sur un versant
20 Pour rappel, on parle d’externalités de réseau positives lorsque le nombre d’utilisateurs effectifs d’un produit donné contribue directement à l’augmentation de la valeur économique du produit en question.
Google et le Web 2.0: logique économique et régulation
24
donné une tarification a priori trop basse, typiquement une tarification en dessous du
coût marginal ne constitue pas en soi l'indication d'une pratique prédative. En présence
d'effets de réseaux croisés, il peut être parfaitement logique pour une plateforme en
monopole, que celle-ci maximise son profit ou le surplus total, de pratiquer une
tarification sous le coût marginal d'un côté du marché. Une tarification particulièrement
avantageuse sur les côtés du marché dont l'élasticité est la plus forte et/ou dont les
effets d'attraction sur les autres côtés du marché sont particulièrement forts constitue
simplement une manière naturelle d'internaliser les externalités de réseau en rendant
l'accès à la plate-forme d'autant plus intéressant à d'autre versants du marché, moins
élastiques, et auquel on chargera des prix relativement élevés. Et à coup sûr largement
supérieurs au coût marginal correspondant de ce côté du marché. Si l'on souhaite
appliquer à l'évaluation d'un pouvoir de marché les tests standard basés sur le taux de
mark-up, il est d'ailleurs nécessaire de redéfinir la mesure même du mark-up. Sur le
plan conceptuel, la valeur pour la plate-forme d'un affilié supplémentaire d'un côté du
marché est définie comme la prix chargé à cet affilié augmenté du prix additionnel qu'il
est possible de charger de l'autre côté du marché, suite à cette présence additionnelle.
En considérant un réseau social tel que Facebook par exemple, on peut montrer que la
structure de tarification optimale obéira à une règle simple: (a-[c-v])/a=1/e; où a, c,v et
e désignent respectivement le prix d'accès pour les utilisateurs, le coût marginal de
fourniture du service pour ces utilisateurs, la valeur d'un contact publicitaire pour
l'annonceur, et l'élasticité de la demande des utilisateurs. L'intuition centrale que résume
cette formule est la suivante: pour déterminer la tarification appliquée aux utilisateurs, je
vais considérer que le coût marginal doit être corrigé par la valeur qu'une augmentation
marginale d'utilisateurs représente pour la transaction que je réalise par ailleurs avec
l'annonceur. Pour peu que cette dernière soit suffisamment importante, relativement au
coût marginal, je trouverai optimal de subsidier l'accès des utilisateurs. Si donc l'on
garde à l'esprit que sur un marché multi-face, la variable pertinente est la structure de
prix à travers les différents versants de la plate-forme, on est amené à conclure
qu'observer des marges anormalement faibles sur certains versants n'est tout
simplement pas indicatif de quoi que ce soit sur le plan de l'intensité de la concurrence.
On pourrait de même être tenté d'argumenter sur la base d'une pratique de subsidiation
croisée: afin d'asseoir une position dominante sur certains segments de marché, la firme
pratiquerait des prix anormalement bas, tout en récupérant le manque à gagner sur
d'autres segments. Les prix élevés pratiqués ici subsidient les utilisateurs bénéficiant là-
bas de prix trop bas. Le problème que pose ce type d'argument est qu'en principe, la
suppression d'une structure tarifaire discriminante doit bénéficier aux utilisateurs qui se
voyaient charger initialement les prix trop élevés. Supposons par exemple que FaceBook
Google et le Web 2.0: logique économique et régulation
25
décide d'augmenter ses tarifs utilisateurs pour diminuer ses tarifs publicitaires, mettant
dès lors "fin" à une subsidiation croisée. Rien n'indique que les annonceurs seraient
particulièrement heureux de ce changement dans la mesure où des tarifs utilisateurs plus
élevés auront comme conséquence une fréquentation moindre et donc une audience
moindre. A terme, il est vraisemblable que la suppression de la structure apparemment
discriminante détériore la situation des annonceurs parce qu'elle aurait pour effet de
limiter les externalités de réseau. Si tel est le cas, il ne pouvait s'agir, à la base, de
subsidiation croisée.
Afin d'approcher correctement les questions de concurrence que pose l'émergence d'un
acteur aussi dominant que Google, recentrons l'analyse sur le modèle de rentabilité de
Google. Son marché de destination, c-à-d. le marché sur lequel il génère ses bénéfices,
est celui de la publicité en ligne.21 C'est donc par rapport à celui-ci qu'il convient
d'évaluer l'impact des stratégies mises en oeuvre par Google. Quelle est la pertinence
des outils traditionnellement dévolus à l'analyse antitrust dans le contexte des marchés
multi-faces? La nécessité pour la plateforme d'internaliser les externalités croisées oblige
à considérer avec prudence les observations de marges réalisées isolément sur une face
du marché. A défaut de la faire, le risque est grand d'arriver à des conclusions
erronées.22 A y regarder de plus près, les "paires d'yeux" ("eyeballs") que Google capture
via son moteur de recherche, l'attention active que suscitent les sites du Web 2.0 ne sont
rien d'autres que les inputs, des facteurs de production, au sein du business model. Ils
construisent littéralement l'audience dont l'accès sera vendu aux annonceurs. Quoi de
plus naturel dès lors que ces paires d'yeux soient rémunérées sous la forme de services
offerts. C'est le contraire qui serait anormal!
Si l'on accepte la vision d'un Google "achetant des inputs" via la distribution de services
gratuits, les rachats récents par Google de réseaux sociaux tels que YouTube peuvent
poser problème sous l'angle de la concurrence. Jusqu'à quel point l'omniprésence de
Google sur Internet en général ne s'apparente-t-elle pas à une stratégie d'intégration
verticale dont les conséquences pourraient être une restriction de la concurrence sur le
marché de la publicité. Même si les effets anti-concurrentiels des intégrations verticales
fait encore l'objet de nombreux débats entre économistes,23 cette piste mériterait
certainement d'être explorée plus systématiquement.
21 Des estimations récentes montrent que Google réalisent 99% de son chiffre d'affaires via les recettes publicitaires. 22 On se reportera à ce sujet à l'article Julian Wright, " One-sided logic in two-sided markets", Review of Network Economics, 3-1, pp. 44-64. 23 Une référence importante à ce sujet est Motta M. "Competition Policy: Theory and Practice" Cambridge University Press 2004.
Google et le Web 2.0: logique économique et régulation
26
En toute hypothèse, partant de l'idée que les clients des sites du Web 2.0 et des moteurs
de recherche sont les annonceurs et en n'oubliant pas que l'intensité de la concurrence
doit être évaluée dans le contexte de marchés multi-faces, la mesure d'une position
dominante dans le marché de la publicité en ligne reste encore problématique pour au
moins deux raisons :
- Quel est le marché de référence? La publicité en ligne au niveau global, la publicité en
ligne sur les pages affichant des résultats de moteur de recherche uniquement? Quelle
est la dimension géographique du marché?
- Comment considérer enfin que les prix chargés aux annonceurs par les plateformes
sont trop élevés, alors même que le niveau de ces prix est en fait déterminé par les
annonceurs eux-mêmes via des mécanismes d'enchères? Sans entrer dans les détails
techniques24, il est facile de montrer que les spécificités des mécanismes d'enchères
utilisés par Google conduisent à ce que les revenus tirés de la publicité soient
directement corrélés avec la concurrence que Google parvient à susciter pour les
espaces disponibles. Sa meilleure arme pour y arriver est, à nouveau, de susciter les
externalités de réseau à la fois les plus importantes en volume et les plus fines en
terme de ciblage.
Dans cette perspective la question vraiment essentielle est alors de savoir si pour
obtenir, et surtout maintenir durablement, une position dominante sur le segment
utilisateur, qui dans un marché multi-face garantit la position dominante sur le marché
des annonceurs, les pratiques mises en oeuvre par les opérateurs de plate-forme, et
singulièrement Google, sont abusives. Ou si elles résultent principalement d'une plus
grande efficacité? Rien n'indique en tout cas que ces opérateurs mettent en place des
stratégies conduisant à "verrouiller" de manière indue les utilisateurs.
V. CONCLUSION
Le déploiement de la nébuleuse Google ainsi que l’essor des réseaux sociaux du Web 2.0
s’inscrit pleinement dans la logique économique propre aux biens d’information. Pour
l’essentiel en effet, les informations véhiculées sur Internet via des produits tels que
Google, FaceBook ou mySpace sont proposées comme autant de biens publics25 à une
audience dont l’accès constitue, elle, un bien privé que l’on cherche à vendre aux
annonceurs. Sur le plan conceptuel, il ne s’agit donc pas d’un phénomène
24 Le lecteur intéressé se reportera utilement à H. Varian "The Economics of Internet Search", Rivista di politica economica, 11-12, 2006, pp. 177-191. 25 A supposer que les contenus en question soient effectivement libres de droit.
Google et le Web 2.0: logique économique et régulation
27
économiquement nouveau mais bien d’un modèle de rentabilité déjà largement éprouvé
dans la presse écrite ou les médias Tv et radio.
La numérisation de ces informations conduit néanmoins à quelques spécifités. Le réseau
Internet tend à véhiculer de manière presqu’indifférenciée un ensemble de contenus
(musique, video, son, voix, écrits,...) qui auparavant étaient diffusés par des medias
spécifiques. La convergence numérique place au coeur du modèle de nouveaux
opérateurs qui agrègent et redirigent tous ces contenus. A ce titre, ces opérateurs
s’apparentent à des plateformes multi-faces dont la régulation économique peut s’avérer
plus complexe que celle prévalant dans les modèles traditionnels. La logique du gratuit
apparaît dans ce contexte presque naturelle. Ensuite, le ciblage extrême des utilisateurs,
qui est non seulement permis mais même suscité par les réseaux sociaux, conduit à
renforcer encore la puissance des effets de réseaux, et par conséquent génère presque
naturellement des positions dominantes qui est difficile de contrôler ex ante. Et ce
d’autant plus que les marchés sur lesquels opérent ces plate-formes sont à la fois locaux
et globaux.
top related