ms marketing management 2013 2014 intelligence économique -comment la france a-t-elle raté...
DESCRIPTION
TRANSCRIPT
MS Marketing Management 2013-2013
1
Comment la France a-t-elle raté l’enjeu du « Big Data » ?
15 décembre 2013
Auteurs : Frédéric Decazy Emilie Freulon Younes Khedji Anne Letellier Emmanuel Revol
MS Marketing Management 2013-2013
2
EXECUTIVE SUMMARY
Le « Big Data » est un sujet tendance dont tout le monde parle. On ne compte plus les congrès,
séminaires, et autres réunions professionnelles qui lui ont été consacrés en 2013. Cette expression
désigne l’avalanche de données produites par les entreprises et les particuliers dans leur vie digitale :
du e-commerce aux multiples interactions sur les réseaux sociaux jusqu’aux objets connectés qui
capturent des données et les transmettent sur le web. Selon IBM, 90% des données stockées dans le
monde ont été produites au cours des seules deux dernières années.
Longtemps demeuré un sujet réservé aux professionnels avertis, le « Big Data » est arrivé avec fracas
sur la place publique à l’été 2013 au gré des révélations de l’affaire Snowden. Le raccourci était alors
rapidement établi dans l’esprit du grand public entre « Big Data » et « Big Brother », personnifié par
« l’ami américain » si curieux des données échangées sur les réseaux. Derrière les polémiques sur le
viol de données personnelles au motif d’une cybersécurité rendue indispensable par les menaces
pesant sur la nation américaine, on a vu rapidement apparaître l’avantage compétitif déterminant que
peut représenter cette pratique dans une autre guerre, économique cette fois-ci. Il est incontestable
que le « Big Data » est une source considérable de création de richesse, que ce soit pour
l’amélioration de bon nombre de processus et de services existants dans les entreprises, ou pour
l’émergence de nouveaux business models prometteurs. L’essor du « Big Data » cristallise la
puissance de quelques grandes entreprises, américaines tout particulièrement, venant rivaliser avec
les États sur certains de leurs domaines réservés (éducation, fiscalité…).
La France qui peinait à rattraper son retard sur les Etats-Unis en termes d’industrie informatique et
de bases de données dans les années 60 et 80 ; qui abordait les autoroutes de l’information dans les
années 80 et 90 par les usages qu’elles allaient permettre, tandis que les Américains s’intéressaient à
la compréhension et à l’utilisation des informations qu’elles allaient transmettre, cette France s’est
vue distancée de façon spectaculaire par les « GAFA » (Google, Amazon, Facebook, Apple et autres
Twitter) pour la récolte et la valorisation des données produites par les utilisateurs.
La France a-t-elle raté l’enjeu du « Big Data" ? Certainement si l’on considère la puissance des
« GAFA ». Certainement également si l’on considère la capacité des Etats-Unis à valoriser au plan
économique leurs gigantesques investissements en matière de cybersécurité. Pour autant, la valeur
du « Big Data » c’est aussi la capacité à valoriser les données et surtout à leurs donner du sens. La
France l’a, enfin !, bien compris et peut s’appuyer sur un réseau d’ingénieurs et d’entrepreneurs de
talents pour envisager de devenir la nation des start-up numériques en Europe à condition que soient
adressées énergiquement les problématiques de financement des jeunes entreprises, de fiscalité,
d’attractivité de la marque « France » et que les initiatives des pouvoirs publics aient de la persistance
au-delà des alternances politiques.
MS Marketing Management 2013-2013
3
EXECUTIVE SUMMARY
"Big Data" is a trendy subject that everyone is talking about. There are countless conferences,
seminars and other professional meetings which have been dedicated to it in 2013. This expression
refers to the avalanche of data produced by companies and individuals in their digital life: to the e-
commerce which multiple interactions on the social networks up to the connected objects which
capture data and transmit them on the Web. According to IBM, 90 % of the stored data in the world
were produced in the last two years.
For a long time remained a subject reserved for the informed professionals, "Big Data" has arrived
with crash in public in summer 2013 according to the revelations of the Snowden case. The shortcut
was quickly established in the public mind between "Big Data " and "Big Brother ", personified by
“the American friend” so curious about data exchanged over networks. Behind the debate on the rape
of personal data on the grounds that cybersecurity made essential by the threats pressing on the
American nation, we quickly saw appearing the decisive competitive advantage that can represent
this practice in another war, economic this time. It is indisputable that "Big Data" is a considerable
source of value creation, whether for the improvement of numbers of processes and existing services
in companies, or for the emergence of new promising business models. The rise of "Big Data"
crystallizes the power of a few major companies, especially American, coming to compete with states
on some of their reserved domains (education, tax system…).
France which was struggling to catch up on the United States in terms of IT industry and databases in
the 60s and 80s; which addressed the superhighways information in the 80s and 90s by the uses that
they would allow, whereas the Americans were interested in understanding and using the information
they would convey, this France saw itself outstripped in a spectacular way by the "GAFA" (Google,
Amazon, Facebook, Apple and others Twitter) for collecting and increasing the value of the data
produced by users.
Has France missed the challenge of “Big Data”? Certainly if we consider the power of the "GAFA".
And also if we consider the capacity of the United States to value, economically, their huge
investments in cybersecurity. However, the value of "Big Data" it is also the capacity to value the data
and especially to give them meaning. Finally, France has understood this stake and can rely on a
network of engineers and talented entrepreneurs to intend to become the nation of the digital start-
ups in Europe provided that some major issues are solved like the financing of the young companies,
the tax system, the brand attractiveness of France and that the initiatives of public authorities have
persistence beyond political turns.
MS Marketing Management 2013-2013
4
Table des matières
Introduction ............................................................................................................. 4
1. Qu'est-ce que le « Big Data »? ..................................................................................... 7
1.1 D’où viennent les données ? ............................................................................................................................... 7
1.2 Qu’est ce qui caractérise le « Big Data»? .......................................................................................................... 8
1.3 Un processus similaire à la transformation du pétrole brut .............................................................................9
1.3.1 Génération, récolte et acheminement des données ................................................................................. 10
1.3.2 Stockage des données ................................................................................................................................. 11
1.3.3 Raffinage et traitement des données ......................................................................................................... 12
2. Le potentiel et les défis du « Big Data » .................................................................... 12
2.1 Un nouveau levier de compétitivité stratégique pour les entreprises ............................................................ 12
2.1. 1 Améliorer et diversifier les services .......................................................................................................... 13
2.1.2. Le « Big Data » marketing ........................................................................................................................ 15
2.1.3 De nouveaux enjeux de sécurité ............................................................................................................... 16
2.2 Une opportunité pour améliorer l’efficacité des Etats ........................................................................................ 17
2.3 L’enjeu de la cybersécurité et de la défense .................................................................................................... 19
2.4 De "Big data" à "Big Brother" ? ...................................................................................................................... 20
3. L'échec de l'ambition informatique de la France ................................................................. 21
3.1 Le système Mars: les prémices d’un “Big Data” à la française ? ................................................................... 22
3.1.1 La Copep .................................................................................................................................................... 22
3.1.2 Le système Mars ....................................................................................................................................... 24
3.1.3 Les forces opposées au système Mars : entreprises, administrations, Insee et pouvoirs politiques ....25
3.2 Le Plan calcul .................................................................................................................................................. 26
3.2.1 La genèse du plan calcul ........................................................................................................................... 26
3.2.2 L'échec de la tentative européenne .......................................................................................................... 27
3.2.3 L'après Plan Calcul .................................................................................................................................... 31
3.2.4 La vision américainne des autoroutes de l’information et de l’enjeu de puissance ............................. 32
3.3 Du Commissariat Général au Plan au Centre d'Analyse Stratégique .......................................................... 33
4. La France peut-elle devenir un pôle d’expertise du "Big Data" ? ......................................... 34
4.1 De nouvelles ambitions politiques en France et en Europe ......................................................................... 34
4.1.1 Les pôles de compétitivité, les investissements d'avenir et les appels à projets .................................. 36
4.1.2 Le Commissariat Général à la Stratégie et à la Prospective ................................................................... 36
4.1.3 Ouverture des marchés européens contre protectionnisme américain ................................................. 37
4.2 Des atouts non négligables ........................................................................................................................... 39
4.2.1 La qualité des ingénieurs français ........................................................................................................... 39
4.2.2 Le dynamisme des start-up françaises ................................................................................................... 40
MS Marketing Management 2013-2013
5
4.3 Comment faire de la France la nation des start-up numériques en Europe ? ............................................ 43
4.3.1 Favoriser le financement ......................................................................................................................... 43
4.3.2 Façonner un cadre juridique propre à l’innovation ..............................................................................45
4.3.3 La fiscalité 3.0 ......................................................................................................................................... 48
Conclusion ............................................................................................................................................................... 49
Remerciements ...................................................................................................................................................... 50
Bibliographie............................................................................................................................................................ 51
Glossaire des abréviations ................................................................................................................................... 53
Liste des tableaux et illustrations ......................................................................................................................54
MS Marketing Management 2013-2013
6
INTRODUCTION
Le « Big Data » est un sujet tendance dont tout le monde parle. On ne compte plus les congrès,
séminaires, et autres réunions professionnelles qui lui ont été consacrés en 2013.
Après avoir défini ce que recouvre le terme « Big Data », nous parcourrons un certain nombre
d’exemples pour montrer la fabuleuse création de valeur que cela représente, tant dans l’amélioration
considérable de processus et services existants dans les domaines marchands et non marchands, que
dans l’émergence de nouveaux services et business models prometteurs. Nous mettrons ainsi en
lumière les enjeux de puissance que recouvre « Big data ».
Après avoir fait le constat de la suprématie écrasante de quelques entreprises américaines, connues
sous l’acronyme « GAFA » (Google, Amazon, Facebook, Apple et autres Twitter), sur certains
maillons de la chaîne de valeur, nous ferons un détour par l’histoire de l’informatique en France au
cours de la deuxième moitié du 20ème siècle, puis nous tenterons de dater la prise de conscience, bien
récente, des enjeux du « Big Data » par les pouvoirs publics français. Enfin nous identifierons les
leviers d’actions qui pourraient permettre à la France de revenir dans la compétition, tout au moins,
sur certains domaines de la chaîne de valeur.
MS Marketing Management 2013-2013
7
1. Qu’est-ce que le « Big Data »
Les « Big Data »1, littéralement « les grosses données », est une expression anglophone utilisée pour
désigner des ensembles de données qui deviennent tellement volumineux qu'il est très difficile
d’arriver à travailler avec des outils classiques de gestion de base de données ou de gestion de
l'information.
L’unité de référence de la donnée numérique est le bit (byte), 8 bits correspondant à 1 octet. La figure
n°1 ci-dessous, extraite du magazine international du CNRS, permet d’apprécier les différents ordres
de grandeur des données numériques. Le CNRS estime l’univers digital mondial en 2012 autour de
2,7 zettabytes, l’estimation donnée pour 2020 est de l’ordre de 35 zettabytes. C’est une croissance
exponentielle avec un volume qui double chaque année. Selon IBM, près de 90% des données dans le
monde ont été créées au cours des deux dernières années2…Un véritable déluge de données incessant.
Fig n°1 : Echelle comparative de mesure des données numériques3
1.1 D’où viennent les données ?
La notion de « Big Data » fait référence à la donnée numérique que chacun d’entre nous produit tant
dans un cadre professionnel que personnel via l’utilisation d’internet, de systèmes RFID, de mobile
ou de machines connectées. Chaque jour, 2,5 trillions d'octets de données sont ainsi générés dans le
monde : les entreprises, les services publics, les citoyens sont tous créateurs/producteurs de données
numériques et les champs des applications sont vastes.
On peut citer de nombreux exemples : l’utilisation d’un smartphone, le recours au cloud à titre
personnel ou professionnel, l’utilisation des réseaux sociaux, la mise en ligne de vidéos et de photos
1 Brasseur C. (2013), Enjeux et usages du big data. Technologies, méthodes et mises en oeuvre, Paris, Lavoisier, p. 30. 2 http://www-01.ibm.com/software/data/bigdata/what-is-big-data.html 3 Schémas extrait du magazine trimestriel du CNRS Janvier 2013, BIG DATA REVOLUTION - p.22
MS Marketing Management 2013-2013
8
numériques. A chaque minute, en moyenne, 350 000 tweets et quinze millions de SMS sont envoyés
au niveau mondial. Twitter génère à l’heure actuelle 7 teraoctets de données chaque jour et Facebook
10 teraoctets. On peut également citer : l’activation du GPS ou d’applications faisant appel à
l’utilisation de solution GPS ou encore les données commerciales (au travers de l’historique des
transactions monétaires d’une entreprise). L’astronomie, la physique, la subatomique, la
climatologie, la génomique sont autant de domaines scientifiques qui génèrent de colossaux volumes
de données numériques. Les dossiers médicaux de chacun d’entre nous sont aujourd’hui numérisés
sans oublier l’ensemble données publiques (impôts, papiers d’identité,…). La liste semble infinie.
1.2 Qu’est ce qui caractérise le « Big Data » ?
La génération de données numériques existe déjà depuis plusieurs décennies, alors pourquoi les
données sont-elles désormais labellisées « Big Data » ? Qu’est ce qui caractérise spécifiquement
ces données ? La définition structurelle du Big Data trouve son origine dans un rapport de Meta
Group du 6 février 20014. Un ensemble de données numériques est considéré comme du « Big Data »
dès lors que 3 conditions, les « 3V », sont réunies :
- Le Volume : la masse de données est conséquente (de l’ordre du téra-, du péta-, voire de l’exa-
octet) ;
- La Variété : les données sont de natures très variées (photos, vidéos, logs, mails, tweets,…) ;
- La Vélocité : la vitesse de traitement des données est accélérée pouvant même aller jusqu’au temps
réel. Il est même possible de ne plus stocker les informations, mais de les analyser en
flux (streaming).
Fig n°2 : Les « 3V » du Big Data5
4 Meta Group Doug Laney (6 février 2001) Application Delivery Strategies File 949 5 Schéma extrait de l’étude du cabinet Gartner “Big Data' Is Only the Beginning of Extreme Information Management”, 07 April 2011
MS Marketing Management 2013-2013
9
Un quatrième « V » fait son apparition dans les débats relatifs au « Big Data » : « La Valeur ». 6
Selon Mouloud Dey, directeur des solutions émergentes chez SAS France7, l’enjeu actuel du
« Big Data », c’est le passage de la donnée brute à la donnée valorisée. Ce changement d’état renvoie
aux définitions statistiques des données. Toute variable contient une part d’information exploitable et
une part inexploitable appelée bruit. Toute variable est dite non structurée et le devient dès lors que
la part d’information est isolée. Le « Big Data », c’est donc aussi un ensemble de nouvelles
technologies et méthodes d’analyse qui permettent de traiter et transformer rapidement d’énormes
volumes de données non structurées.
1.3 Un processus similaire à la transformation du pétrole brut
Pour Stéphane Grumbach, Directeur de recherche à l'Inria, ancien conseiller scientifique à
l’ambassade de France en Chine, le « Big Data » est le nouvel or noir du siècle.
En effet, lorsque les « 4 V » sont mis bout à bout, le processus de traitement et de transformation en
valeur ajoutée des ensembles « Big Data » est similaire à celui du pétrole brut.
La chaîne de valeur est la suivante:
1. Génération des données ;
2. Récolte ;
3. Stockage (centre de données,…) ;
4. Raffinage (isolement de la partie informative des datas, transformation en données
structurées) ;
5. Valorisation (intelligence logicielle – mise en forme des données structurées et la restitution).
Fig n°3: Data, raw material of the 21 st century 8
6 A ces quatre « V » s’ajoute souvent un cinquième, « La Véracité » qui fait référence à la qualité des données. 7 SAS est une entreprise française spécialisée dans les solutions de Business Analytics. 8 Présentation de Stéphane Grumbach - Directeur de recherche at INRIA et ancien conseiller à l’ambassade de France en Chine - Seminar for the Council of the European Union
MS Marketing Management 2013-2013
10
La création de données de nos jours consiste donc à gérer un déluge de données non structurées qu’il
convient d’extraire, d’acheminer, de stocker, de raffiner afin d’obtenir et d’utiliser une nouvelle
information. Chacune des phases est donc importante.
1.3.1 Génération, récolte et acheminement des données
Le développement des réseaux cuivrés, fibrés, 4G voire 5G permet de répondre à la demande sans
cesse croissante de bande passante pour générer de la donnée. Dans ce domaine, la suprématie des
USA dans le monde est indéniable avec ses acteurs tels Facebook, Google, Microsoft, Amazon, et
Twitter. Mais certains pays restent hermétiques à l’intrusion de ces outils américains sur leur sol :
la Chine a créé son propre environnement spécifique tout comme l’Iran.
L’omniprésence du moteur de recherche de Google dans le monde est sans commune mesure. Depuis
1998, sa popularité accroît sa position monopolistique ; il capte pratiquement toutes les demandes.
Il y a quelques exceptions : en Russie, le premier moteur de recherche privé, c’est Yandex (avec un
peu plus de 60% du marché), derrière, il y a bien entendu Google mais le pays de Vladimir Poutine
aimerait également se doter un moteur national baptisé Spoutnik. En Chine, Baidu représente 5,4 %
des recherches mensuelles mondiales, mais représente 73 % du marché chinois en 2011 (450 millions
d'internautes). En France, le moteur de recherche Exalead lancé en juin 2010 ne parvient pas à
concurrencer Google.
Il faut dire que, dans sa logique de récolte de cette matière première, Google se propose de stocker
gratuitement les données en proposant aux acteurs de s’affranchir des coûts d’investissements.
L’entreprise américaine s’est constituée ainsi un monopole de la donnée lui permettant toute liberté
dans la fixation des conditions économiques d’accès aux données.
Le tableau ci-après montre le poids des moteurs de recherche dans plusieurs pays :
Pays Moteur de recherche principal Moteur de recherche secondaire
USA Google 65% Bing 33% / Yahoo 32%
Chine Baidu 73% Google 16%
Russie Yandex 60% Google 25%
UK Google 91% Bing 5%
France Google 92% Bing 3%
Fig n°4 : Poids des moteurs de recherche9
9 www.search-engine-feng-shui.com – blog spécialisé dans le Search Engine Optimisation
MS Marketing Management 2013-2013
11
Le constat est le même lorsque l’on s’intéresse aux réseaux sociaux dans le monde : là encore
Facebook, entreprise américaine, récolte l’ensemble de la matière première. Tous les 6 mois Vincenzo
Cosenza (Social Media Strategist Blogmeter10) compare l’importance des réseaux sociaux dans le
monde.
Fig n°5 : The World Map of Social Networks
A elles deux, Google et Facebook ont la main mise sur plus des 2/3 de la récolte et du stockage des
données. Cela signifie que plus des 2/3 de l’information mondiale transitent par leurs infrastructures.
1.3.2 Stockage des données
Les capacités de stockage et le mode de stockage sont deux points en constante évolution.
Les « Data Centers » (centres d’hébergement des données) sont de plus en plus nombreux et
régulièrement mis à jour pour absorber plus d’espace de stockage. Ils fonctionnent à l’électricité
24h/7j et sont placés dans des régions froides du globe car ils sont énergivores et le froid offre un
moyen de réguler la température des centres sans avoir recours à des climatiseurs eux-mêmes
consommateurs d’électricité.
Fig n°6 : Evolutions des capacités de stockage mondiales11
10 http://www.blogmeter.it/ 11 Le monde -Mardi 8 janvier 2013 – Les données, puissance du futur – Stéphane Grumbach, Stéphane Frénot
MS Marketing Management 2013-2013
12
L’enjeu sur le stockage est de trouver la manière avec laquelle les données protéiformes vont être
encodées de sorte que plusieurs décennies plus tard, elles puissent être réutilisées sans perte
d’informations et de contenus. En France, le pionnier de l’archivage est le CNES (Centre National
d’études spatiales)12.
1.3.3 Raffinage et traitement des données
La difficulté du traitement réside dans le fait d’analyser un ensemble de données d’une diversité
extrême. La quantité de données à traiter nécessite de nouveaux modes d’analyse car un ensemble
peut-être traité soit dans son intégralité dans un seul et même serveur (solution très onéreuse), soit
en utilisant plusieurs serveurs. De nouveaux logiciels, capables de traiter de gigantesques volumes de
données structurées et non structurées, ont donc vu le jour.
Google s’est lancé dans le traitement en 2004 avec la programmation de Map Reduce avant de lancer
BigTable. A présent, la société Apache a développé un code source en libre accès appelé Open data ce
qui a permis l’apparition de nouveaux entrants : Amazon (Dynamo, S3), Yahoo! (Hadoop, S4),
Facebook (Cassandra, Hive), Twitter (Storm, FlockDB), LinkedIn (Kafka, SenseiDB, Voldemort),
LiveJournal (Memcached), etc.
Aujourd’hui le nouvel enjeu, c’est donc le traitement analytique de la donnée car la transformation
des ensembles de données en outils business et décisionnels, par ou pour les entreprises et les États,
offre d’innombrables possibilités.
2. Le potentiel et les défis du « Big Data »
Comme nous venons de le voir dans la première partie de rapport, le nombre de données ne cesse de
croître et les outils qui permettent de les analyser se perfectionnent. Google Analytics propose par
exemple aux entreprises d’améliorer la conception de leur site internet par l’analyse des visites des
internautes. La révolution « Big Data » est en marche et a un impact sur des domaines très variés : le
marketing et le commerce, les transports, la sécurité, les sciences et la santé ou encore la culture et
l’éducation,….Cette situation offre de nouvelles possibilités pour les États comme pour les entreprises
mais elle crée aussi de nouveaux besoins et donc de nouveaux risques.
2.1 Un nouveau levier de compétitivité stratégique pour les entreprises
En tirant parti du « Big Data », les entreprises peuvent renforcer leur efficacité opérationnelle
(gestion des stocks, amélioration des circuits de distribution,…), réduire leurs coûts d'infrastructure
informatique et de gestion des données mais surtout proposer de nouveaux services et mieux gérer le
12 http://www.cnes.fr/web/CNES-fr/6919-cnes-tout-sur-l-espace.php
MS Marketing Management 2013-2013
13
marketing et la relation client…Une aubaine en période de crise et de concurrence accrue et
mondialisée.
Fig n°7: Big Data can generate significant financial value across sectors13
2.1. 1 Améliorer et diversifier les services
Dans son étude « Big Data, the next frontier for innovation, competition and productivity » publiée
en 2011, le cabinet McKinsey&Company considère que les secteurs du numérique, l’immobilier et les
systèmes de santé sont les secteurs privés qui ont le plus à gagner avec le « Big Data » :
13 McKinsey Global Institute analysis
MS Marketing Management 2013-2013
14
Fig n°8: Some sectors are positioned for greater gains from the use of big data
Dans le domaine de la santé, il est possible de mieux prévenir certaines maladies ou épidémies et
ainsi d’améliorer le traitement des patients. En analysant les recherches des internautes sur Google,
une équipe médicale est parvenue à détecter plus rapidement l’arrivée des épidémies de grippe14 et à
mettre en place un modèle prédictif de propagation de l’épidémie, quasi en temps réel. Au Canada, en
analysant en temps réel les informations sur l’état de santé de bébés prématurés avec un logiciel
d’aide au diagnostic, des infections ont pu être détectées vingt-quatre heures avant la manifestation
de symptômes visibles15. Les équipes médicales ont désormais des données sur nos habitudes de vie,
nos comportements et peuvent les mettre en relation pour en tirer une analyse précise des risques
potentiels auxquels nous sommes exposés.
La recherche médicale est aussi concernée : le projet BrainSCANR (Brain Systems, Connections,
Associations, and Network Relationships) qui a été initié par deux chercheurs de l'Université de San
Francisco, a abouti (grâce à la création d’une base de 3,5 millions de résumés d'articles scientifiques)
à la fabrication d’un logiciel qui fait automatiquement un lien entre une partie du cerveau
et une maladie. L’apparition d’un lien entre "migraine" et "stratium"16 a ainsi été mis à jour et a
permis de lancer de nouvelles recherches sur le traitement de la migraine.
Dans le domaine des transports, les entreprises peuvent proposer de nouvelles solutions innovantes
pour la gestion du trafic mais aussi pour la gestion des risques propres par exemple au transport
aérien (organismes de maintenance, surveillance des aéroports…). La société française Safety Line17
14 Ginsberg J. et al. ( 2009), “Detecting influenza epidemics using search engine query data”, Nature, n° 457, p. 1012-1014 15 Mayer-Schönberger V. et Cukier K. (2013), Big Data. A Revolution That Will Transform How We Live, Work, and Think, Boston, New York, Eamon Dolan, Houghton Mifflin Harcourt, p. 60 16 En neuroanatomie, le striatum est une structure nerveuse subcorticale (sous le cortex). (http://fr.wikipedia.org/wiki/Striatum) 17 http://www.safety-line.fr/index.php/fr/
MS Marketing Management 2013-2013
15
modélise les risques à partir des données de vol pour fournir des indicateurs de sécurité quantitatifs
et objectifs grâce à son équipe de chercheurs en mathématiques et d’experts en sécurité aérienne.
Autre exemple, la société Green Bureau18 propose une solution totalement intégrée pour la gestion
des factures et du budget pour le grand public. En proposant une numérisation, une indexation et un
stockage facilité de tous les documents, l’utilisateur peut aller vers une gestion numérique de ses
papiers en bénéficiant d’une palette de services tels que le pointage de relevé bancaire, l’analyse du
budget, avec un unique identifiant.
Le « Big data » représente donc un véritable enjeu économique car il permet d’adapter des services
existants et d’en développer de nouveaux qui offrent des débouchés supplémentaires aux entreprises
en temps de crise. L’enjeu est de taille, d’où l’importance des investissements réalisés par le secteur
privé dans le monde. Selon une enquête internationale réalisée en 2012-2013 auprès de 1 217
entreprises ayant un chiffre d’affaires supérieur à 1 milliard USD (759,6 millions d’Euros), 643
entreprises ont eu une stratégie « Big Data » en 2012 ; parmi celles-ci, 7 % ont investi au moins 500
millions USD (379,8 millions d’Euros) et 15 % au moins 100 millions (75,9 millions d’Euros)19.
2.1.2. Le « Big Data » marketing
L’autre révolution du « Big Data », c’est que désormais les entreprises peuvent mieux écouter les
consommateurs, mieux comprendre leurs comportements et s’adapter à leurs attentes…. Internet
et le digital ont ouvert le champ d'expression des consommateurs et leur ont donné un rôle plus
important via les réseaux sociaux.
Aujourd’hui, les entreprises qui sont capables d’utiliser et d’analyser les données ont un véritable
avantage concurrentiel pour:
- pousser des offres et des tarifs en fonction du client et des points de ventes (boutiques, web,…),
- adapter la distribution à des comportements de plus en plus infidèles et volatiles,
- optimiser les investissements en fonction de la segmentation clients,
- personnaliser la relation et les actions clients.
La distribution est en pointe dans ce domaine : Amazon a été un pionnier avec son moteur de
recommandations qui lui permet de tirer profit des millions de recherches de ses clients. Au
Royaume-Uni, le géant de la distribution Tesco, avec ses 16 millions de clients en possession de sa
carte de fidélité, s'est mis très tôt à utiliser les historiques d'achat et à croiser les données notamment
avec la météo pour cibler les promotions et ajuster ses têtes de gondole. Une hausse de 10 degrés et il
18 https://greenbureau.fr/ 19 Tata Consultancy Service (2013), The Emerging Big Returns on Big Data. A TCS 2013 Global Trend Study. http://www.lesechos-conferences.fr/data/classes/produit_partenaire/fichier_5183_540.pdf.
MS Marketing Management 2013-2013
16
augmente de 300 % la quantité de viande de barbecue mise en vente ou plutôt les rayons de
sandwiches en centre-ville.
Dans le domaine du sport, on peut citer l’exemple de l’équipe de baseball des Giants de San
Francisco, championne de la ligue nationale, qui a mis en place une tarification dynamique
permettant de modifier le prix des billets en fonction de la demande, et ce, jusqu'à la dernière minute.
L'idée étant d'adapter les tarifs à la demande pour éviter la mévente et mieux exploiter les
phénomènes d'enchères (qui profitent plutôt au marché noir). Cette tarification dynamique a permis
une augmentation du chiffre d'affaires du club de 6 % en 201020.
Ces exemples démontrent que l’analyse des flux de d’information ne peut pas se faire sans le recours à
des algorithmes puissants et complexes. Tout l’enjeu réside donc dans la capacité des entreprises à
analyser et extraire la partie informative des données pour ajuster leur politique commerciale. Les
entreprises qui auront recours à ces technologies se verront attribuer des positions dominantes sur
les marchés.
2.1.3 De nouveaux enjeux de sécurité
L’enjeu du « Big Data » est important pour les entreprises mais la possibilité d’accéder, d’utiliser et
de conserver des données stratégiques pose aussi un enjeu de sécurité qui concerne :
- La confidentialité des données ;
- L’identification, la localisation et la classification des données les plus sensibles ;
- La mise en place de modèles d’accès sécurisés tant pour les données que pour les analyses.
L’évolution des problématiques liées au stockage des données illustre bien les évolutions auxquelles
les entreprises doivent s’adapter. Le stockage de données s’est longtemps fait de manière « passive »,
sauvegarder ces données numériques sur un support de stockage est devenue une chose banale.
Cependant, la question de la durée de vie des modes de stockage revient sur le devant de la scène y
compris pour les technologies de pointe comme par exemple le stockage sur verre qui ne supporte
pas le vieillissement. Désormais, les chercheurs envisagent une autre solution des plus originales :
utiliser l’ADN21 pour stocker des données (en théorie, quelques grammes d'ADN pourraient contenir
pendant des milliers d'années les informations contenues dans plusieurs milliers de gros disques).
Mais en attendant de pouvoir enregistrer des données sur un corps humain et ainsi transférer des
Teraoctets de données de manière sécurisée, le stockage doit être fait de façon « active » : il faut
documenter les données numériques comme tout bon archiviste, les protéger du temps et des
attaques et conserver les logiciels qui permettent de les lire. Le cloud sensé résoudre cette situation
20 “Data Analysis Is Creating New Business Opportunities” MIT review By Lee Gomes on May 2, 2011 21 http://www.lefigaro.fr/sciences/2013/01/25/01008-20130125ARTFIG00639-l-adn-disque-dur-du-futur.php
MS Marketing Management 2013-2013
17
pose lui aussi de nouveaux problèmes car le propriétaire des données en perd le contrôle et doit donc
avoir entièrement confiance dans le prestataire qui lui garantit en principe le respect de la
confidentialité et la pérennité des données stockées. La question du stockage se pose aussi pour les
États, d’où le développement de supercalculateurs. Dans ce domaine, la Chine avec Le Tianhe-2 fait
la course en tête et dépasse les capacités de Titan, le supercalculateur du département de l'énergie
américain. En France, on trouve ce type de machines dans les centres nationaux de calculs
universitaire tels que l’IDRIS mais aussi dans certaines grandes entreprises (Total, EDF ou encore
Météo-France).
Selon une étude publiée en 2013 par le cabinet PwC, les cyberattaques sont plus redoutées par les
dirigeants d’entreprises que l’éclatement de la zone Euro ou les catastrophes naturelles22. En 2012,
27% des dirigeants interrogés en France affirment avoir connu plus de 10 incidents de sécurité l’an
passé, contre 21% en 2011. Cette enquête révèle également la difficulté des entreprises à gérer
l’utilisation de leurs données. Si 80% des directeurs de sécurité interrogés affirment que la protection
des données de leurs clients et de leurs salariés est un enjeu important, ils ne sont que 23% en France
à savoir exactement où les données personnelles de leurs clients et collaborateurs sont collectées,
transmises et stockées. Ce décalage est d’autant plus risqué que 73% des consommateurs interrogés
affirment être prêts à partager des informations personnelles avec des entreprises mais 87%
souhaitent contrôler la quantité d’information partagée.
Les entreprises françaises doivent donc réfléchir rapidement aux moyens de protéger leurs données
et leurs analyses de la concurrence et du piratage.
2.2 Une opportunité pour améliorer l’efficacité des Etats
Le « Big Data » est aussi un enjeu pour le secteur public et en particulier pour l’administration et les
domaines qui relèvent, en France, de l’État (éducation, sécurité, justice, culture…).
Par exemple, le développement de l’éducation en ligne permet de mettre en place un suivi en
profondeur de l’élève et d’analyser ses activités d'apprentissage. Les chercheurs peuvent ainsi
déterminer la façon dont les élèves apprennent et les approches qui peuvent être utilisées pour
améliorer l'apprentissage au sein des établissements scolaires.
L’État peut également améliorer la politique de l’emploi et aider les demandeurs car on peut
désormais, en combinant l’analyse des qualifications des individus et les offres d’emplois, identifier
les formations pertinentes, anticiper les reconversions et adapter la recherche aux besoins du marché.
En matière de sécurité, la police et l’université de Memphis ont développé un programme
(Blue Crush), maintenant utilisé par de nombreuses villes, qui permet d’identifier les zones
22 Etude mondiale de PwC sur la sécurité de l’information et la protection des données 15ème édition
MS Marketing Management 2013-2013
18
et les heures où des délits sont le plus à même d’avoir lieu, afin d’optimiser l’affectation des services23.
Le programme aurait permis de faire baisser de 19 % le taux de criminalité sur 4 ans.
Les gouvernements peuvent également tirer profit de l'analyse de données volumineuses afin de
s'attaquer à la fraude fiscale maintenant qu'une nouvelle génération de serveurs informatiques,
particulièrement puissants, peut réaliser, en quelques heures à peine des calculs qui, il y a deux ou
trois ans, prenaient plusieurs jours. Selon Jim Goodnight, président de SAS, une société américaine
spécialisée en analytique d'affaires : «Des ministères peuvent ainsi traiter le dossier de 15 millions de
personnes en 20 minutes, alors qu'avant, ça pouvait prendre deux semaines. Ils peuvent ainsi
identifier des cas de fraude fiscale ou d'assurance-emploi»24.
On peut aussi désormais mobiliser plus facilement les citoyens : en France, la mairie de Toulouse a
demandé en 2013 à la société Apicube d’analyser 1,6 million de documents (tweet, Facebook, blogs,
forums, etc.) pour mieux connaître les sujets de préoccupation des habitants25.
Les politiques ont d’ailleurs bien compris les avantages du « Big Data », après tout si les analyses de
données peuvent avoir un impact sur la prise de décision des consommateurs, c’est aussi le cas pour
les électeurs. La dernière élection présidentielle américaine a été surnommée "l'élection Big Data",
Dan Wagner, le Chief Analytics Officer de Barack Obama en 2012 a reconnu avoir utilisé le « Big
Data » pour cibler au mieux les électeurs potentiels et décrocher, vote après vote, la réélection du
président. Par ailleurs, « l’autre gagnant de la présidentielle américaine”26, fut Nate Silver, un
statisticien qui s’était illustré en 2008 en prédisant avec exactitude des résultats dans 49 des 50 Etats
américains lors de l’élection présidentielle. Idem en 2012, Nate Silver voit à nouveau juste pour les
scrutins des cinquante Etats, allant même jusqu'à avancer que les scores en Floride seraient
particulièrement serrés.
Enfin le « Big Data » facilite également l’accès à la culture. Le ministère français de la Culture
et de la Communication met à disposition des citoyens via un portail data.gouv.fr différents types
de données telles la liste des établissements publics culturels géolocalisés, les données de la
médiathèque de l'architecture et du patrimoine,… De nombreuses villes et régions ont commencé à
faire de même avec pour objectif de croiser des données avec les centres d’intérêt d’individus ou de
communautés pour développer de nouveaux services et usages et faciliter la promotion et l’accès à la
culture.
Des bibliothèques numériques ont aussi vu le jour comme celle de Lyon, plus de 100 000 ouvrages,
enluminures, journaux et photos sont consultables gratuitement en ligne sur Numelyo. Mais là
encore les opportunités qu’offre le « Big Data » s’accompagnent de nouveaux enjeux car si Google
23 35. http://www.memphispolice.org/blue%20crush.htm et ftp://ftp.software.ibm.com/common/ssi/ecm/fr/imc14541frfr/IMC14541FRFR.PDF 24 Voir le rapport de Yiu C. « the big data opportunity making government faster smarter and more personal” 2012- policyexchange.org.uk 25 http://www.lemondeinformatique.fr/actualites/lire-la-mairie-de-toulouse-analyse-son-empreinte-sociale-avec-ibm-et-apicube-53065.html 26 Post publié sur Big Browser, un blog tenu par les journalistes du Monde.fr. le 9 novembre 2012
MS Marketing Management 2013-2013
19
a proposé aux bibliothèques qui n’en n’ont pas les moyens d’assurer la numérisation de leurs
collections en quelques années, l’entreprise n’a pas hésité à demander en échange une exclusivité
commerciale de 25 ans et la propriété des fichiers, ni à numériser des ouvrages encore sous droits
et donc sont soumis au respect des règles de droits d'auteur, à l'autorisation de reproduction et au
versement de royalties liées à l'exploitation de ces œuvres.
2.3 L’enjeu de la cybersécurité et de la défense
Pour un État, la question du « Big data » en matière de défense et de cybersécurité recouvre deux
types de préoccupations. La première porte sur l’utilisation des données afin d’assurer la défense
d’un pays. Lors des attentats du Marathon de Boston qui ont tué trois personnes en 2013 et en ont
blessé 264 autres, le FBI a analysé des milliers d’appels de téléphones portables, de messages, de
données des médias sociaux, de photographies et de séquences vidéosurveillance pour repérer
rapidement les suspects et éviter une nouvelle attaque. Un logiciel de reconnaissance faciale a même
été utilisé pour comparer les visages sur les photos et la vidéo avec les visas, passeports, permis de
conduire et autres bases de données.
La seconde préoccupation concerne la protection des informations sensibles (militaires,
économiques,..) car les États doivent faire face à un nombre croissant d’attaques contre leurs réseaux
informatiques. Ces menaces sont devenues protéiformes : « hacktivistes » d’Anonymous, virus de
plus en plus évolués et destructeurs, piratages et aspirations de données sensibles, révélations aux
grand public de programmes secrets … En 2009, le Wall Street Journal révélait que des hackers
avaient pénétré dans les réseaux protégés de l'administration américaine et avaient réussi à dérober
des centaines de téraoctets d'informations ultra-confidentielles portant sur le chasseur américain F-
35. En France, début 2011, plus de 150 ordinateurs du ministère de l'Économie ont été piratés et des
documents confidentiels concernant le G20 dérobés. Quelques mois plus tard, le groupe nucléaire
Areva a découvert une opération de cyber espionnage massive qui durait depuis deux ans et lui a fait
perdre plusieurs contrats.
Pour lutter contre la fuite d’informations confidentielles, la meilleure solution consisterait à
automatiser le travail notamment en matière de renseignement. Le directeur de la NSA, Keith
Alexander a déclaré lors d'une conférence à New York sur la cybersécurité qu’il allait réduire les
administrateurs systèmes de l’Agence d'environ 90%. En automatisant l'essentiel du travail effectué
pour l'instant par des employés et des consultants extérieurs, les réseaux de la NSA seraient alors
"plus faciles à défendre et plus sûrs".
Les États sont désormais au pied du mur et cherchent de nouveaux moyens pour se protéger. Dans
son rapport au Sénat en 2012, Jean-Marie Bockel évoque un « enjeu majeur de sécurité nationale »
dont la prise en compte réelle n’a commencé en France qu’avec le Livre Blanc de la Défense, publié en
MS Marketing Management 2013-2013
20
2008. Ce dernier a donné naissance au « Conseil de défense et de sécurité nationale ». Jean -Marie
Bockel préconise une coopération d’abord entre la France et l’Allemagne puis dans toute l’Europe
pour lutter contre les attaques. On note que l'article 13 du projet de la future Loi de programmation
militaire permettra aux services de renseignement des ministères de la défense, de l'intérieur, de
l'économie et du ministère en charge du budget d'accéder aux données conservées par les opérateurs
de communications électroniques, les fournisseurs d'accès à Internet et les hébergeurs.
Concrètement, la réquisition de données de connexion dans un cadre d'enquête administrative
pourra être effectuée pour la recherche de renseignements intéressant la sécurité nationale, la
sauvegarde des éléments essentiels du potentiel scientifique et économique de la France, la
prévention du terrorisme, de la criminalité et de la délinquance organisées. Selon Manuel Valls,
Ministre de l’Intérieur « Il faut être lucide : pour protéger leur population, tous les États ont besoin
d’accéder à certaines communications électroniques, aussi bien en matière de renseignement que de
poursuites judiciaires. L’accès aux données doit s’opérer par ciblage des individus ou groupes qui
présentent une menace réelle »27 mais « l’exploitation des métadonnées ou des contenus n’est
légitime que si elle se rapporte à des finalités de sécurité bien circonscrites : lutte contre le terrorisme
et la criminalité organisée ou encore protection des intérêts fondamentaux des États ».
Le « Big Data » est donc un véritable enjeu de défense mais il soulève de nombreuses questions pour
savoir jusqu’où les États peuvent aller comme le démontre le récent scandale “Prism” sur la
transmission de données d’utilisateurs d’internet à des fins de surveillance entre des entreprises
anglo-saxonnes (Google, Yahoo !, Microsoft, You Tube, Skype,…) et les services de renseignements
américains (NSA). En France, on peut noter que le gouvernement français n’a pas jugé utile de
consulter la CNIL sur le fameux article 13 du projet de Loi de programmation militaire.28
2.4 De “Big Data” à “Big Brother”?
La révolution du « Big Data » constitue a priori une formidable opportunité. Pourtant les fabuleux
progrès de cette révolution vont de pair avec de nouveaux risques majeurs : manipulation des
données, intrusions et atteintes à la vie privée, prise de contrôle par des monopoles ou oligopoles
privés, (Apple, Google, Facebook, Amazon...). L’enjeu est donc d’arriver à trouver un équilibre entre
les opportunités économiques et commerciales et le respect de la vie privée. Cependant, c’est cette
recherche d’équilibre qui explique en partie le « retard » pris par certains pays et leurs entreprises
nationales dans l’investissement et l’exploitation du « Big Data ».
En France, à la différence des Etats-Unis, la CNIL impose une anonymisation des données
personnelles et l’usage de ces données est réglementé par la loi “Informatique et Libertés » selon
27 Interview de Thibaut De Jaegher - Publié le lundi 8 juillet 2013 publié sur le site de l’Usine Nouvelle 28 http://www.cnil.fr/linstitution/actualite/article/article/loi-de-programmation-militaire-la-cnil-deplore-de-ne-pas-avoir-ete-saisie-des-dispositions-rel/
MS Marketing Management 2013-2013
21
laquelle : « constitue une donnée à caractère personnel toute information relative à une personne
physique identifiée ou qui peut être identifiée, directement ou indirectement, par référence à un
numéro d’identification ou à un ou plusieurs éléments qui lui sont propres. Pour déterminer si une
personne est identifiable, il convient de considérer l’ensemble des moyens en vue de permettre son
identification dont dispose ou auxquels peut avoir accès le responsable du traitement ou toute autre
personne » (art.2) ».
En fonction de cette loi, le croisement des informations sur les internautes pour un meilleur ciblage
ne peut donc pas se faire sur une personne en particulier mais sur une catégorie d'utilisateurs, c’est
pourquoi la CNIL a récemment épinglé Google pour sa nouvelle politique de confidentialité qui
multiplie les croisements d'informations auparavant éparses29.
En effet certaines données prises indépendamment peuvent sembler insignifiantes mais si elles sont
assemblées et analysées, elles peuvent permettre de recréer des profils et définir des identités
numériques parfois simplement grâce à une date et du lieu de naissance. On peut via les réseaux
sociaux, les moteurs de recherche,…obtenir une vision précise d’un individu, de ses goûts, de ses
habitudes ou de ses croyances. La question se pose donc de redéfinir les catégories de données qui
doivent être considérées comme sensibles et donc réglementées plus strictement par la loi.
Cette question est encore plus cruciale dans le contexte du « Cloud Computing » qui pose les
questions suivantes : Est-ce qu’un individu possède encore le contrôle de ses données ? Comment
un individu peut-il s’opposer au traitement de ses données ? Comment un individu peut-il récupérer
ses données ?
Les entreprises françaises n’ont donc pas la possibilité d’exploiter aussi librement que les entreprises
américaines les données. Selon une étude européenne 30seule 10 % des entreprises françaises
affirment que le « Big Data » est une réalité pour elles. Sur ce sujet, les pays germaniques (Allemagne,
Autriche, Suisse) sont pour l’instant les plus en avance en Europe. Parmi les freins au déploiement
avancés, 24% des personnes interrogées citent l’absence de stratégie et de gouvernance claires.
La France semble donc avoir en partie raté l’enjeu du « Big Data », reste à savoir comment.
3. L’échec de l’ambition informatique de la France
A partir de 1965, le Général de Gaulle et le gouvernement français se préoccupent du développement
d'une industrie nationale dans le domaine de l'informatique et des techniques modernes de
communication et lancent des projets novateurs avec pour objectif de garantir l’indépendance
29 CNIL, Décision n° 2013-025 du 10 juin 2013 de la présidente de la CNIL mettant en demeure la société GOOGLE INC. 30 Étude européenne menée par Steria auprès des 650 entreprises (étude biMA pour Business Intelligence Maturity Audit)
MS Marketing Management 2013-2013
22
informatique de la France mais les hésitations politiques, les batailles entre industriels et les querelles
d'ego finiront par avoir raison de cette ambition.
3.1 Le système Mars : les prémices d’un “Big Data” à la française ?
L’expérience du système Mars est intéressante à retracer en ce sens que d’une part, il s’agit d’une
première initiative de collecte de données relativement massive pour l’époque, de différentes
provenances, et d’autre part qu’il illustre tant le retard qu’avait la France en terme de numérisation
des données que sa capacité par une telle initiative à se distinguer dans la compétition mondiale.
3.1.1 La Copep
Le système Mars trouve sa genèse au début des années 1970, au sein de la Copep (Commission
permanente de l’électronique du Commissariat Général du Plan31), seule commission permanente du
Plan.
Créée à l’initiative de Michel Debré en 1961, le décret créateur de la Copep précise ses missions: « La
Copep est chargée :
- De servir de conseil permanent auprès du gouvernement pour les problèmes relatifs aux
industries de l’électronique française ;
- D’apprécier la situation présente et les développements nécessaires de l’équipement
électronique français dans les dix années à venir (…) ;
- De proposer en conséquence une politique d’ensemble et toutes mesures particulières propres
à développer l’équipement électronique français».
A ce titre, la Copep produit chaque année un rapport au gouvernement sur les industries de
l’électronique et le début de l’informatique.
Jean-Michel Treille prend le poste de secrétaire général de la Copep le 1er mail 1968 et en sera le
dernier secrétaire générale jusqu’à sa dissolution en décembre 1976. Une vingtaine de groupes de
travail sont à l’œuvre pour couvrir le domaine des composants et de l’informatique : l’informatique
médical, l’informatique professionnel, l’informatique appliqué aux industries…
La Copep a participé ou a été l’instigatrice de très nombreux rapports de restructuration industrielle :
le plan composants numéro 1 (1965), le Plan calcul (1966), le plan mesure (1967-1968), le plan
électronique civile professionnelle 1972…Par essence, la Copep est amenée à traiter beaucoup de
données dans une France encore très peu informatisée à l’époque.
31 Le Commissariat général au Plan ou Commissariat général du Plan (CGP) était une institution française qui a existé entre 1946 et 2006 et qui était chargée de définir la planification économique du pays, notamment via des plans quinquennaux. Il s'est transformé en Centre d'analyse stratégique (CAS), créé en 2006. Le CAS a de nouveau été transformé en 2013 pour devenir le Commissariat général à la stratégie et à la prospective (CGSP).
MS Marketing Management 2013-2013
23
A l’issue d’un long séjour aux Etats Unis en 1971, Jean-Michel Treille a pu mesurer la réalité du gap
entre la France et les Etats Unis, il en conclut que « La technologie joue certes un rôle considérable,
mais également les méthodes de planification interne des grands groupes. »32
Avec la bénédiction de Monsieur Montjoie, commissaire général au plan, et de Monsieur Allègre,
Délégué à l’informatique, Jean-Michel Treille met sur pied en 1972 une opération pilote de
planification sectorielle avec un triple objectif 33:
1- Expérimenter une nouvelle méthode de planification sectorielle visant à obtenir une
projection glissante et flexible. Il s’agit d’une part d’être en mesure de réajuster objectifs et
moyens en fonction de la nature et de l’importance des écarts constatés dans l’exécution du
plan initial, d’autre part de disposer en permanence d’un horizon à cinq ans.
2- Mettre au point un système de préparation des décisions permettant de mieux connaître les
implications des orientations à long terme et de répondre de façon plus efficace aux missions
administratives du Plan et de la Copep.
3- Créer une base de données valable à la fois pour l’administration et les entreprises concernées
par l’électronique.
Entre dans cette expérience un vaste ensemble industriel puisque s’ajoutent à l’électronique,
l’informatique, les télécommunications, les équipements aéronautiques et les industries de la mesure.
Cela représente un chiffre d’affaires de 17 milliards de Francs en 1970. Les effectifs sont de 240 000
personnes. Plus de 600 entreprises représentées par une quinzaine de syndicats professionnels sont
concernées par cette initiative.
On peut distinguer cinq rubriques qu’alimentent toutes les informations recueillies:
Les produits (demande, chiffres d’affaires, importations, exportations…) ;
Les sociétés (aspect financier, position sur le marché…) ;
Les administrations (programmes de développement, dépenses engagées par thème
et par produit…) ;
Les régions (implantations régionales et évolutions) ;
Les pays étrangers (étude de la pénétration française, tendances des marchés, stratégies
à l’exportation…) ;
Toutes ces informations sont traitées sur l’ordinateur XDS 540 de la société Cegos Thymshare à
Saint-Cloud (Hauts-de-Seine), lui-même relié à divers centres de calcul installés en France et chez
Data Ressources Inc. à Houston aux Etats Unis et spécialisés en recherche opérationnelle et en calcul
32 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji 33 Journal Le Monde, article daté de 1972
MS Marketing Management 2013-2013
24
matriciel. 60% des temps de travail sont réalisés sur les ordinateurs disponibles en France, 40% sur
des ordinateurs installés aux Etats Unis.
En 1972, le journal le Monde souligne que les quelques cinq cents entreprises de pointe étudiées par
la Copep se heurtent à une concurrence vigoureuse des firmes étrangères souvent appuyées
directement ou indirectement par leurs gouvernements respectifs.
En France également, les pouvoirs publics disposent de moyens d’incitation considérables: près du
tiers de l’activité des firmes intéressées est lié à des commandes de l’administration dont le montant
durant les cinq années du VIème Plan devrait atteindre 30 milliards de francs pour l’acquisition de
matériel; 9 milliards de Francs de crédits étant en outre alloués par l’Etat pour la recherche et le
développement.
3.1.2 Le système Mars
En 1973, cette initiative est pérennisée sous le vocable « Système Mars ». 2000 fichiers sont ainsi
régulièrement mis à jour par les fournisseurs du système Mars.
Parallèlement à la constitution et à l’entretien de cette banque de données, des modèles ou des
scénarios de simulation de comportement de secteurs ou d’entreprises ont été mis au point avec pour
objectif d’analyser des développements macro-économiques, sectoriels ou micro-économiques.
Au-delà de scénarios types de grande utilisation, s’ajoutaient des scénarios construits à la demande
pour telle ou telle étude particulière (exemple : l’étude pour les PTT afin de mieux apprécier les
conséquences pour l’emploi de l’introduction de la commutation électronique).
Le système Mars a permis de sortir des plans et des suivis le plan sur l’électronique professionnel. Il
constituait ainsi un prestataire d’études d’une quinzaine de personne pour différentes
administrations, BIPE, club d’industriels. La dynamique de ce système permettait ainsi de financer
des études pour 4 à 5 millions de Francs par an pour une contribution du Commissariat au Plan
limitée à 200 milliers de Francs34. A plusieurs reprises, le système Mars est présenté aux Américains
et aux Russes du Gosplan qui marquent beaucoup d’intérêt pour ce dispositif.
Assez rapidement est posée la question de l’élargissement du système Mars à tous les secteurs de
l’industrie.
Pourquoi en effet ne pas en faire un système interministériel de planification ? Fort de son succès
dans le domaine des industries de pointe, la déclinaison aux autres secteurs industriels semble des
plus pertinente, et pourtant…
34 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
MS Marketing Management 2013-2013
25
3.1.3 Les forces opposées au système Mars: entreprises, administration, Insee
et pouvoirs politiques
Certains industriels, notamment dans les filiales des groupes multinationaux, n’avaient jamais
accepté le système Mars. Ils ne livraient qu’à contrecœur les informations nécessaires. Que des
fonctionnaires puissent contrôler au jour le jour l’utilisation des fonds publics injectés dans
l’industrie et connaissent le détail des prix de revient, aussi bien que la gestion des entreprises, leur
semblait anormale.
En effet, le système Mars consolidait toutes les données de recherches financées par l’Etat: la DGA
(Direction Général de l’Armement), le CNET (Centre National d’Etude des Télécommunications) et la
DGRST (Direction Générale de la recherche scientifique et technique) déclaraient les contrats passés
avec l’industrie.
Il était donc facile de voir que tel ou tel industriel avait reçu des fonds deux ou trois fois sur le même
sujet35. Certaines administrations n’ont plus voulu contribuer au système Mars. Elles voulaient
récupérer le système pour leur seul profit en cherchant d’ailleurs à intégrer l’équipe du Système Mars
(exemple : le Ministère des Télécoms).
L’Insee était également contre ce projet. Pourquoi ? « Parce que j’avais prétendu développer des
modèles sectoriels, prétendu que l’on pouvait faire le lien différemment entre macro-économie et
micro-économie qui est un lien très mal assuré. J’allais sur des plates-bandes qui n’étaient pas les
miennes » explique Jean-Michel Treille. Peut-être se souvenait-on aussi à l’Insee que Jean-Michel
Treille allait chercher un temps aux Etats-Unis l’information recueillie par l’Insee. En effet, l’Insee
était en retard dans son informatisation et vendait des données à une entreprise américaine qui en
assurait la mise à disposition au format informatique.
Pour Raymond Barre, très libéral, la planification n’est plus dans l’air du temps. Le mot plan est
connoté et évoque « c’est l’État qui gouverne ».
La Copep est dissoute le 17 décembre 1976. Le nouvel économiste du 27 décembre 1976 précise
« Trois ministres, et non des moindres, Raymond Barre, Premier Ministre, Jean Lecanuet, Ministre
d’État chargé du Plan et de l’aménagement du territoire, et Michel d’Ornano, Ministre de l’industrie
et de la recherche ont signé l’acte de décès ».
L’outil Mars demeure mais en pièces détachées : la banque de données elle-même est récupérée par la
Délégation à l’Informatique, accompagnée de toute l’équipe informatique concernée de la Copep,
tandis que les modèles d’application vont être utilisés par le Ministère des armées, les PTT et le
Ministère de l’industrie.
35 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
MS Marketing Management 2013-2013
26
Le journal le Monde du décembre 1976 rend compte de la dissolution de la Copep et titre « La fin
d’une ambition » : “cette Commission a été à l’origine d’une prise de conscience essentielle dans les
années 60 sur la nécessité de doter notre pays d’une industrie électronique puissante pour
s’affranchir de la domination américaine”. De son côté, les Echos du 21 décembre 1976 soulignent :
« une démonstration supplémentaire que la planification n’est plus de saison, le gouvernement
préférant le pilotage à vue ».
Déjà en 1977, Jean-Michel Treille indiquait36 “qu’il est plus facile en France de faire appel à un
modèle américain de précision ou de simulation économique nous concernant que d‘en trouver sur
notre propre marché ». Le danger est alors bien identifié de dépendre à la fois de l’information de
base et d’un traitement qui nécessairement peuvent orienter ou biaiser l’information de base.
Dans le journal 01 informatique de décembre 1978, Jean-Michel Treille note que 360 bases de
données regroupant une centaine de millions d’articles sont en service dans le monde. 70% de ces
bases de données regroupant 85% des articles sont implantées aux États-Unis. Pour lui
« L’informatique en France a toujours été considéré par les dirigeants comme quelque chose de
technique et pas comme un outil de pouvoir, et c’est encore le cas aujourd’hui ».
3.2 Le Plan Calcul
Revenons maintenant sur le Plan Calcul mentionné ci-dessus lors de la présentation de la Copep et de
ses différentes contributions dans le domaine de l’informatique.
3.2.1 La genèse du Plan Calcul
Le 16 Juillet 1966 : le commissaire au Plan, François-Xavier Ortoli, présente au général de Gaulle son
rapport, connu sous le nom « Rapport Ortoli », dans lequel il met en évidence la nécessité pour la
France de se doter d’un plan informatique ambitieux pour préserver l’indépendance de la France vis-
à-vis des Etats-Unis. Le Plan Calcul est né.
De nombreux ouvrages ou articles ont été écrits sur la « saga » du plan calcul dont celui de Pierre-
Eric Mounier-Kuhn, historien de l’informatique37.
Trois phénomènes servent de déclencheurs à la mise sur pied du Plan Calcul :
- Le retard de l’industrie française face aux USA et IBM en particulier avec le lancement de
sa série 360 (les circuits intégrés remplacent les transistors) ;
36 36 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji 37 “Le Plan Calcul, Bull et l’industrie des composants: les contradictions d’une stratégie ». Revue historique, 1995, vol. CCXC n° 1, 123-153
MS Marketing Management 2013-2013
27
- Bull passé sous pavillon américain le 22 juillet 1964 (51% des parts détenues par General
Electric) ;
- Le refus du pentagone de la vente d’un super-calculateur à la direction des applications
militaires du Commissariat à l’Energie Atomique dans le cadre de la mise au point de
l’arme atomique française.
a. 1er dispositif du Plan Calcul: la création de la Délégation à l’informatique
Le 8 Octobre 1966, la Délégation à l'informatique est créée. Sa mission sera de gérer les budgets du
plan, de définir ses principales orientations et d'en assurer l'application. Elle est confiée à Robert
Galley, gaulliste de la première heure, compagnon de la Libération et ingénieur de l'Ecole centrale des
arts et métiers. Maurice Allègre, polytechnicien est son adjoint. Quand Robert Galley est appelé au
gouvernement en 1968, Maurice Allège lui succède.
b. Dispositif scientifique: la création de l’IRIA
L'IRIA (Institut de Recherches en Informatique et en Automatique) est créé au début de 1967, cet
institut (qui deviendra plus tard l’INRIA) a trois missions:
- Entreprendre et faire entreprendre des recherches fondamentales et appliquées (l'IRIA
dispose pour cela de laboratoires propres) ;
- Développer la formation, l'information et le perfectionnement des informaticiens et
d'autres personnes concernées (mission qui restera marginale) ;
- Rassembler et diffuser toute documentation française et étrangère.
Aujourd’hui l’INRIA est très active sur le “Big Data”, notamment à travers son représentant, Stéphane
Grunbach, dont les travaux ont été mentionnés en première partie de ce rapport.
c. 3ème dispositif du Plan Calcul: le volet industriel.
Il prévoit la création d'un champion français de l'informatique, baptisé Compagnie Internationale de
l'Informatique (CII). Avant de revenir sur la composition de cette Compagnie, notons que l’entreprise
Bull en est absente. Mais Bull, il est vrai, n’est plus française à cette époque, étant détenue à 51% par
l’américain General Electric.
Un temps en bonne position dans le concert des entreprises informatiques, la société Bull, après la
prospérité des années 1950, s’essouffle dans la compétition avec l’américain IBM et se retrouve en
difficulté financière. Une solution franco-française est d’abord recherchée en cherchant à associer la
Compagnie Générale d'Electricité (CGE) et la Compagnie Générale de la Télégraphie Sans Fil (CSF).
Finalement, Valéry Giscard d'Estaing, Ministre des Finances de l’époque, finit par donner son feu vert
au scénario américain privilégié par les financiers. General Electric prend ainsi 51% du capital du Bull
MS Marketing Management 2013-2013
28
en 1964.
Revenons à la création de la Compagnie Internationale de l'Informatique. Pour créer ce qui doit être
le champion français de l’informatique, l'Etat a imposé la fusion de la Compagnie Européenne
d'Automatisme Electronique (CAE), une filiale commune de la CSF et de la CGE, avec la Société
d'Electronique et d'Automatisme (SEA), elle-même filiale du groupe Schneider. A la CGE, comme à la
CSF, et au sein du groupe Schneider, ce chantier industriel piloté par l'Etat ne fait pas l’unanimité
mais à la fusion à tout de même lieu : la CII est alors détenue à plus de 56 % par la CGE et CSF, à 33,
3 % par Schneider et à 10, 3 % par le groupe Rivaud.
Une convention qui lie l’Etat à la Compagnie Internationale pour l’Informatique, est signée pour
l’Etat par Michel Debré, Ministre des Finances, Olivier Guichard, Ministre de l’industrie, Pierre
Messmer Ministre des armées et Maurice Schumann Ministre de la recherche scientifique et les PDG
des sociétés privées qui composent la CII. A l’occasion de cette signature, Michel Debré est revenu sur
l’objectif de cette convention « avoir une forte industrie nationale capable de construire des
ordinateurs…. aucune nation industrielle ne peut se développer sans informatique et il est bon que
la France recherche son indépendance »38.
Pour cette première phase de cinq ans du plan calcul, tel qu’annoncé par Michel Debré, l’Etat va
financer pour 400 millions de francs en contrats d’étude.
Le mariage imposé par l’Etat est chaotique. Pour ne rien arranger, un an après la création de la CII,
son tour de table doit être entièrement revu. En septembre 1967, Thomson-Houston-Hotchkiss-
Brandt absorbe la CSF, donnant naissance au groupe Thomson CSF. Avec 40.000 employés et un
chiffre d'affaires de 2, 5 milliards de Francs, la nouvelle société, dirigée par Paul Richard, figure
parmi les 20 premières sociétés françaises. Cette fusion ne fait évidemment pas l'affaire de la CGE :
Ambroise Roux son Directeur général voyant son concurrent se renforcer. Les deux hommes sont
d’autant plus contraints à composer qu’en récupérant la CSF, Thomson est en effet devenu
actionnaire de la CII aux côtés de la CGE.
En juin 1969, sous la pression de la Délégation à l'informatique, le capital de la CII est profondément
remanié. Le champion français de l'informatique est désormais détenu à 70 % par Thomson-CSF et la
CGE, via un holding commun baptisé Fininfor, à hauteur de 25 % par Schneider et de 5 % par le
groupe Rivaud. Contrôlant 52 % de Fininfor, Thomson-CSF assure clairement le leadership de la CII,
imposant même son homme à la tête de la Compagnie, Michel Barré. Au grand dam de la CGE, qui se
lance immédiatement dans une guerre de tranchées... La Délégation vient à peine d'en terminer avec
38 Source Ina sur Youtube http://www.youtube.com/watch?v=1_JNZ862gSw
MS Marketing Management 2013-2013
29
la CII qu'un nouveau front s'ouvre.
En mai 1970, le groupe General Electric annonce en effet qu'il se retire du secteur de l'informatique
pour se concentrer sur les métiers du nucléaire et de l'aéronautique. Six ans après son acquisition,
voilà Bull à nouveau en quête d'un repreneur. A Paris, le pouvoir politique échafaude immédiatement
une solution française de reprise.Maurice Allège, le délégué à l’informatique, souhaite que la CII
reprenne Bull pour donner naissance à un géant français de l'informatique. Ambroise Roux et Paul
Richard y sont tous deux opposés. Partisans d'une ouverture à l'international du capitalisme
hexagonal, les deux hommes estiment qu'une solution franco-française nuirait gravement à l'avenir
de Bull. Les deux industriels militent en revanche avec force pour un rapprochement avec la société
américaine Honeywell. C'est finalement cette solution que Valéry Giscard d'Estaing, Ministre des
Finances choisit en juillet 1970, donnant ainsi naissance à Honeywell Bull. Pour la deuxième fois en
quinze ans, la France vient de laisser échapper la société Bull.
3.2.2 L’échec de la tentative européenne
En 1971, un nouveau plan est acté car les résultats commerciaux n’étaient pas à la hauteur des
objectifs fixés.
Ce nouveau plan fixait deux directives:
Reconduire sur une durée de cinq ans le soutien des subventions de recherche et des achats
publics ;
Donner à l'avenir de la CII une dimension européenne sur le modèle de ce qui vient d'être fait
dans l'aéronautique avec Airbus.
De longues négociations sont menées avec des industriels anglais, allemands et hollandais pour
construire un grand projet européen dans le secteur informatique. Baptisé « Unidata », il associe la
CII, Philips et Siemens. Ce projet, Ambroise Roux, patron de la CGE, n'a cessé de s'y opposer,
craignant qu'une alliance entre Thomson (principal actionnaire de la CII) et Philips et Siemens ne se
fasse à ses dépens. « L'alliance commence dans l'informatique mais finira par gagner les composants,
voire même le téléphone », pense l'industriel, qui use de toute son influence pour saborder Unidata.
Sans succès. Le projet reçoit un soutien appuyé du chef de l'Etat, Georges Pompidou, et du Premier
ministre, Jacques Chaban-Delmas. Un holding financier, dont le capital était détenu à parité par les
trois sociétés, était créé. Une filiale Unisata était créée dans chaque pays, les trois partenaires y
participant également à parts égales. Le 4 juillet 1973, l'accord était signé à Amsterdam et le
consortium commençait ses activités.
MS Marketing Management 2013-2013
30
Au printemps 1974, le Président Pompidou disparaît prématurément. Elu en mai 1974, le nouveau
chef de l'Etat, Valéry Giscard d'Estaing, reste dubitatif quant au dossier Unidata. Faut-il ou non
mener à bien ce grand projet européen ? C'est le début d'une formidable guerre d'influence qui va
opposer deux camps :
D'un côté, les partisans de l'alliance européenne conduite par les Etats, ce qui suppose au
préalable un renforcement des moyens financiers de la CII, par exemple en l'adossant au CEA.
Parmi eux, la Délégation à l'informatique, bien sûr, mais aussi une brochette de hauts
fonctionnaires et quelques ministres, dont le premier d'entre eux, Jacques Chirac.
De l'autre, les adeptes d'une solution libérale consistant à fusionner la CII avec un groupe
privé, de préférence américain. Parmi eux, Ambroise Roux, bien sûr, mais aussi les dirigeants
de Thomson, dont l'enthousiasme pour le projet Unidata tiédit de jour en jour, les hauts
fonctionnaires du ministère de l'Industrie et le ministre lui-même, Michel d'Ornano.
Ce camp a trouvé son champion : Jean-Pierre Brulé, le PDG d'Honeywell Bull. L'homme rêve
de casser Unidata - un concurrent qui risque de se révéler redoutable -et, au passage,
d'absorber la CII...
Après des mois d'hésitation et au terme d'un double jeu qui a profondément agacé les partenaires
européens d'Unidata, c'est finalement ce dernier camp qui l'emporte. Dans l'entourage de Valéry
Giscard d'Estaing, nombreux sont ceux qui pensent que l'heure n'est plus au renforcement du secteur
public, fût-il réalisé dans un cadre européen. Libéraux dans l'âme, ils estiment que la priorité est de
renforcer les entreprises privées.
Sur le plan technique, une alliance de la CII avec l'américain Honeywell Bull leur paraît bien plus
viable qu'une grande alliance européenne. L'attitude des industriels français - CGE et Thomson-CSF-
s'est également révélée déterminante. Engagés l'un et l'autre dans une stratégie de développement à
l'international, les deux groupes ne veulent plus participer à une aventure née sous la houlette de
l'Etat.
Reste à trouver un prétexte. Bien malgré eux, les Allemands le leur fournissent en annonçant la
reprise, par Siemens, de la division informatique de Telefunken, alors en grande difficulté. « En
reprenant Telefunken, son parc d'ordinateurs, ses chercheurs et son déficit, Siemens va rompre
l'équilibre au sein d'Unidata et grossir ses pertes », s'empressent de murmurer à l'oreille des hauts
fonctionnaires français, les partisans de la solution Honeywell Bull, Jean-Pierre Brulé en tête.
Habilement, celui-ci fait savoir qu'il ne demandera aucune subvention à l'Etat pour la reprise de la
CII. En mai 1975, le gouvernement donne officiellement son accord à l'acquisition de la CII par
Honeywell Bull et annonce son retrait d'Unidata. C'est la fin d'une ambition européenne dans le
secteur informatique.
MS Marketing Management 2013-2013
31
C'est également la fin du plan Calcul. Un an plus tôt, Maurice Allègre, découragé, a en effet donné sa
démission, entraînant la suppression de la Délégation à l'informatique...
3.2.3 L’après Plan Calcul
En 1982, l'entreprise est nationalisée : le Groupe Bull est alors créé par le regroupement de CII-
Honeywell Bull, SEMS et Transac. L’État français devient majoritaire dans le capital.
En 1989, Bull acquiert Zenith Data Systems, un constructeur américain de micro-ordinateurs PC.
Cette opération onéreuse devait être destinée à prendre le marché des micro-ordinateurs du
gouvernement fédéral américain. Elle s'adressa évidemment à d'autres fournisseurs en raison des lois
américaines sur les marchés publics. Cette erreur stratégique conduisit à la revente de ZDS à la
société Packard Bell NEC en 1996.
En 1991-1992, on assiste au recentrage du groupe Bull sur les activités de serveurs moyenne et grande
gamme, sur les services clients et sur les services de développement et d'intégration du logiciel.
De 1994 à 1997 se déroule la privatisation progressive du groupe Bull, sous l'impulsion de Jean-Marie
Descarpentries, avec la constitution d’un socle d’actionnaires (dont France Télécom et NEC) et
l’ouverture du capital au public. Cette étape fait passer la part de l’État français à 17,3 %.
Le groupe sera totalement re-privatisé en 2004, avant de voir le retour de l’Etat, via le Fonds
Stratégique d’Investissements, à l’automne 2011, pour un peu plus de 5% de son capital.
Depuis le début des années 1990, le groupe Bull a connu plusieurs restructurations, dont la dernière
s'est achevée en 2004. Si au début de l’année 1999, les effectifs étaient encore légèrement supérieurs
à 20 000 personnes, ils sont descendus fin 2001 à quelques 10 000 personnes. En 2008, Bull
emploie environ 7 800 salariés, et recommence à embaucher fortement, faisant arriver le total des
salariés à 8 850 pour 2009. Le chiffre d'affaires est de 1, 28 milliard d'euros en 2012, réalisé à 56, 8 %
en France.
L’échec du Plan Calcul continue à nourrir l’intérêt des observateurs. Le quotidien économique « Les
Echos » y consacre un dossier dans les feuilletons de l’été 2012 titrant « Le plan Calcul, échec d’une
ambition »39.
Il met en évidence les contradictions de l'histoire industrielle des cinquante dernières années :
articulation entre politique technologique et industrielle, coopération européenne face au dynamisme
commercial et technologique des Etats-Unis ; logiques divergentes des grands groupes français de
l'électronique au sein des réorganisations des années 1960-1970, indépendance nationale et
libéralisme dans le cadre spécifique de l'informatique. On ne peut s’empêcher en revoyant cette page
d’histoire récente de faire le lien avec un autre domaine pour laquelle la France, alors qu’elle avait un
certain nombre d’atouts bien réels, a échoué : celui des drones. 39 Les Echos n° 21231 du 20 Juillet 2012
MS Marketing Management 2013-2013
32
La suite des événements témoigne de la difficulté de l’Etat français à s’organiser pour rester dans la
course à l’innovation : pour mieux comprendre les raisons de l’échec de l’ambition informatique
française, il est intéressant de comprendre comment les USA ont abordé la question de l’information
et ont finalement réussi à imposer leur leadership dans les années 90.
3.2.4 La vision américaine des autoroutes de l’information et de l’enjeu de
puissance
On peut situer l’apparition des autoroutes de l’information et les prémices du « Big Data », bien que
ce concept ne soit pas encore nommé, aux Etats-Unis en novembre 1991 dans le High Performance
Computing act de 1991. Cette loi, proposée par le sénateur Al Gore, a pour objectif de préserver le
leadership dans les NTIC par la mise en place d’un réseau dédié à l’éducation et à la recherche (cf
Renater en France). Dès 1993, Bill Clinton élu, l’affirmation de puissance des USA est claire : « ce
n’est plus la qualité des infrastructures routières, portuaires qui déterminent la puissance
économique de l’Amérique, mais notre capacité à transmettre de grandes quantités d’informations
rapidement et sûrement et par notre capacité à utiliser ces informations et à les comprendre ». Le lien
est ici clairement établi entre l’enjeu de puissance des Etats-Unis et le “Big Data”.
Le gouvernement français inscrit les autoroutes de l’information sur son agenda dès février 1994 en
demandant un rapport à Gérard Théry et définit sa politique lors du conseil de ministres du 27
octobre 1994. Alors qu’aux Etats-Unis, les autoroutes de l’information sont traduites en enjeu de
puissance, en France, les autoroutes de l’information sont davantage vues sous l’angle des usages
qu’elles permettent, illustrées dans le rapport Théry40.
L’Union Européenne depuis les années 1990 voudrait se placer en tête sur la gouvernance d’internet,
mais se heurte à la puissance des Etats-Unis. La démarche européenne repose sur les fondements
suivants :
Internet vu comme un service public…
…à la fois dans une logique d’opportunité mais aussi dans une logique de maîtrise des
risques liés :
o Aux messages au contenu illégal ou non approprié ;
o Aux problèmes juridiques qui peuvent advenir ;
o A la protection des consommateurs.
40 Les autoroutes de l’information, Rapport au 1er Ministre, Gérard Théry, 1994
MS Marketing Management 2013-2013
33
Cette volonté se heurte à celle des Etats-Unis de garder le contrôle de la coordination des fonctions
essentielles de l’internet (notamment noms et adresses). Aux USA, le lien est donc fait directement
entre les données qui circulent sur ces autoroutes de l’information et l’enjeu de les comprendre et de
les utiliser dès les années 90 alors que la France continue à tatonner.
3.3 Du Commissariat Général au Plan au Centre d’Analyse Stratégique
Le Commisariat Général au Plan, mis en place par le Général de Gaulle pour reconstruire la France,
avait pour mission la planification économique du pays par l’élaboration de plans quinquennaux. En
octobre 1986, le Ministre de la Fonction publique, du Plan, et de l'Économie sociale, Hervé de
Charette, propose de substituer un commissariat de la stratégie au Commissariat au Plan.
Les oppositions au projet d’Hervé de Charette ont été nombreuses : Pierre Massé dit, par exemple,
que « supprimer le Plan au nom d'un libéralisme impulsif serait privé le pouvoir d'une de ses armes
contre la dictature de l'instant ». Le projet ne se concrétisa pas, mais l'idée, elle, subsista.
En 2003, Alain Etchegoyen est sollicité par Jean-Pierre Raffarin, alors Premier Ministre, pour diriger
le Commissariat général au Plan. Il tenta une réorganisation de l'institution en groupes de projet afin,
selon ses termes, de recentrer sa mission "pour un État-Stratège, garant de l'intérêt général et du bien
public", en favorisant une démarche prospective soucieuse du long terme.
A partir de 2004, le Gouvernement français lance (selon ses termes) une « nouvelle politique
industrielle ». Grâce à un effort financier de trois milliards d’Euros, sans commune mesure en
Europe, des pôles de compétitivité sont créés pour mobiliser les facteurs clefs de la compétitivité au
premier rang desquels figure la capacité d'innovation, et pour développer la croissance et l'emploi sur
les marchés porteurs : Cap digital est la dénomination du pôle de compétitivité du numérique basé en
Ile de France41.
Le 26 octobre 2005, Dominique de Villepin, Premier Ministre, annonce vouloir supprimer le
Commissariat général au Plan et créer, en remplacement, un Centre d'analyse stratégique également
sous la tutelle directe du Premier minister. Il remercie le commissaire général au Plan et le 6 mars
2006, le décret no 2006-260 et officialise la substitution du Centre d'Analyse Stratégique au
Commissariat général au Plan avec à sa tête Sophie Boissard, ancienne directrice de cabinet du
ministre délégué à l'Emploi, au Travail et à l'Insertion professionnelle des jeunes, Gérard Larcher.
Mais le Centre d’Analyse Stratégique, simple outil de veille, ne parvenient pas à s’impliquer ni dans la
préparation ni dans l’élaboration des stratégies publiques, il disparait en 2013.
41 http://www.capdigital.com/
MS Marketing Management 2013-2013
34
Petit à petit, le gouvernement va tenter de passer de la planification à la prospection pour pousser
des projets afin de faire de la France un pôle d’expertise du « Big Data ».
4. La France peut-elle devenir un pôle mondial d’expertise du « Big Data » ?
Forcé de constater que l’ambition française de garantir son indépendance informatique a échouée. La
France a été dépassée par les hésitations politiques et les batailles entre industriels, elle n’a pas réussi
à imposer son savoir-faire et ses entreprises dans le domaine de la génération, de la récolte et de
l’acheminement des données.
Sauf qu’aujourd’hui, les nouveaux enjeux du « Big Data » concernent le stockage et surtout le
traitement des données : deux domaines dans lesquels la France possède de vrais avantages
stratégiques.
4.1. De nouvelles ambitions politiques en France et en Europe
4.1.1 Pôles de compétitivité, investissements d’avenir et appels à projets
Les investissements d’avenir sont lancés le 14 décembre 2009 par Nicolas Sarkozy, Président de la
République, selon cinq axes stratégiques prioritaires:
L’enseignement supérieur et formation ;
La recherche ;
La filières industrielles et PME ;
Le développement durable ;
Le numérique.
Le Commissariat Général à l’Investissement et son commissaire Louis Gallois sont chargés de la mise
en œuvre du programme d’investissements d’avenir.
Le Fonds Stratégique d’Investissements est créé en octobre 2008 pour porter ces investissements
d’avenir et intégre la Banque Publique d’Investissement, plus récemment créée, en juillet 2013.
Le Fonds national pour la Société Numérique, géré par la Caisse des Dépôts et Consignation (FSN),
est chargé du développement de l’économie numérique, il mène deux actions :
1. Développer des réseaux très hauts débits -> investissements de 2 GE
2. Établir des usages, services et contenus innovants -> investissements de 2.25 GE selon
4 axes :
o Cloud computing ;
o Numérisation et valorisation de contenus numériques ;
MS Marketing Management 2013-2013
35
o Développement des technologies du numérique (nano-technologies, logiciel
embarqué…) ;
o Nouveaux usages : e-santé, sécurité des réseaux, transports intelligents, ville
numérique, e-éducation.
Trois appels à projets sont en lien direct avec le “Big Data”:
1. AAP Cloud computing - 1 (as a service, virtualisation) ;
2. AAP Cloud Computing – 2 dans le prolongement du 1 ;
3. AAP Cloud Computing – 3 dédié Big Data.
Au second semestre 2013, 4 nouveaux appels à projets sont lancés selon 4 axes :
1. Technologie du logiciel embarqué et objets connectés et intelligents ;
2. Sécurité du système d’information ;
3. Technologie de calcul intensif ;
4. Big Data.
Mentionnons ici quelques initiatives à l’occasion des AAP Cloud computing 1 et 2, en particulier celle
visant l’émergence d’un cloud souverain. Deux nouvelles sociétés de cloud souverain (Cloudwatt42 et
Numergy43) ont ainsi été constituées en 2012 sur un modèle comparable :
- Un opérateur télécom (Orange pour l’un, SFR pour l’autre) ;
- Un industriel (Thalès pour l’un, Bull pour l’autre) ;
- Le FSN ayant apporté à chacun 75 ME pour 33% du capital.
Orange, Thalès et le FSN constituent le capital de Cloudwatt, pendant que SFR, Bull et le FSN
constituent le capital de Numergy.
Numergy et Belgacom ont annoncé en cet été 2013 une initiative européenne : Cloud Team Alliance
pour une alternative européenne aux acteurs américains. Ce périmètre pourrait s’étendre à l’Italie
(Telecom Italia), la Hollande avec KPN, l’Allemagne…). Cloudwatt, par son opérateur principal,
Orange, a par là même déjà une empreinte qui dépasse le simple territoire français pour s’étendre en
Europe. En ce qui concerne l’appel à projet Cloud computing – “Big Data”, 11.5 millions d’Euros ont
été investis par le FSN dans 7 projets “Big Data”.
Notons ici une nouvelle initiative intervenue en juillet dernier via l’apport au capital de la société
Withings de 11 millions d’euros par la Banque Publique d’Investissement. Il s’agit d’un investissement
direct, hors démarche d’appels à projets. Au côté de trois fonds privés (360 Capital Partners, Ventech
et Idinvest Partners), ce sont ainsi 23 millions d’Euros qui sont venus renforcer le capital de Withings
42 https://www.cloudwatt.com/ 43 https://www.numergy.com/
MS Marketing Management 2013-2013
36
pour lui permettre d’accélérer son développement international. Withings réalise déjà plus de la
moitié de son chiffre d’affaires aux Etats-Unis. La BPI a posé comme condition le fait que la R&D de
Withings demeure en France44.
Cet investissement direct de fonds souverain dans une PME n’est pas nouveau. Un an plus tôt,
Viadeo, le réseau social professionnel, bénéficiait d’un investissement de 10 Millions d’Euros du
Fonds Stratégique d’Investissements, en complément de 24 Millions d’Euros apportés par des
investisseurs privés. Auparavant le FSI avait apporté 18 Millions d’Euros à la société Ercom
spécialiste en simulation des réseaux mobiles 4G et en communications sécurisées. A l’automne 2011,
c’est Bull qui voyait revenir à son capital l’Etat (qui en était sorti en 2004) par l’intermédiaire du FSI
qui prenait un peu plus de 5% du capital. Le FSI est également présent depuis l’automne 2009 au
capital de Dailymotion, le petit français qui concurrence le service Youtube de Google. A noter que le
FSI a intégré la BPI en juillet 2013 et détient des participations dans une centaine de sociétés
françaises.
En Europe, les choses évoluent également. La nécessité d'orienter les politiques européennes vers
l'excellence, en vue de faciliter l'émergence de clusters de classe mondiale a été définie à travers la
communication de la Commission européenne « Vers des clusters de classe mondiale dans l'Union
européenne: mise en œuvre d'une stratégie d'innovation élargie » (17 octobre 2008) et les conclusions
du Conseil compétitivité adoptées sous la présidence française en 2008 (20 novembre 2008). Dans sa
communication « Une politique industrielle intégrée à l'ère de la mondialisation » du 28 octobre
2010, la Commission européenne a pris l’engagement de mettre en place une nouvelle stratégie
européenne dans le domaine des clusters.
4.1.2 Le Commissariat Général à la Stratégie et à la Prospective (CGSP) et les 34
Plans de reconquête industrielle
Le Centre d'analyse stratégique est remplacé le 8 janvier 2013 par le Commissariat Général à la
Stratégie et à la Prospective (CGSP). Dans son discours en présentant la feuille de route, le Président
de la République, François Hollande en précise l’objectif: « pas pour revenir à la planification, pour
prévoir les mutations de la France et du monde dans les 5, 10, 15 ans, non pas pour connaître ce qu’il
va se passer mais ce que nous devons faire en tant qu’Etat, en tant que nation pour nous mettre en
avant. »
Le CGSP se voit confier 5 missions:
1. Prospective ;
2. Stratégie ;
44 http://www.withings.com/fr
MS Marketing Management 2013-2013
37
3. Evaluation ;
4. Centre de ressources pour concertations et débat public ;
5. Comparaisons internationales et territoriales.
C’est le début d’une nouvelles séries d’initatives politiques en faveur du numérique.
Lancée le 12 septembre 2013, la dernière initiative gouvernementale en date, vise à déployer 34 plans
de reconquête industrielle qui fédéreront grands groupes et PME autour de priorités concrètes et
seront soutenus par l’État. Après dix ans de désindustrialisation, 750 000 emplois détruits et une
perte de 6 points de la part de l’industrie dans le PIB, le gouvernement cherche ainsi à mettre
l’industrie au cœur du redressement de l’économie française. Comme si on s’apercevait enfin « qu’il
n’y a pas de grande nation sans capacité industrielle »45.
Au côté de secteurs industriels traditionnels figurent des secteurs de pointe (nano-technologies,
logiciel embarqué…). Parmi ces 34 Plans, l’un est consacré au « Big Data », un autre au cloud
computing et un troisième aux objets connectés qui seront des grands producteurs de données dans
les années à venir. Mentionnons également la cybersécurité qui, sans surprise pour un tel catalogue,
est embarquée dans cette initiative.
Toutefois, malgré le renouveau des ambitions politiques, il faut rappeler que l’Europe et la France
sont dans une position tout à fait déséquilibrée par rapport aux Etats-Unis quant à l’ouverture
respective de leurs marchés, tout particulièrement leurs marchés publics. Cette situation risque à
nouveau de désavantager les initiatives des entreprises françaises.
4.1.3 Ouverture des marchés européens contre protectionnisme américain
Rappelons que les acteurs publics représentent une part importante du commerce mondial, de l'ordre
de 1 000 milliards d'Euros par an. Les produits et services achetés par les pouvoirs publics
représentent environ 17 % du PIB de l'Union européenne. Selon les estimations de la Commission
européenne, les marchés publics ont une incidence sur au moins 22 marchés clés de produits et de
services. Au total, le chiffre d'affaires des entreprises actives sur ces marchés pourrait dépasser 25 %
du PIB de l'Union européenne et représenter 31 millions d'emplois.
En septembre 2012 Nicole Bricq, Ministre française du Commerce extérieur, rappelait au Parlement
européen que « 90 % des marchés publics de l’Union européenne sont ouverts en toute transparence
aux pays tiers contre 32 % aux États-Unis, 28 % au Japon et 16 % au Canada ». Certains secteurs aux
Etats-Unis sont même fermés à 100%, c’est le cas des transports publics46.
45 http://www.gouvernement.fr 46 Rapport de la commission sénatoriale présidée par Monsieur Simon Sutour 6 novembre 2012
MS Marketing Management 2013-2013
38
Le principe de réciprocité contenu dans les accords du GATT dès 1947 est ainsi largement bafoué.
L'absence d'accès réciproque aux marchés publics pénalise gravement les entreprises européennes.
Elles subissent non seulement des restrictions d'accès aux marchés de pays tiers mais aussi la
concurrence déloyale d'entreprises qui, sur le marché européen, peuvent se permettre de
soumissionner sur le marché européen à des prix anormalement bas.
Nicole Bricq s’exprimait ainsi dans le Figaro du 5 octobre 2013 : «Les États-Unis sont très
protectionnistes. Comment se fait-il que les États-Unis, qui sont très protectionnistes, passent pour
un pays libre-échangiste ? L’ouverture des marchés publics est prioritaire». Selon la Commission
européenne, plus de 50 % des marchés publics susceptibles d'être mis en concurrence sont fermés par
des mesures protectionnistes. En outre, 25 % sont ouverts de facto mais peuvent être fermés à tout
moment. Les exportations inexploitées en raison de cette fermeture s'élèveraient à 12 milliards
d'Euros pour l'Union européenne.
Deux lois américaines déjà anciennes sont toujours en vigueur et avantagent clairement les
entreprises américaines pour les marchés publics américains. En 1933, le législateur américain réduit
les possibilités de recours à l’export grâce au Buy American Act. Ainsi, le texte impose aux sociétés qui
disposent d’un soutien fédéral de ne pas faire appel à un acteur économique étranger. Plus
précisément, pour les travaux d’infrastructures les achats d’aciers doivent être passés auprès de
fabricants américains. D’abord cantonné au secteur sidérurgique, le plan a été étendu à tous les
projets d’infrastructures. Là encore, application de la vision de puissance des Etats-Unis…
S’il est bien un acteur français échaudé, c’est Bull (voir chapitre sur le Plan Calcul). En 1989, Bull
acquiert Zenith Data Systems, constructeur américain de micro-ordinateurs PC. Destinée à prendre le
marché des micro-ordinateurs du gouvernement fédéral américain, cette opération onéreuse
s'adressa évidemment à d'autres fournisseurs en raison des lois américaines sur les marchés publics.
Cette erreur stratégique conduisit à la revente de ZDS à la société Packard Bell NEC en 1996.
Le Small Business Act, daté de 1953, vise à favoriser les PME américaines dans l’économie nationale
et réserve ainsi certains marchés publics aux PME :
- Ceux situés entre 2500 et 100 000 dollars ;
- Au-dessus de 100 000 dollars, quand il existe de très grandes chances qu’au moins deux PME
formulent une offre intéressante ;
- Si seules les grandes entreprises peuvent répondre à l’appel d’offres, les PME se voient attribuer
une réservation partielle du marché ;
- Les appels d’offres d’une valeur supérieure à 500 000 dollars remportés par une grande
entreprise doivent comporter un plan de sous-traitance montrant la part revenant aux PME.
MS Marketing Management 2013-2013
39
Cela permet ainsi de réserver entre 23 et 40% de l’achat public américain aux PME nationales. En
France, l’Etat, conscient de ce phénomène, a décidé de réserver aux PME 2% de la commande
publique à l’horizon 2020 (soit 1 milliard d’Euros). N’y a-t-il pas un problème d’échelle ? Quand nous
prévoyons, en France, de réserver aux PME 2% de la commande publique, les Etats-Unis leur
réservent une proportion dix à vingt fois supérieure.
4.2 Des atouts non négligables
Pour répondre aux nouveaux enjeux du « Big Data » liés essentiellement au stockage et au traitement
des données et pour peser face aux entreprises américaines, la France doit non seulement avoir des
ambitions au niveau politique mais aussi s’appuyer sur ses atouts : la qualité des ingénieurs et le
dynamisme du réseau national de start-up français. Deux atouts majeurs que France doit « protéger »
face aux géants américains
4.2.1 La qualité des ingénieurs français
La demande en spécialistes de l’analyse de données massives est en plein essor. L’institut McKinsey
Global estime que les besoins en analyses de masses de données induiront, aux États-Unis d’ici à
2018, le recrutement de 140 000 à 190 000 spécialistes47. Aux États-Unis comme en France, ce
besoin en spécialistes du « Big Data » n'a pas été anticipé et les entreprises, au pied du mur, ne
trouvent pas les profils qu'elles cherchent. Pourtant, la France a une vraie carte à jouer sur la scène
mondiale, car elle a toujours formé de bons ingénieurs et de bons mathématiciens.
D’ailleurs Facebook, qui cherche à en savoir davantage sur son milliard d'abonnés, vient d'embaucher
un professeur français Yann LeCun, spécialiste de l'intelligence artificielle de l'Université de New
York pour diriger une équipe chargée d'améliorer celle du réseau social pour rendre Facebook plus
intelligent et plus pertinent via par exemple un classement des publications dans un certain ordre, ou
en décidant quelles publicités vont être affichées.
Mais un « data scientist », un spécialiste des données, dont le métier consiste à traiter l’information,
représenter les données et les rendre automatisables afin d'aider la prise de décision, doit avoir à la
fois les compétences d’un mathématicien pour le traitement algorithmique des données mais aussi
celles d’un statisticien.
Or, selon Stéphan Clémençon48, maître de conférences à Télécom Paris Tech, cette double
compétence n'existe pas encore sur le marché français : « Les formations universitaires actuelles
préparent soit aux statistiques, soit à l'informatique. Aucune ne réunit vraiment les deux volets.
Quant aux aspects de business stratégique, ils ne sont jamais abordés. ».
47 McKinsey Global Institute (2011), Big Data. The Next Frontier for Innovation, Competition, and Productivity, 156 p. 48 http://business.lesechos.fr/directions-financieres/evolution-personnelle/0202659975994-le-big-data-recrute-6263.php
MS Marketing Management 2013-2013
40
Pour y remédier, Fleur Pellerin, Ministre déléguée en charge de l'Economie numérique, a annoncé la
création d'une filière « Big Data » en France, dans le cadre de Paris Capitale du numérique, le projet
de quartier technologique qui doit être installé à Paris ou dans ses environs. "Je souhaite une
réflexion sur la création d'une filière structurée sur le Big Data, capable d'attirer les investissements
étrangers", a expliqué la ministre déléguée chargée des PME, de l'Innovation et de l'Économie
numérique.
TelecomParisTech propose désormais un Mastère Spécialisé « Big Data : gestion et analyse des
données massives (BGD)49 et un Mastère Spécialisé «Management de Projets Technologiques»
(MPT), en partenariat avec l’l’ESSEC, qui a pour objectif de développer les compétences de
management de projet à dominante technologique dans les domaines industriels et des services. Les
autres établissements d'enseignement supérieur adaptent aussi leurs programmes, c’est le cas des
formations dédiées à la statistique comme celles de L'ENSAE (Ecole nationale de la statistique et de
l'administration) et de l'ENSAI (École nationale de la statistique et de l'analyse de l'information). Du
côté de l'université, le DUT "statistique et informatique décisionnelle" (STID), ainsi qu'une
quarantaine de licences et 70 masters abordent le sujet des données.
Encore faut-il pouvoir garder en France ces jeunes diplômés or, d'après les derniers chiffres du
Ministère des Affaires étrangères, parmi les 18-25 ans, le nombre d'expatriés a fait un bond de 14 %
ces cinq dernières années. Parmi les candidats au départ, les jeunes créateurs de start up numériques
sont légion. La société Qunb, spécialisée dans la visualisation de données pour les entreprises, a
remporté en décembre la compétition organisée par Le Web à Paris, en présence de Fleur Pellerin.
Mais il n'a pas fallu trois mois pour que l’entreprise s'envole pour Boston rejoindre l'accélérateur
Techstars… La France doit donc trouver un moyen de conserver ses jeunes entrepreneurs.
4.2.2 Le dynamisme des entreprises françaises
Certaines entreprises numériques françaises rencontrent un vrai succès :
a. Criteo
Dans le domaine du raffinage et du traitement de données, l’entreprise Critéo se taille une part du
gâteau à côté des OTT (Over the Top) en termes de compétitivité. Criteo permet aux sites e-commerce
de tirer parti de grands volumes de données de façon efficiente et efficace afin d’engager et de
convertir leurs clients. Son succès est fondé sur des algorithmes de prédiction sur l’intention et
l’engagement des consommateurs, cela permet à Criteo de chiffrer le prix et de livrer des bannières
de publicités pertinentes et personnalisées, en temps réel. Cette société est donc capable de tirer parti
49 http://www.telecom-paristech.fr/formation-continue/les-entretiens-de-telecom-paristech/dec-2012-big-data-big-value/avis-experts.html
MS Marketing Management 2013-2013
41
de l’analyse en temps réel des données produites par les internautes et de maîtriser les 5 V (Volume,
Vélocité, Variété) du « Big Data ». La croissance de Criteo a jusqu'à présent été exponentielle. Créée
en 2005, profitable en 2012, la société affiche 459 millions de dollars (334 millions d'Euros) de chiffre
d'affaires au premier semestre et a fait, le 5 novembre dernier, une entrée remarquée sur le NASDAQ,
l'indice des valeurs technologiques de la Bourse de New York. Pourquoi pas une cotation à Paris ?
Parce que la place financière parisienne n'offre pas une visibilité suffisante, selon les experts, pour
espérer un jour accueillir ou tout simplement pour permettre le développement d'un nouveau Google.
A Paris, les valeurs technologiques sont rares, les fonds d'investissements spécialisés et les potentiels
racheteurs peu nombreux et il y a très peu d'analystes financiers qui suivent les sociétés « techno »50.
b. Cloudwatt
Cloudwatt est une société créée en septembre 2012. Le service offert par Cloudwatt consiste à
commercialiser l’infrastructure technologique qui permet de récolter et stocker les données. Le
Datacenter de Cloudwatt est situé à Val-de-Reuil (Normandie).
Le lancement de Cloudwatt entre dans le cadre du projet Andromède51 initié en 2009 dans l’objectif
de donner plus de chances à la France d’exister sur le marché du cloud computing. Pour son
fondateur Patrick Starck, ancien vice-président EMEA de CA Technologies et ancien dirigeant de
Hewlett Packard France et de Compaq France, Cloudwatt doit : « Offrir la transparence que les
acteurs américains refusent »52.
La marque de fabrique délivrée par Cloudwatt repose sur le principe de souveraineté des données
qui :
- concerne le lieu d’hébergement des données (en l’occurrence la France) ;
- garantit une éthique quant aux traitements des données subies pour les hébergeurs et les restituer
rapidement et de manière pérenne (architecture technique sous contrôle) ;
- décline des conditions de générales de ventes dans les contrats en cohérence avec l’ambition (à
opposer aux CGV de Google par ex.).
Face à la défiance générée par les affaires PRISM et XKeyScore, les attentes autour du cloud
souverain sont de plus en fortes, une véritable opportunité pour Cloudwatt.
c. La Bnf et ProQuest
Pourtant, il arrive que la France fasse appel à des entreprises étrangères plutôt qu’à ses propres
« pépites numériques nationales ».
50 http://www.lemonde.fr/economie/article/2013/10/30/les-frenchies-de-criteo-entrent-au-nasdaq_3505314_3234.html 51 Andromède est un projet de « cloud souverain » sécurisé pour le gouvernement français, son administration et les entreprises françaises. Voir page 33 52 http://www.silicon.fr/starck-cloudwatt-transparence-americains-refusent-89885.html
MS Marketing Management 2013-2013
42
Gallica est la bibliothèque numérique de la Bibliothèque nationale de France. En ligne depuis 1997,
elle s’enrichit chaque semaine de milliers de nouveautés et offre aujourd’hui accès à plus de 2 millions
de documents. En 2005, Google met en œuvre un vaste programme de numérisation des livres,
Google Books, dans le but de constituer une bibliothèque numérique accessible au plus grand
nombre. Ce projet baptisé d’abord la numérisation des livres mis à disposition par les bibliothèques
partenaires (Harvard University Library, New York Public Library, University of Oxford …), puis la
publication du livre numérisé sous forme d’extraits sur la plateforme Google Books accessible via
internet.
Pour accélérer la numérisation de ses collections patrimoniales et les mettre à disposition du
publique via Gallica, la Bibliothèque nationale de France a noué en janvier 2013 des partenariats
publics-privés avec plusieurs firmes dans le cadre des Investissements d’avenir : ProQuest pour la
numérisation des livres anciens, Believe et Memnon pour celle des fonds de 78 tours. Problème,
ProQuest est une société américaine (dont la Banque Golman&Sachs est actionnaire53 ) qui envisage
de vendre des accès payants aux collections numérisées sous forme d'abonnement, y compris aux
bibliothèques et universités françaises alors que dans les autres pays européens où ProQuest est en
affaire avec des bibliothèques patrimoniales, il lui a été possible de ménager un accès gratuit pour le
pays d'origine, alors même que la firme assumait l'intégralité des coûts de numérisation.
Dans le contrat récemment passé avec la France, il y a donc deux contradictions. D’un côté, les
organismes publics français devront payer pour consulter les documents appartenant au droit public ;
et d’un autre côté, la numérisation de ces documents est financée par des fonds publics.
Ce type de situation met en lumière l’une des difficultés rencontrées par les start-ups : s’imposer en
France sur des projets nationaux. Une autre des difficultés, c’est d’arriver à se financer sans avoir
recours à des fonds étrangers, certaines de nos entreprises ont d’ores et déjà attiré l’attention
d’investisseurs américains…
c. Sigfox
L’entreprise Sigfox a marqué l’année 2013. Il faut dire, qu’à l'heure de l'Internet à grande vitesse,
cette start-up toulousaine s’est lancée sur le marché du Machine to Machine, avec son réseau "très
bas débit". Celui-ci permet de transmettre à bas coût et sur une longue distance une quantité limitée
de données (l'équivalent d'un petit SMS). Une entreprise comme Clear Channel peut grâce à ce type
d’outil vérifier, sans se déplacer, que ses panneaux d'affichage sont bien en état de marche ; le groupe
s’assurance MAAF fait communiquer ses boîtiers alarme et incendie avec un smartphone ou avec le
commissariat le plus proche.
53 http://www.actualitte.com/economie/la-banque-goldman-sachs-investit-dans-la-societe-proquest-46116.htm
MS Marketing Management 2013-2013
43
Un beau succès qui fait parler à l’international, les experts télécoms de la Silicon Valley, au travers du
groupe Telecom Council, ont couronné Sigfox d’un Spiffy award qui la consacre "start-up la plus
innovante", mais qui, comme le montre la dernière levée de fonds attire aussi les investisseurs
étrangers et majoritairement américains (Intel Capital comme Intel Capital par exemple).
4.3 Faire de la France la nation des start-up numériques en Europe54
L’enjeu stratégique du « Big Data » est si fort qu’il est nécessaire d’avoir une position française voire
européenne fortement impliquée dans le financement tant public que privé de l’économie numérique.
Il est aussi important pour la France d’arriver à définir un cadre fiscale et juridique propre à protéger
ses entreprises et à encourager l’innovation.
4.3.1 Favoriser le financement
Différents leviers de financement peuvent jouer un rôle déterminant dans la promotion du
financement des start-up numériques françaises :
a. Renforcer le financement public
C’est l’objectif de la La Banque Publique d'Investissement (BPI) ou Bpifrance, un groupe public
français de financement et de développement des entreprises qui regroupe Oséo, CDC Entreprises, le
FSI et FSI Régions. Bpifrance est chargée de soutenir les petites et moyennes entreprises, les
entreprises de taille intermédiaire et les entreprises innovantes en appui des politiques publiques de
l'État. Elle été créé par le gouvernement Ayrault par la loi du 31 décembre 2012. Elle est présidée par
Jean-Pierre Jouyet et dirigée par Nicolas Dufourcq, ex-directeur financier et numéro deux de
Capgemini. Les secteurs privilégiés sont le numérique, les biotechnologies et les éco-industries et
l’établissemnt envisage d’investir 9,2 milliards d’Euros directement dans des entreprises d’ici 2017.
Les fonds privés alimentés par la banque investiront quant à eux 2,7 milliards d’Euros. Par ailleurs, la
BPI a lancé en février 2012 deux nouveaux outils de financement : le prêt pour l'innovation (PPI) et le
pré-financement du crédit impôt recherche (CIR).
De bonnes initatives à condition que que les fonds alloués à la BPI ne soit pas, pour des raisons
politiques, déviés vers la sauvgarde d’entreprises en difficultés (Heuliez, Petroplus...) mais continuent
bien à construire l’avenir.
54 54 Ce titre s’imspire des propos de Fleur Pellerin : http://www.latribune.fr/technos-medias/20131212trib000800692/fleur-pellerin-faire-de-la-france-la-nation-des-start-ups-en-europe-.html
MS Marketing Management 2013-2013
44
b. Encourager le financement participatif : le crowdfinding
La finance participative, ou crowdfunding, est une expression décrivant tous les outils et méthodes de
transactions financières qui fait appel à un grand nombre de personnes pour financer un projet.
Ce mode de financement se fait sans l'aide des acteurs traditionnels du financement, il est dit
désintermédié. L'argent peut être collecté sous forme de dons, de prêts rémunérés ou non, ou, dans le
cas d'une entreprise, de parts de capital.L'émergence des plateformes de finance participative a été
permise grâce à internet et les réseaux sociaux. Et connaît un succès grandissant, c'est une
révolution", a estimé la ministre de l'Innovation et des PME, Fleur Pellerin, en guise d'introduction
aux Assises de la finance participative en septembre 2013. Toujours selon la Ministre, le financement
participatif a déjà permis de soutenir 60.000 projets.Pour renforcer ce type de financement, le
gouvernement envisage d’adapter la législation en 2014, d'alléger certaines procédures et contraintes
avec pour but d'offrir un cadre "à la fois souple et protecteur" pour développer cette activité qui
représente déjà plusieurs milliards de dollars aux Etats-Unis mais reste marginale en France, même
si elle connaît une forte croissance, a expliqué la ministre.
c. Les fonds de capital risque
Le capital-risque français manque de moyen : les fonds de capital-investissement étrangers sont très
présents et très actifs. Ils ont participé à six des dix levées de fonds réalisées par des start-up
françaises de l'Internet entre le 1 juin 2012 et le 30 juin 2012. A titre d’exemple en septembre 2012,
Criteo a engrangé 30 millions d'Euros, dans le cadre d'un tour de table réunissant les fonds
d'investissement américains Softbank Capital, Adams Street, Bessemer Venture Partners, ainsi que
SAP Ventures. Plus récemment encore, les 100 millions d'Euros levés par Deezer, en octobre 2012, lui
ont été apportés par le fonds d'investissement américain Access Industries.
Les fonds de capital-risque français ne sont pas présents au capital des stars françaises de l'Internet
par manque de moyens. Au premier semestre 2012, le capital-investissement français a levé 1,8
milliard d'Euros seulement, auprès d'investisseurs institutionnels et particuliers, soit 28% seulement
des fonds levés sur l'ensemble de l'année 2011. Et les choses ne vont pas s’arranger avec les futures
réglementations Bâle III et Solvabilité II, relatives au renforcement des fonds propres des banques et
des assureurs européens, qui restreignent la capacité de ces derniers à continuer à jouer leur rôle de
traditionnels pourvoyeurs de fonds du capital-investissement. Résultat, les investissements du
private equity français dans des PME et des start-up ont chuté de 43%, au premier semestre, à 2,3
milliards d'Euros. Il doit donc y avoir un débat du capital-risque français doit porter non seulement
sur les contraintes financières te réglementaires mais aussi sur les modalités d'exercice de celui-ci car
si l'offre et la demande sont importantes, elles ne se rencontrent que difficilement ce qui laisse la
porte ouvertes aux investisseurs étrangers.
MS Marketing Management 2013-2013
45
d. Stabiliser la fiscalité
L’État doit aussi préserver une certaine stabilité réglementaire afin de permettre aux entreprises de
continuer à bénéficier de certains dispositifs fiscaux en faveur de l'investissement comme le crédit
d’impôt recherche et le dispositif ISF-PME qui permet en cas d'investissement dans les PME non
cotées, une réduction d’impôts de 50 % des sommes investies et plafonnée à 45 000 €.
Ce type d’avantages favorise l’investissement privé comme ceux des « business angels » même si la
France reste très largement en retard par rapport aux Etats-Unis ou la Grande-Bretagne. « A PIB
égal, les investissement des Angels aux Etats-Unis sont 30 fois plus important qu’en France donc on
a encore du chemin à faire », précise Jean-David Chamboredon55. Surtout, la taille médiane des
montants des tours de tables a tendance à baisser. Il faut dire que le principal avantage fiscal possible
pour ce type d’investissement – la défiscalisation de la plus-value à la sortie - n'est encore pris en
compte en France qu'à la marge, et impose à l'investisseur de réaliser son investissement à travers un
outil d'investissement limité en montant, le PEA (Plan d'Epargne en Actions), contrairement à
plusieurs autres pays.
Fig n°9: French Internet Business Angel, Money Yardstick (janvier 2013)
55 http://www.maddyness.com/finance/2013/07/11/rapport-fibamy/
MS Marketing Management 2013-2013
46
4.3.2 Façonner un cadre juridique propre à l’innovation
Deux aspects du droit jouent un rôle déterminant pour favoriser l’innovation : la protection de la
propriété intellectuelle et le principe de précaution qui encadre notamment les risques
technologiques.
La protection de la propriété intellectuelle française, définie par le Code de la propriété
intellectuelle, est bien développée puisque la France est classée n°12 selon dans le classement du
Word Economic Forum56 mais elle devra continuer à évoluer régulièrement et à la cadence dictée par
les progrès technologiques.
Les systèmes français et européen57offrent de nombreux avantages : efficacité, réduction des coûts,
souplesse et simplicité. Les démarches pour enregistrer et protéger ses innovations peuvent être
effectuées en ligne (dépôts de brevets, enregistrements de marques, etc.). Les coûts et les difficultés
minimes de ces systèmes pour les demandeurs, permettent aux petites et moyennes entreprises et
aux créateurs particuliers de se protéger facilement. C’est un atout pour l’innovation en France.
Le principe de précaution, qui encadre les risques technologiques58, a été défini comme tel : « selon
lequel l'absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment,
ne doit pas retarder l'adoption de mesures effectives et proportionnées visant à prévenir un risque de
dommages graves et irréversibles à l'environnement à un coût économiquement acceptable. »59. Ce
principe de précaution vise ainsi à garantir un niveau élevé de protection de l’environnement grâce
des prises de décision préventives en cas de risque. Les évolutions numériques en particulier le sujet
de la protection des données font désormais partie de ces débats et opposent ceux qui pensent qu’il
faut créer un principe de précaution numérique et eux qui pensent, au contraire, que les entreprises
doivent pouvoir prendre des risques pour innover.
Pour Stéphane Grumbach, directeur de recherche à l'Institut national de recherche en informatique
et automatique et Stéphane Frénot, professeur des universités au laboratoire CITI de l'Institut
national des sciences appliquées de Lyon « Autoriser la collecte, le stockage et l'exploitation des
données d'une manière limitée, définie a priori et répondant strictement au besoin de services
particuliers, c'est fermer la porte à l'évolution des services numériques. Or, la société de l'information
56 Le Forum économique mondial (World Economic Forum) est une fondation à but non lucratif dont le siège est à Genève. Le Forum est connu pour sa réunion annuelle à Davos, en Suisse, qui réunit des dirigeants d’entreprise, des responsables politiques du monde entier ainsi que des intellectuels et des journalistes, afin de débattre des problèmes les plus urgents de la planète, y compris dans les domaines de la santé et de l’environnement. 57 Trois organismes sont responsables de la propriété intellectuelle: au niveau national: Institut national de la propriété industrielle ; au niveau européen: Office de l'harmonisation dans le marché intérieur ; au niveau international: Organisation mondiale de la propriété intellectuelle. 58 Principe de précaution mentionné dans l’article 191 du traité sur le fonctionnement de l’Union européenne (UE). 59 Article L110-1 du Code de l’environnement
MS Marketing Management 2013-2013
47
est en pleine évolution, nous n'avons aujourd'hui qu'une idée imprécise des services qui seront
disponibles dans dix ans ».60
Déjà en 2008, la Commission pour la libération de la croissance française, ou, du nom de son
président Jacques Attali, la « Commission Attali », est chargée par le Président de la République
Française Nicolas Sarkozy de rédiger un rapport fournissant des recommandations et des
propositions afin de relancer la croissance économique de la France. Les travaux avaient débuté en
juin 2007 et lors du rendu du rapport final le 23 janvier 2008, la Commission avait souligné le côté
pénalisant pour l’innovation d’un principe de précaution constitutionnalisé, trop imprécis et surtout
conçu comme une obligation de s’abstenir dans le doute61.
Trouver un équilibre entre innovation, compétitivité et respect de la vie privée, c’est la commission
d’évaluation des politiques d’innovation mise en place, au sein du Commissariat général à la stratégie
et à la prospective, par Jean-Marc Ayrault en novembre 2013.62 « Moyennant une règlementation
équilibrée, notre pays pourrait devenir le terreau d’innovation d’usage dans le domaine du Big Data »,
estime Anne Lauvergeon qui préside cette commission. Pour ne pas étouffer l’innovation, elle
recommande de ne pas trop légiférer dans ce domaine et de préserver un certain « droit à
l’expérimentation ». Il s'agit d'évaluer l'efficacité et le bien-fondé de certaines pratiques permettant
l'exploitation des données, avant de réfléchir à un possible encadrement législatif.
Pour rappel, aux ÉtatsUnis, il n’existe pas de corps unique de règles protégeant la vie privée mais des
réglementations sectorielles. Les Lois sont donc différentes dans les 50 États sur les questions de
sécurité informatique et de protection de la vie privée.
En parallèle des réflexions françaises, l’Europe a décidé de réviser la directive 95/46/CE car cette
ancienne législation n'avait pas prévue l'essor d'Internet, des moteurs de recherche et des réseaux
sociaux. L'objectif était d'aboutir à un texte définitif «avant les élections européennes de mai 2014».
Mais depuis le Conseil Justice et Affaires intérieures de l’UE des 5-6 décembre, où les Etats membres
ne sont pas parvenus à s’entendre sur un nœud bloquant de leurs négociations, la perspective d’une
définition prochaine par le Conseil de sa position, et donc d’une adoption du règlement avant les
élections de mai 2014, s’éloigne. Il est plus probable que le règlement serait adopté fin 2014 ou début
2015, pour une mise en œuvre deux ans plus tard. Il n’est d’ailleurs pas inutile de préciser que ce qui
est proposé par la Commission européenne est un règlement, c'est-à-dire un instrument directement
applicable dans le droit des États membres et qui formera la loi unique des États membres
(contrairement à une directive qui ne fait que définir un résultat à atteindre, laissant aux États une
autonomie dans la définition des moyens, ce qui laisse coexister autant de législations nationales
60 Propos extrait d’un article du monde http://www.lemonde.fr/idees/article/2013/04/15/vers-un-principe-de-precaution-numerique_3160109_3232.html 61 http://www.ladocumentationfrancaise.fr/var/storage/rapports-publics/084000041/0000.pdf 62 http://www.strategie.gouv.fr/blog/wp-content/uploads/2013/11/CP-Plan-innovation-OK.pdf
MS Marketing Management 2013-2013
48
distinctes).
L’objective de cette révision est d’obliger les entreprises non européennes (comprendre, américaines)
à respecter scrupuleusement la loi européenne, qui introduirait la notion de « consentement explicite
» sur la collecte des données personnelles. En cas de désobéissance, elles pourraient faire face,
d’après le New York Times, à des amendes allant jusqu’à 5% de leur chiffre d’affaires annuel.
Un autre axe de réfléxion consite à developper la certification, en France il y a désormais un premier
prestataire certifié « marque NF461 » 63. En effet, depuis janvier 2013, il est possible d’obtenir une
marque « NF » 64en matière d’archivage électronique, délivrée par AFNOR 65Certification, organisme
agréé par le Cofrac (Comité français d’accréditation), unique organisme d’accréditation en France.
Via la marque « NF 461 », tout système d’archivage électronique (SAE) peut être certifié, qu’il s’agisse
d’une offre de SAE en interne, ou qu’il s’agisse d’un service de SAE proposé par à un prestataire à ses
clients. Le respect des règles de certification de la marque NF461 permet de garantir « aux documents
conservés leur fidélité, intégrité, pérennité et traçabilité, pour que ceux-ci puissent conserver leur
valeur d’origine ».Le 2 mai 2013, Locarchives66, membre de l’Aproged67 vient déjà d’obtenir la
certification « marque NF 461 », aussi bien pour ses services de conservation que de numérisation.
4.3.3 La fiscalité 3.0
L’autre arme de la France pour lutter contre l’influence des géants américains (Google, Amazon,
Facebook,…), c’est la fiscalité. Une nouvelle fiscalité d'Internet, assise sur la collecte des données, est
envisagée dans le rapport sur l'économie du numérique, confié en juillet 2012 au conseiller d'État
Pierre Collin et à l'inspecteur des finances Nicolas Colin68. Ce rapport suggère des négociations
internationales pour mieux imposer les géants du Web. En attendant, une taxe est proposée au
niveau national, sur le modèle de la «taxe carbone», cette taxe s'appliquerait aux pratiques de
collecte, de gestion et d'exploitation commerciale de données personnelles issues d'utilisateurs
localisés en France». Ce serait un moyen de contraindre Apple, Google, Facebook ,… à payer pour
l'utilisation des informations collectées sur les internautes en France. La Commission européenne a
lancé officiellement un groupe de travail chargé de remettre, au premier semestre 2014, des
propositions destinées à combattre l'optimisation fiscale des multinationales du Web mais arriver à
un consensus européen est assez difficiles puisuqe certains Etats membres octroient à certains géants
du Net un véritable asile fiscal. C'est le cas de l'Irlande et du Luxembourg.
63 http://www.aproged.org/index.php/Association/Deja-un-premier-prestataire-certifie-marque-NF461.html 64 La marque NF est une marque collective de certification attestant de la conformité à des caractéristiques de sécurité et de qualité. 65 L'association AFNOR et ses filiales constituent un groupe international au service de l'intérêt général et du développement économique. Il conçoit et déploie des solutions fondées sur lesnormes, sources de progrès et de confiance. Il est organisé autour de 4 grands domaines de compétences : lanormalisation, la certification, l’édition de solutions et services d’information technique et professionnelle et la formation. 66 LOCARCHIVES, tiers archiveur, propose des solutions d'archivage externalisées et accompagne dans l'organisation de la gestion de documents. 6767 Aproged - Association de la Maîtrise et de la Valorisation des Contenus. 68http://www.senat.fr/espace_presse/actualites/201301/fiscalite_du_numerique_vers_une_taxe_sur_la_collecte_et_la_detention_des_donnees_personnelles.html
MS Marketing Management 2013-2013
49
CONCLUSION
La France qui peinait à rattraper son retard sur les Etats-Unis en termes d’industrie informatique et
de bases de données dans les années 60 et 80 ; qui abordait les autoroutes de l’information dans les
années 80 et 90 par les usages qu’elles allaient permettre, tandis que les Américains s’intéressaient à
la compréhension et à l’utilisation des informations qu’elles allaient transmettre, cette France s’est
vue distancée de façon spectaculaire par les « GAFA » (Google, Amazon, Facebook, Apple et autres
Twitter) pour la récolte et la valorisation des données produites par les utilisateurs.
L’essor du « Big Data » cristallise ainsi la puissance des GAFA qui viennent rivaliser sans états d’âme
avec les États sur certains de leurs domaines réservés (éducation, fiscalité…).
La France a-t-elle raté l’enjeu du « Big Data » ? Certainement si l’on considère la puissance des
« GAFA ». Certainement également si l’on considère la capacité des Etats-Unis à valoriser au plan
économique leurs gigantesques investissements en matière de cybersécurité.
Pour autant, la valeur du « Big Data » c’est aussi la capacité à valoriser les données et surtout à leurs
donner du sens. La France l’a, enfin !, bien compris et peut s’appuyer sur un réseau d’ingénieurs et
d’entrepreneurs de talents pour envisager de devenir la nation des start-up numériques en Europe à
condition que soient adressées énergiquement les problématiques de financement des jeunes
entreprises, de fiscalité, d’attractivité de la marque « France » et que les initiatives des pouvoirs
publics aient de la persistance au-delà des effets d’annonce et des alternances politiques.
MS Marketing Management 2013-2013
50
REMERCIEMENTS
Nous tenons à remercier toutes les personnes qui ont participé de différentes façons à la rédaction de
ce rapport et plus particulièrement les personnes que nous avons eu le plaisir d’interviewer dans le
cadre de ce travail et que nous citons ci-dessous :
- Monsieur Patrick BEJA, Journaliste69
- Monsieur Olivier DESBIEY, Responsable Innovation and Foreseight, Commission nationale
de l'informatique et des libertés (CNIL)
- Monsieur Antoine FOBE, Chargé des relations institutionnelles, Service des affaires
européennes et internationales, Commission nationale de l'informatique et des libertés
(CNIL)
- Monsieur Nicolas GLADY, Professeur Associé à l’ESSEC Business School, Département
Marketing,
- Madame Fleur PELLERIN, Ministre déléguée auprès du ministre du Redressement productif,
chargée des Petites et Moyennes Entreprises, de l'Innovation et de l'Economie numérique
- Monsieur Jean-Michel TREILLE, Président de la société GAPSET70, ancien membre du
Commissaire général au Plan
69 http://patrickbeja.com 70 http://www.gapset.com/fr
MS Marketing Management 2013-2013
51
BIBLIOGRAPHIE
Rapports
GALLOIS Louis, Rapport au Premier Ministre "Pacte pour la compétitivité de l'industrie
française", novembre 2012
BOCKEL Jean- Marie, Rapport d’information au Sénat n°681 « La cyberdéfense : un enjeu
mondial, une priorité nationale », déposé le 18 juillet 2012
SINE Alexandre, GARCIN Cédric, HAUSSWALT Pierre, Rapport du ministère de l'Economie,
des Finances et de l'Industrie, du ministère du Budget, des Comptes publics et de la Réforme
de l'Etat et de l'IGF, « Le soutien à l'économie numérique et à l'innovation », janvier 2012
Rapport du Secrétariat du Conseil de l'Europe, « La gouvernance de l'Internet et ses
ressources critiques », mai 2009
Ministère de la Défense, « Le Livre blanc sur la défense et la sécurité nationale » rapport
rendu public par le président de la République le lundi 29 avril 2013
COLLIN Pierre, COLIN Nicolas, Rapport au Ministre de l’économie et des finances, au
Ministre du redressement productif, au Ministre délégué chargé du budget et à la Ministre
chargée des petites et moyennes entreprises, de l’innovation, et de l’économie numérique
« Mission d’expertise sur la fiscalité de l’économie numérique », janvier 2013
Etudes
Ernst & Young, « Comportements culturels et données personnelles au cœur du Big Data – Entre
nécessaire protection et exploitation au service des équilibres ». Etude rédigée sous la direction de
Bruno Perrin, Fabrice Natft Alski et Régis Houriez, 2013
Etude mondiale PwC sur la sécurité de l’information, la protection des données et leur alignement avec
les besoins métiers – 15ème édition. Etude diffusée en France sous la direction de Philippe Trouchaud
YIU Chris, “The Big Data Opportunity: Making government faster, smarter and more personal”, 2012
McKinsey&Company Global Institute, “Big data: The next frontier for innovation, competition, and
productivity”, mai 2011
Livres
FAYON David, « Géopolitique d'Internet - Qui gouverne le monde ? », Economica, Paris,
mars 2013
MASSIT-FOLLEA Françoise, « La gouvernance d'Internet », Les Cahiers du numérique,
vol.3, 2002
BRASSEUR Christophe, « Enjeux et usages du big data. Technologies, méthodes et mises en
œuvre », Paris, Lavoisier, 2013
MS Marketing Management 2013-2013
52
MOUNIER-KUHN Pierre-Eric, « Le Plan Calcul, Bull et l’industrie des composants : les
contradictions d’une stratégie », Revue historique, 1995, vol. CCXC n° 1, 123-153
Articles
GRUMBACH Stéphane, « Les données, puissance du futur », article publié dans le monde le 7
janvier 2013
GRUMBACH Stéphane et FRENOT Stéphane, « Vers un principe de précaution
numérique ? », article publié dans le monde le 15 mars 2013
GUEUGNEAU Romain, « Le "big data" peine à décoller en France », article publié dans Les
Echos le 4 avril 2013
CUNY Delphine, “Big Data" is big business, vraiment !”, article publié dans La Tribune le
avril 2013
Sites de référence
http://intgovforum.org/cms Site de l'Internet Gouvernance Forum
http://cybergeopolitik.blogspot.fr Blog géopolitique et enjeux politiques
http://réseaux.blog.lemonde.fr Blog de Dominique Lacroix, analyste et présidente de la SEI
http://intelligence-strategique.eu Blog avec des informations cyberstratégiques
http://www.blogmeter.it/
http://patrickbeja.com
http://www.usine-digitale.fr/
MS Marketing Management 2013-2013
53
GLOSSAIRE DES ABREVIATIONS
CAE : Compagnie européenne d’Automatisme Electronique
CAS : Centre d’Analyse Stratégique
CEA : Commissariat à l’Energie Atomique et aux énergies renouvelables
CENT : Centre National d'Etudes des Télécommunications (ancien nom de France Télécom R&D.
Désormais connu sous le nom de Orange Labs)
CGE : Compagnie Générale d'Électricité
CGP : Commissariat Général au Plan
CII : La Compagnie Internationale pour l'Informatique
CNES : Centre national d’Etudes Spatiales
CNIL : Commission Nationale de l'Informatique et des Libertés. La CNIL est chargée de veiller à ce
que l’informatique soit au service du citoyen et qu’elle ne porte atteinte ni à l’identité humaine, ni aux
droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. Elle exerce ses
missions conformément à la loi no 78-17 du 6 janvier 1978 modifiée le 6 août 2004
CNRS : Centre National de la Recherche Scientifique
COPEP : Commission Permanente de l’Electronique du Plan
CSF: Compagnie générale de la télégraphie sans fil
DGA : Direction Générale de l'Armement
DGRST : Délégation Générale à la Recherche Scientifique et Technique. Cet organisme de
l'administration française dépend des services du Premier ministre et a pour mission de coordonner
les actions décidées par le gouvernement, les universités et le CNRS dans le domaine de la recherche
et des technologies
GPS : Global Positioning System (qui peutêtre traduit par « système de localisation mondial »)
FBI : Federal Bureau of Investigation (qui peut être traduit par « Bureau fédéral d'enquête »)
FSN : Fond national pour la Société Numérique
INRIA : Institut National de Recherche en Informatique et en Automatique
IRIA : Institut National de recherche en Informatique et en Automatique
LOG: symbole mathématique du mot logarithme
NSA : National Security Agency (qui peut être traduit par « Agence nationale de la sécurité »)
OTT : Over The Top. Se dit d'un diffuseur qui utilise l'infrastructure de l'opérateur pour fournir son
service. Par exemple, les services de vidéo à la demande tels que Netflix ou Hulu sont des OTT car ils
utilisent le réseau internet pour fournir leur service à leurs abonnés.
RFID : abréviation qui signifie « Radio Frequency Identification » (en français, « Identification par
Radio-fréquence»)
SEA : Société d’Electronique et d’Automatisme
MS Marketing Management 2013-2013
54
LISTE DES TABLEAUX ET ILLUSTRATIONS
Fig. n°1 : Échelle comparative de mesure des données numériques……………………………………………………………6
Fig. n°2 : Les « 3V » du Big Data……………………………………………………………………………………………………………7
Fig. n°3: Data, raw material of the 21 st century………………………………………………………………………………………8
Fig. n°4: Poids des moteurs de recherche……………………………………………………………………………………………….9
Fig. n°5: The World Map of Social Networks…………………………………………………………………………………………..10
Fig. n°6: Évolutions des capacités de stockage mondiales………………………………………………………………………..10
Fig. n°7: Big Data can generate significant financial value across sectors…………………………………………………..12
Fig. n°8: Some sectors are positioned for greater gains from the use of Big Data………………………………………..13
Fig n°9: French Internet Business Angel, Money Yardstick (janvier 2013) ………………………………………………48