Académique Documents
Professionnel Documents
Culture Documents
RÉDIGÉ PAR
Le club influence de l'EGE
Intelligence Artificielle : les normes comme outil d’influence
_________
Antoine Bovet
Quentin De Gryse
Mathis M. Hauser
Thibault Jaffré
Coraline Joly
Titouan Le Menes
Ambre Le Sommer
Alexandre Perfetti
Yves-Marie Rocher
Arnaud Roschi
Maxine Suné
_________
Avec le soutien de Louis Morilhat, Chargé de mission - Grand Défi Intelligence Artificielle à
l’AFNOR
Table des matières
Executive Summary : .............................................................................................................................................................. 3
Remerciements : ...................................................................................................................................................................... 7
Introduction .............................................................................................................................................................................. 9
Historique ....................................................................................................................................................................................................... 9
Définition de l’IA ....................................................................................................................................................................................... 10
Définition de la souveraineté numérique ...................................................................................................................................... 10
Les enjeux .................................................................................................................................................................................................... 12
Conclusion ................................................................................................................................................................................ 88
Annexes ..................................................................................................................................................................................... 90
Executive Summary :
L’Intelligence Artificielle (IA) fait partie des termes les plus utilisés lorsqu’on évoque le futur de
l’économie. Au-delà d’être une tendance de fond, les investissements s’y succèdent et il est
souvent promis que les acteurs qui ne s’y adaptent pas sont destinés à perdre en compétitivité
dans les années futures.
Cette discipline, qui date en réalité du milieu des années 1950 se définit par Cédric Villani
comme étant « moins un champ de recherches bien défini qu’un programme, fondé autour
d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la
reproduire ; créer des processus cognitifs comparables à ceux de l’être humain »1. A partir de
cette définition il est compréhensible que dans un monde régi par l’hypercompétition, les
enjeux technologiques, économiques, culturels voire civilisationnels qui découlent de cette
technologie sont considérables. En effet, le développement de l’IA est une course dans laquelle
s’opposent des visions bien différentes, mettant chacune en place des stratégies d’influence.
Parmi les leviers utilisés par les acteurs, la normalisation représente le canal d’application
technique de ces visions, et donc un vecteur d’influence majeur.
A la suite d’une tentative de définir la souveraineté numérique, concept clé sans lequel aucune
politique de puissance dans la technologie n’est possible, le rapport fait état des grands enjeux
de l’IA. Quatre domaines ont été relevés dans notre rapport pour le développement d’un
écosystème national puissant :
● L’accès aux données : Les bases de données (BDD) sont à la base du développement
d’algorithmes performants. Dans ce contexte, la récolte de données et les conditions
dans laquelle elle est faite sont donc primordiales. Au-delà de la simple accumulation
d’informations, ces BDD devraient prendre en compte deux critères importants : le
volume d’information et la qualité.
● Le soutien du secteur privé : Des business Angels en passant par les fleurons nationaux
et des fonds d’investissement, l’IA doit être appuyée par une force de frappe financière
conséquente.
● La recherche : Pour permettre le développement de l'IA en France, la législation doit
absolument distinguer l'exploitation des données pour la R&D des autres domaines. Ceci
afin de permettre l'innovation et l'exploitation de modèles d'IA à grande échelle qui par
la suite pourront être encadrés et réglementés. Au niveau du secteur privé, la mise en
place de data lakes est une solution qui a su prouver son efficacité.
1 Cédric Villani. (2018, mars). Rapport : Donner un sens à l’intelligence artificielle. AI For Humanity.
https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf
● Le soutien du politique : vu comme la capacité à créer un cadre favorable à l’apparition,
au développement et à l’accompagnement de chercheurs, des institutions ou des
entreprises pouvant amener des innovations dans le secteur de l’IA. Le soutien du
politique passe par un encadrement juridique, la création d’une puissance
d’investissement vers les secteurs et technologies innovantes ainsi que la mise en place
d’un arsenal pour encourager la collaboration entre les entreprises, les institutions
publiques et les universités.
Le rapport se concentre sur trois acteurs majeurs de la course à l'IA, soit la France et l’Union
Européenne (qui ont une stratégie plus ou moins commune), la Chine et les Etats-Unis. La
stratégie nationale de développement de chacun de ces pays en matière d’IA est ainsi
décryptée.
La France, depuis le rapport Villani (2018) qui visait à établir une stratégie nationale pour l’IA, a
conduit des investissements pour développer son écosystème. Le pays a décidé de se
concentrer sur quatre secteurs clés dont la santé, la mobilité, la sécurité et la défense ainsi que
l’environnement, mais de nombreux efforts restent à faire.
La Chine, quant à elle, a fait de l’IA une “technologie stratégique”, pour laquelle le pays vise à
devenir le leader mondial du secteur à l'horizon 2030. Le pays place un point particulier sur le
secteur de la défense.
Aux Etats-Unis, l’“American AI Initiative” a pour objectif de donner toutes les chances aux États-
Unis de maintenir et creuser leur leadership mondial dans le secteur face à la Chine.2
L'implémentation de cette stratégie passera par une multitude de mesures qui vont être mises
en place dans les agences fédérales. Le pays place la R&D dans le domaine de l’IA comme une
priorité.
Parmi les outils utilisés pour mettre en place ces stratégies, la norme constitue un levier
d’influence particulièrement important car elle permet de façonner le marché dans ses intérêts.
Les stratégies d’influence normative des trois mêmes acteurs susmentionnés sont donc
décryptées à l’aide d’études de cas.
La France et plus particulièrement l’Union Européenne, veulent adopter un package de règles
harmonisées afin que les systèmes d’IA soient sûrs, transparents, éthiques, impartiaux et sous
contrôle constant de l’Humain. Ce cadre réglementaire et normatif européen a pour finalité de
déboucher sur la délivrance pour les fournisseurs d’IA d’un marquage de conformité
européenne (CE), s’appuyant justement sur un corpus de normes.
La Chine, dans le cadre du programme China Standards 2035 a adopté une stratégie qui passe
par sa présence accrue au sein des principaux organismes de normalisation, à savoir
l’International Organization for Standardization (ISO) et l’International Electrotechnical
2 Lynne Parker. (2020, 11 juin). The American AI Initiative : The U.S. strategy for leadership in artificial intelligence
https://oecd.ai/en/wonk/the-american-ai-initiative-the-u-s-strategy-for-leadership-in-rtificial-intelligence
Commission (IEC). Elle passe également par la constitution de normes nationales sur les
innovations chinoises en la matière. Pionnière dans le domaine, la Chine vise à dominer par la
norme les nouvelles technologies en établissant notamment les standards d’interopérabilité.
Les Etats-Unis, forts de leur position de leaders et du rôle majeur que jouent les GAFAM sur la
scène numérique internationale arrivent à faire de leurs normes de facto des normes
institutionnelles, parce que leur technologie est leader sur le marché, ou simplement parce que
cette position de leader leur permet d’exercer une influence significative dans les groupes de
travail de normalisation.
Aussi :
● Faire de l’éthique un critère de conformité pour la mise sur le marché européen des
systèmes d’IA
● Mettre en place des hubs d’innovations regroupant l’ensemble des acteurs d’une chaîne
de valeur
● Le ciblage et la priorisation des normes associés à un renforcement du positionnement
dans les groupes de travail
● Attribuer des subventions aux TPE/PME/start-up du secteur de l’IA afin de les aider à
dégager des ressources pour contribuer à la normalisation
● Attribuer des subventions spéciales dans la normalisation de secteurs stratégiques tels
que l’Intelligence Artificielle.
● Encourager la création d’un incubateur normatif qui s’appuierait sur un laboratoire de
recherche scientifique, un N.I.S.T à la française
● Mutualiser les forces dans la normalisation de l’IA à travers des champions nationaux
soutenus par des PME/TPE du domaine
● Favoriser l’émergence des communs numériques et de l’open-source
● Favoriser une gouvernance commune Data et IA
Remerciements :
Par ces quelques lignes qui nous sont offertes, nous souhaiterions dans un premier temps
remercier l’Association Française de Normalisation (AFNOR) qui nous a fait confiance pour
assurer la vulgarisation et formuler des recommandations sur un sujet d’une importance
capitale : la normalisation de l’Intelligence Artificielle (IA). C’est donc avec une grande fierté
que nous faisons paraître ce rapport qui nous l'espérons sera utile pour sensibiliser les lecteurs
à l’importance de la normalisation dans l’IA et son impact sur notre futur.
Ce dossier est le fruit d’un travail collectif réalisé par 11 étudiants du club Influence de l’AEGE
et en tant qu’étudiants de l’École de Guerre Économique, il nous a paru important de prendre
en considération les différentes stratégies concurrentes à l’international et d’analyser le plus
finement possible les rapports de force dans lesquelles la France est impliquée lorsque l’on
considère les différentes facettes de la normalisation et de l’IA. La normalisation étant une
question d’influence par le marché, la rédaction de ce rapport, nous a permis d’appréhender le
milieu et ses enjeux et de vous partager nos conclusions aujourd’hui.
Le fait que ce rapport soit disponible à tous nous laisse l’espoir qu’il soit lu du plus grand nombre
et que l’importance d’un contrôle éthique de l’IA par la norme trouve sa place dans les débats
publics afin que chacun puisse apporter et construire une réflexion autour de ce sujet complexe
qui impactera sans aucun doute notre avenir collectif.
Nous restons cependant conscients de l’aspect théorique de nos travaux, les réalités nationales
comme mondiales étant mouvantes. Mais en nous appuyant sur les fondamentaux qui nous ont
été enseignés, nous avons construit nos résumés et recommandations de façon fondée et en
évitant la spéculation pour que notre propos se rapproche au plus près de la réalité.
Pour alimenter nos recherches tout au long de ce rapport nous nous sommes appuyés sur
plusieurs types de sources, scientifiques et gouvernementales, mais nous avons aussi eu
l’occasion d’échanger avec des experts de la normalisation, de l’IA et de la data dans le but
d'affiner notre compréhension du sujet et pour que nos recommandations soient les plus fiables
et concrètes possibles.
Nous tenons donc à remercier tous les acteurs qui ont permis à ce rapport de voir le jour en
commençant par Patrick Bezombes, Président de la commission de normalisation IA et Big Data
de l’AFNOR pour la clarté de la vision qu’il nous a apporté. Pierre Deplanche, professeur agrégé
de l’IUT Dijon-Auxerre en Techniques de commercialisation et membre actif du CINNOV, pour
la valeur des informations qu’il nous a fourni et son aide à la compréhension des structures
normatives et de leurs influences. Nous remercions aussi Henri Sanson, Directeur de la
recherche sur les technologies de la décision et de la connaissance chez Orange pour ses
conseils et son aide précieuse.
Un grand merci aussi à Romain Schloesing et Louise Rowehy du club Data de l’AEGE qui nous
ont apporté leur soutien dans les premières phases de ce projet et qui nous ont permis de nous
concentrer sur certains aspects critiques de l’IA. Nous souhaitons aussi remercier Hugo Contard,
Responsable du club Influence de l’AEGE qui nous a donné l’opportunité de travailler sur ce
rapport et enfin, Louis Morilhat Chargé de mission sur le Grand Défi Intelligence Artificielle à
l’AFNOR qui nous a guidé et conseillé tout au long de ces derniers mois pour donner vie à notre
travail.
Historique
Il est communément admis que l’expression ”Intelligence Artificielle” est employée pour la
première fois en 1956. Cette année-là, lors de la conférence de Dartmouth, deux chercheurs
américains, Marvin Minsky et John McCarthy convainquent leur auditoire d’utiliser le terme
pour nommer l’objet de leurs recherches.3 Au milieu des années 50, l’informatique est alors en
plein essor et le besoin de structurer la vision de certains chercheurs se fait ressentir. Cette
vision fondatrice est explicitée par McCarthy lors de son intervention. L’Intelligence Artificielle
consiste pour le scientifique à créer une machine qui « soit douée de langage, puisse former
des concepts et des abstractions, et soit capable de résoudre des problèmes que pour l'instant
l'homme est seul à pouvoir traiter ».4 Cette discipline était, à l’époque, un mélange de
cybernétique (l’étude des « communications et de leurs régulations dans les systèmes naturels
et artificiels »), de traitement complexe de l’information et d’étude sur les réseaux neuronaux
formels (machines cherchant à imiter le fonctionnement du cerveau). Elle n’a cessé d’évoluer
depuis.5 Dans un contexte de guerre froide, ce programme a bénéficié dès son origine du
financement de l’armée américaine. Le double sens du mot “intelligence” signifiant également
renseignement traduit ainsi la dimension stratégique que l’IA a eu depuis son origine.
Conceptualisé dès les années 50, le domaine ne connaît sa maturité que bien plus tard, les
possibilités techniques ne permettant pas son exploitation. Les réseaux de neurones, un
domaine essentiel aujourd’hui en IA, ont ainsi été créés en 1986 mais n’ont subi une avancée
significative qu’à partir des années 2010. En effet, il a fallu attendre un contexte de profusion
des données (Big Data) s’ajoutant à une capacité de calcul computationnel ayant atteint un
niveau suffisant pour exploiter pleinement le potentiel des réseaux de neurones.
Ainsi, l’IA n’est pas un domaine nouveau et existe officiellement depuis plusieurs décennies et
son développement ne s’est pas fait de manière exponentielle. Elle se fonde sur une vision très
ancienne qui consisterait à créer des machines qui deviendraient à terme égales, voire
supérieures aux capacités humaines.
3
L’intelligence artificielle, 5 minutes par jour, Stéphane d’Ascoli
4 Georges, B. (2019, août 6). Quand les machines dépasseront les hommes. Les Echos.
https://www.lesechos.fr/2017/03/quand-les-machines-depasseront-les-hommes-1115024
5 Henno, J. (2017, août 21). 1956 : et l’intelligence artificielle devint une science. Les Echos.
https://www.lesechos.fr/2017/08/1956-et-lintelligence-artificielle-devint-une-science-181042
Définition de l’IA
Selon Cédric Villani, auteur du rapport parlementaire visant à recommander une stratégie pour
la France dans le domaine, l’Intelligence Artificielle est désignée comme étant « moins un
champ de recherches bien défini qu’un programme, fondé autour d’un objectif ambitieux :
comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus
cognitifs comparables à ceux de l’être humain »6.
Différentes formes d’IA existent, dont les plus connues sont le machine learning et le deep
learning. Le premier consiste pour un programme à apprendre à exécuter, à partir d’exemples,
des tâches pour lesquelles il n’aura pas été explicitement programmé. Le second, à l’origine de
la plupart des percées récentes, passe par le déploiement d’un réseau de neurones artificiels
préalablement entraîné.
Dans un rapport d’information8 sur le sujet, Thomas Courbe, directeur général des entreprises
du ministère de l’économie des finances et de la relance, définit la souveraineté numérique
comme « la capacité à établir les règles qui permettront d’utiliser le numérique, de contrôler
les impacts de ses usages et à disposer de l’autonomie sur les principales technologies qui vont
conditionner ces usages du numérique ».
Pour Thomas Courbe, l’IA fait partie de ces technologies critiques au même titre que les semi-
conducteurs et la microélectronique, le super calcul, le cloud et la maîtrise de la donnée, ou
encore la cybersécurité.
6 Cédric Villani. (2018, mars). Rapport : Donner un sens à l’intelligence artificielle. AI For Humanity.
https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf
7 ISO/IEC 22989 : AI system: engineered system that generates outputs such as content, forecasts,
https://www.assemblee-nationale.fr/dyn/15/rapports/souvnum/l15b4299-t1_rapport-information
Tendre vers une souveraineté numérique est un moyen de :
Aussi, depuis le 1er janvier 2022 et pour une durée de 6 mois, la France doit présider l’Union
Européenne (PFUE). Pour ce mandat, Paris en appelle de ses vœux au développement de la
souveraineté numérique de l’UE : “puissance, relance et appartenance” en sont les maîtres
mots. Dans ce contexte, l’Intelligence Artificielle prend une importance toute particulière et
peut apporter des réponses sur différents aspects nécessaires pour atteindre ces ambitions. La
R&D et les applications de ces technologies présentent à bien des égards des opportunités pour
l’ensemble des acteurs économiques et pour l’UE qui accuse un retard annuel estimé à 10
milliards d’euros9 par rapport aux investissements des leaders du secteur. La France et ses
partenaires européens vont donc devoir prendre le sujet à bras le corps afin de faire face aux
nombreux enjeux de développement, d’application et d’acceptation des technologies de l’IA
dans nos économies et sociétés.
A cela s'ajoutent les divergences entre ingénieurs qui persistent dans la conception même d’une
IA : une IA symbolique, basée sur des instructions algorithmiques à extrapoler est-elle plus
efficace qu’une IA numérique, basée sur la multitude de données et le machine learning ? De
fait, les applications de l’IA restent pour l’heure peu nombreuses. En outre, elles se cantonnent
dans leur grande majorité à des algorithmes visant à assister les humains, par exemple :
● Dans le secteur des transports : si des métros, des voitures ou des avions intègrent des
pilotes automatiques, ces technologies fonctionnent toujours sous la supervision
permanente d’un humain (une centrale de traitement pour les métros ; le pilote et le
co-pilote pour un avion ; le conducteur pour une voiture).
● Dans le secteur de la santé : si l’IA permet déjà de détecter des symptômes, des
tumeurs, ou d’opérer des patients via des appareils robotiques minutieux, un médecin
est toujours nécessaire, que ce soit au stade de la programmation (pour calibrer
l’appareil selon les caractéristiques du patient) ou au moment de l’opération elle-même
9 European Commission & European Investment Bank. (2021, juin). Artificial intelligence, blockchain and the future
of Europe : How disruptive technologies create opportunities for a green and digital economy.
https://www.eib.org/attachments/thematic/artificial_intelligence_blockchain_and_the_future_of_europe_en.pd
f
(pour contrôler les actions de la machine et aussi assurer la responsabilité légale en cas
de problème).
● Dans le secteur des réseaux et de de la data : l’IA et le machine learning permettent de
gérer des flux et des bases de données très importantes, pour les extraire ou trier les
différentes entrées ; néanmoins ici encore l’intervention humaine reste absolument
fondamentale pour indiquer à l’algorithme les critères de tri pertinents pour stratifier
les données et sélectionnées celles qui ont un intérêt.
Ainsi, si l’IA est bien artificielle, on ne peut la considérer intelligente pour autant, et encore
moins consciente. Elle est aujourd’hui un procédé semi-automatisé d’assistance et d’aide à la
décision, où l’intervention humaine reste obligatoire et nécessaire. Cependant, des
investissements croissants dans ce secteur dynamique devraient permettre de façonner l’IA de
demain : notamment dans le cadre du plan France 2030, la ministre de l’enseignement
supérieur, de la Recherche et de l’Innovation, Frédérique Vidal ayant annoncé une enveloppe
budgétaire de 2 milliards d’euros supplémentaires, notamment pour la formation d’experts en
IA.
Les enjeux
Partout dans le monde, l'augmentation des investissements devrait se poursuivre pendant
encore plusieurs années. Et pour cause, les grands groupes et les États prennent conscience de
la nécessité de prendre le train en marche et d’investir suffisamment tôt dans ce secteur car les
revenus issus des logiciels, matériels et services liés à l’IA devraient générer 500 milliards de
dollars d’ici 2023. Sachant qu’en 2022 déjà, une croissance de 20% est attendue amenant à des
revenus de 432,8 milliards de dollars10.
L'ambition est d'avoir des systèmes hautement automatisés, pouvant accompagner les
décisions humaines dans les environnements les plus complexes. Cette forme d’IA aboutie
pourra être déployée sur un nombre important de systèmes et de secteurs :
● Application militaire, satellitaire, spatiale
● Application sécuritaire, policière ou légale
● Application industrielle
● Application aux secteurs de la santé, de l’éducation
● Application dans tous les autres secteurs où le traitement de la data peut trouver une
utilité fonctionnelle (agences d’État, banques, marketing, politique, etc…)
Il est certain qu’une fois développée, l’IA va dégager des avantages concurrentiels
déterminants. Sur le plan national et diplomatique, les États qui auront développé une stratégie
tournée vers l’IA, que ce soit dans leur secteur public ou leur secteur privé, posséderont un
écosystème à même de dominer la scène internationale.
10 IDC Forecasts Companies to Increase Spend on AI Solutions by 19.6% in 2022. (2022, février). IDC : The premier
global market intelligence company. https://www.idc.com/getdoc.jsp?containerId=prUS48881422
Dans le domaine économique, elle permet d’optimiser la rentabilité d’un acteur en jouant sur
plusieurs facteurs classiques (dépenses, recettes, flux). Le concept d’AI-based micro-
optimisation promet aux entreprises, par un ensemble de micro-optimisations, d'accroître leurs
marges pour s’imposer face à des concurrents qui n'utiliseraient pas cette technologie. Ainsi, 9
entreprises sur 10 voient dans l’IA une opportunité de développement d’activité d’après une
étude du BCG (Boston Consulting Group) 11.
Depuis les années 2010, l’IA a connu un développement exponentiel. Les investissements dans
la recherche sur l’IA, les start-ups et les laboratoires du secteur ont augmenté de manière
exponentielle, pour atteindre 27 milliards de dollars par an. Ces chiffres doivent néanmoins être
nuancés car des technologies peuvent être qualifiées d’IA sans toutefois aller dans le sens de la
définition.
De ces éléments découlent une observation simple mais fondamentale : les entreprises et
organisations qui seront en avance dans la course à l’IA vont largement s’imposer face à celles
qui seront en retard. De même, au niveau individuel, les citoyens, professionnels et étudiants
qui auront une maîtrise et une connaissance des process IA suffisante pour travailler en synergie
avec ces nouvelles pratiques pourraient s’imposer très largement sur le marché du travail face
aux autres. La révolution IA devrait augmenter de 20% la productivité des entreprises
11 Khodabandeh, S., & Fehling, R. (2021, 9 septembre), “How to Win with Artificial Intelligence”, France FR.
https://www.bcg.com/fr-fr/publications/2019/how-to-win-with-artificial-intelligence-ai
Françaises, de 30% les entreprises américaines12. Mais elle pourrait aussi causer la disparition
ou la mutation de 30% à 55% des emplois à l’horizon 2050 13.
Partiellement nourrie par un imaginaire issu du cinéma de science-fiction, cette hostilité irrigue
assez largement la population occidentale qui peut voir d’un mauvais œil l’IA et donc les
opérations d’investissement dans ces technologies. Au-delà de ces fantasmes qui entourent
cette technologie, des problématiques émergent : sociale (destruction d’emplois, ubérisation),
écologique (pollution générée par une civilisation fondée sur le cloud, l’IA et la gestion des data)
ou de respect de la vie privée (utilisation de l’IA à des fins de justice, traitement des données,
responsabilité pénale de l’IA…). A titre d’exemple, aux États-Unis, pays pourtant
particulièrement libéral sur sa conception du marché de l’emploi, 27% des citoyens américains
déclarent craindre de perdre leur emploi à cause de l'automatisation rendue possible par l’IA ;
un chiffre qui atteint même 37% chez les 18-24 ans14.
Face à cette défiance, il est crucial que les États mènent des actions de communication auprès
de leurs citoyens afin de faire basculer les perceptions sur le sujet de l’IA. S’il n’est pas question
d’obtenir le soutien de toute la population sur cette problématique complexe – tant
éthiquement que techniquement – il est au moins nécessaire de neutraliser le sujet, c’est à dire
d’obtenir la neutralité et l’indifférence des réfractaires d’aujourd’hui au développement de
cette technologie.
Enfin, l’arrivée de l’IA dans nos quotidiens attise les jeux d’influence entre États et les
différences de vision du monde. La course à l’innovation est bien lancée et certaines puissances
ont déjà une avance difficile à combler pour les retardataires. La Chine, les Etats-Unis ou la
France, sont chacun dotés d’une road map pour continuer à coordonner leurs efforts sur le
moyen/long terme, preuve s’il en fallait que tous ont conscience que l’IA est une technologie
de rupture et d’avenir.
https://www.capital.fr/votre-carriere/lintelligence-artificielle-est-elle-destructrice-demplois-1366289
14 Douglas, J. (2019, 11 décembre). These American workers are the most afraid of A.I. taking their jobs. CNBC.
https://www.cnbc.com/2019/11/07/these-american-workers-are-the-most-afraid-of-ai-taking-their-jobs.html
Pour autant, les outsiders de cette compétition ont toujours des moyens d’imposer leurs
intérêts à condition d’intégrer le caractère asymétrique de ce rapport de force : ils peuvent ainsi
se positionner sur des niches industrielles, utiliser des pratiques d’influence réglementaire et
normative ou encore mener une forme de guérilla informationnelle offensive visant à miner la
crédibilité des grands acteurs adverses.
Il est indéniable que les enjeux de l’IA et de sa normalisation sont colossaux : ce rapport vise
ainsi à les explorer en profondeur afin de permettre aux lecteurs d’en saisir les implications tout
en offrant des axes d’orientations aux acteurs français pour naviguer entre les mastodontes que
sont la Chine et les Etats-Unis.
I - Enjeux de l'IA, applications et stratégies nationales
Dans ce contexte, la récolte de données et les conditions dans laquelle elle est faite sont donc
primordiales. Au-delà de la simple accumulation d’informations, ces BDD devraient prendre en
compte deux critères importants : le volume d’information et la qualité.15
Un large volume d’information permet d’améliorer l’efficacité de l’algorithme que ce soit dans
des exercices de deep ou de machine learning. Par exemple, si la mission d’une IA est de
reconnaître des images de trottinettes, un large volume d’images initiale permettra à
l’algorithme de prendre en compte plus de configurations et d’éléments possibles pour
finalement faire en sorte que ce dernier puisse apprendre à faire la différence entre un vélo et
une trottinette. À l’inverse, une base de données trop faible en volume augmentera le risque
d’échec car l’IA pourrait manquer d’informations, ne reconnaître que deux roues et un guidon
et identifier une image comme étant une trottinette alors qu’il s’agit d’un vélo ou d’une moto.
En complément, la qualité de la donnée est nécessaire pour éviter les biais induits lors de la
phase d’exploitation ou les erreurs d’analyse de l’algorithme. La qualité d’une donnée et/ou
d’une base de données se détermine en fonction des aspects suivants :
- Le format
- La norme
- La représentativité
- La structure
Le format permet d’éviter les erreurs liées aux différentes entrées. Dans le cas d’une IA qui
modélisera les prix des appartements dans une région donnée, si le point de référence est la
surface du bien, une BDD qualitative fournira des valeurs uniformément exprimées en m2. Une
base de données qui contiendrait des valeurs chiffrées exprimées en dm2 ou en hectares serait
15 Lee, K. (2018). Ai Superpowers : China, Silicon Valley, and the New World Order (1re éd.). Harper Business.
considérée de mauvaise qualité, à moins que l’algorithme ne sache reconnaître et convertir les
éléments pour uniformiser les entrées avant analyse.
La norme des données permet de s’assurer que les informations entrées sont comparables et
permettent une modélisation pertinente. Pour reprendre l’exemple d’une IA modélisant des
prix d’appartements dans une région donnée, il faudra s’assurer que si l’on étudie la région
parisienne, l’ensemble de la BDD ne contienne que des informations pour cette région et non
pas des données pour des appartements de Lyon ou Toulouse par exemple.
Comme les autres éléments, une BDD correctement structurée contribuera à une meilleure
performance de l’IA et à garantir la justesse des résultats fournis après traitement.
Une des conséquences de cet ensemble d’exigences techniques dans la collecte de donnée et
l’entrée dans la nouvelle ère du numérique est qu’à la manière des prospecteurs d’or du XIXème
siècle, ce sont les entreprises du numérique qui sont désormais en posture de tirer le meilleur
de l’Eldorado de data généré par l’expansion de l’internet mondial.
Cela est d’autant plus marqué dans les pays à forte démographie où les entreprises sont assises
sur des mines de données exploitables qui pourraient permettre un développement rapide d’IA
performantes. Selon Kai-Fu-Lee, le leadership dans les domaines de l’IA sera remporté par les
pays dont les entreprises et leurs apps permettent de collecter des données qui sont ancrées
dans la vie réelle et pas seulement dans l’espace numérique. On parle ici d’applications qui
permettent de collecter de l’information sur les habitudes de consommation, sur la santé ou
bien sur les déplacements de vastes tranches de la population. Les algorithmes de deep learning
ne peuvent optimiser que ce qu’ils « voient » à travers les données. Un écosystème
technologique ancré dans la réalité physique permet de nourrir les algorithmes avec de
l’information qualitative et en grande quantité et permet de disséquer la vie quotidienne des
populations qui fournissent la data.
Mais une telle collecte entraîne des dilemmes liés à l’intrusion dans la vie privée des individus,
et se voit donc confrontée à l’éthique des moyens de captation à l’échelle des États. C’est le cas
notamment en Europe par exemple, ou les réglementations RGPD limitent l’accès et
l’exploitation des informations personnelles par les entreprises.
Pour la France et l’Europe, un des enjeux majeurs pour le développement de l’IA sera donc de
concilier la collecte de données avec des considérations éthiques, qui correspondent à la culture
du continent, et constituent un moyen de proposer une troisième voie dans l’IA. Une vision qui
diffère en bien des points de celles des USA ou de la Chine, leaders mondiaux dans le
développement de l’IA. Pour permettre l’implémentation d’une collecte et d’une exploitation
juste et éthique des BDD, des outils de cadrage seront nécessaires. Dès lors, les États qui
souhaitent promouvoir une vision éthique de l’IA devront se saisir de leurs outils de
normalisation pour éviter de se voir imposer les règles dictées par d’autres nations dont les
intérêts sont différents. La souveraineté des États n’est plus seulement une question de
frontières, elle se joue aussi dans le monde immatériel et le contrôle de la collecte de données.
Les enjeux de l’IA dans le secteur privé sont multiples puisque cette technologie par sa
nature transverse aura des implications dans toutes les professions et secteurs d’activités au
fur et à mesure de son développement. Néanmoins, celui-ci intervient tout de même dans le
domaine juridique avec le Code du Travail.
L’IA trouve sa place dans toutes les PME (Petites et Moyennes Entreprises) et multinationales.
De la ressource humaine à la logistique, en passant par la relation client, l’IA permet aujourd’hui
d’assurer un meilleur service. Les opportunités sont ainsi multiples : améliorer la rapidité des
tâches, raccourcir les cycles de développement et réduire le temps de la conception à la
commercialisation d’un produit ou d’un service. L’utilisation de l’IA peut donc permettre un
meilleur retour sur investissement16 et une optimisation des résultats.
L’automatisation des tâches répétitives accélère les processus et réduit les erreurs humaines.
Toutefois, il est important de différencier l’IA de la RPA (Robotics Process Automatisation). Si
l’IA peut améliorer ses propres prévisions et performances grâce aux machine learning et deep
learning, la RPA se cantonne elle à l’automatisation de tâches logistiques, mécaniques et
répétitives. La RPA suit des instructions données et les exécute, l’étape d’après est l’utilisation
de l’IA, facilitant chacune des étapes de production : de la gestion des stocks à l’automatisation
du tri des colis. Par exemple, la start-up Deliveroo a saisi la nécessité d’une meilleure logistique
16 Ducros, S. (2018, 24 avril). Les principaux enjeux de l’IA pour l’entreprise. WIS Écoles.
pour gagner en productivité. L'algorithme utilisé, nommé « FRANCK », leur permet depuis 2017
de fluidifier leur réseau de commandes et d’optimiser le temps d’attente des clients. Tout
comme les assistants virtuels dans la relation client, l’entreprise a mis en place, par le machine
learning, l’amélioration du traitement logistique tel que prévenir l’heure exacte de la
commande.
Dans l’étape de la relation client, la mise en place d’assistants virtuels tels que « SIRI » pour
Apple ou encore le Chatbot de la SNCF a eu comme résultat le désengorgement des plateformes
d’appels du SAV. Ceci a ainsi permis le traitement d’un nombre supérieur de dossiers tout en
orientant plus facilement les demandes. La volonté des entreprises d’anticiper pour répondre
aux besoins a notamment été utilisée par le Crédit Mutuel. L’entreprise a exploité la solution
dite « WATSON » créée par IBM ; analysant, identifiant, traitant et déléguant un volume
important de demandes.
L’exploitation robotique a pour but de traiter des actions banales et répétitives, contribuant
ainsi à la minimisation des coûts des tâches à plus fortes valeurs ajoutées, que seul l’humain
peut gérer, comme la prise de décision. Cette technologie apporte de nouveaux types de
capacités et des perspectives d’expansion du modèle commercial des PME comme des
multinationales. La capacité de l’IA à traiter, voire absorber, de grandes quantités de données
en temps réel permet d’améliorer la mise en place d’un suivi d’activité. Grâce à celle-ci les
organisations peuvent œuvrer de façon instantanée à l’anticipation des alertes,
recommandations de solutions, et le déclenchement d’une possible réponse. Les ressources
humaines peuvent aussi exploiter les technologies d’IA pour optimiser la gestion de leur vivier.
L’usage de l’IA dans le processus d’embauche pourrait également éliminer certains biais sociaux
et permettre une économisation des coûts pour le recrutement. Cette affirmation reste tout de
même à nuancer, dans certains cas l’usage de cette intelligence peut accentuer la discrimination
car l’élaboration de cette technique se fait dans un premier temps par l’Homme 17.
17 Intelligence artificielle dans les RH et le recrutement : les biais et les discriminations sont-ils algorithmiques. . .
ou humains ? (2021). Usbek&Rica.
https://usbeketrica.com/fr/article/intelligence-artificielle-dans-les-rh-et-le-recrutement-les-biais-et-les-
discriminations-sont-ils-algorithmiques-ou-humains
de l’IA. Cette question de l’appui du secteur politique au développement de l’IA est donc
cruciale.
Parmis les politiques publiques utilisées pour favoriser le développement de l’écosystème IA,
on trouve tout d’abord un encadrement juridique, la création d’une puissance d’investissement
vers les secteurs et technologies innovantes ainsi que la mise en place d’un arsenal pour
encourager la collaboration entre les entreprises, les institutions publiques et les universités.
A. Encadrement juridique
L’encadrement juridique correspond à deux enjeux majeurs : le premier est la mise en place de
normes à même de favoriser l’apparition de technologies novatrices dans l’IA ou à leur
développement. Le second correspond à l’accaparement de l’Intelligence Artificielle par les
membres de la profession eux-mêmes et les conséquences qu’elle pourrait avoir sur la pratique
du droit.
B. La mise en place de réglementations adaptées au contexte national
La conception et l’utilisation de systèmes fondés sur l’Intelligence Artificielle requiert de poser
des limites aux ressources qu’elle peut exploiter pour son apprentissage. En cela, chaque pays
a apporté sa propre réponse par la mise en place d’une réglementation de l’IA, du numérique
et des technologies de l’information.
Les États-Unis ont apporté une partie de réponse en mars 2018, avec le Cloud Act. Ce dernier
est basé sur l’extraterritorialité du droit américain, qui permet au gouvernement d’étendre la
portée de ces demandes d’utilisation de toutes données sur des serveurs, quelle que soit leur
localisation dans le monde.
L’un des précurseurs dans la réglementation du numérique est l’Union Européenne, qui, dès
avril 2016, a répondu à cette question par la mise en place du Règlement général sur la
protection des données (RGPD) . Bien que ce règlement soit une avancée majeure dans la prise
en main des européens de leur écosystème numérique, il ne va qu’en partie à rebours des
volontés états-uniennes. Effectivement, s’il protège les données à caractère personnel des
utilisateurs européens et qu’il garantit leur libre circulation, il ne faut pas occulter le fait que
dans son article 4818qui concerne le transfert ou la divulgation de ces informations, le RGPD
permet la recherche du contenu des fournisseurs dans certains cas : s’il y a consentement du
client ou, pour les États-Unis, si un tribunal américain est convaincu qu’il existe un motif
probable de croire qu’un crime a été commis.
C. L’accaparement de l’IA par les juristes et les conséquences qu’elle pourrait avoir sur le Droit
Dans le domaine juridique, les professionnels du Droit se divisent en deux écoles de pensée :
les ”progressistes” » et les “immobilistes”. Si ce premier groupe est favorable à l’utilisation de
18 Règlement Européen | CHAPITRE V - Transferts de données à caractère personnel vers des pays tiers ou à des
organisations internationales. (2018, 23 mai). CNIL. https://www.cnil.fr/fr/reglement-europeen-protection-
donnees/chapitre5#Article48
l’IA comme une aide par une technologie maîtrisée, cela est contesté par le second groupe
voyant dans l’IA un danger qui remplacerait les juristes.
Les “progressistes” souhaitent une collaboration plus étroite entre IA et professionnels du
Droit. En cela, il se base sur un écosystème de start-ups, appelé Legaltech, qui permet une
grande offre de service juridique et qui rend le droit accessible aux tout-venants.
Les “immobilistes”, au contraire, pointent du doigt différentes problématiques que pose l’IA
dans le droit. L’un des problèmes majeurs est l’intervention de l’IA sur le fonctionnement du
droit lui-même. Effectivement, si l’IA est vouée à un apprentissage constant se basant sur les
cas antérieurs afin d’anticiper les comportements futurs de la population, la question d’une
justice « prédictive » rendant ses décisions avant que l’acte ne soit commis est un véritable
dilemme éthique.
Alors, qu’il y a quelques années le thème de l’IA n’était que peu évoqué dans la sphère politique
mondiale. Force est de constater que cela n’est plus le cas. Effectivement, alors que « les
investissements dans la recherche et dans l’industrie atteignent des sommes extraordinaires,
notamment aux États-Unis et en Chine, les responsables politiques du monde entier l’évoquent
dans les discours de politique générale comme un levier de pouvoir majeur »20. Ainsi, placée au
centre de l’attention, l’IA connaît une croissance exponentielle.
Selon le cabinet PwC France, l’IA permettrait une augmentation de 14 % du PIB mondial alors
que 55 % des bénéfices de l’IA sur la période 2016-2030 étaient dus à des gains de productivité
du travail21. Toujours selon PwC, cette croissance sera inégale, largement aux bénéfices des
pays industrialisés et principalement aux États-Unis, portés par les GAFAM (Google, Apple,
Facebook/META, Amazon, Microsoft), et de la Chine.
Une donnée fondamentale permet de saisir et dessiner le paysage futur d’un secteur IA au
tropisme asiatique : parmi les acteurs privés (ou semi-étatiques) du secteur, 19 des 45 licornes
(start-ups valorisées à plus d’un milliard de dollars) sont chinoises. Elles représentent une
valorisation de 43,5 milliards de dollars en 2021 22 et sont placées dans des secteurs clés de l’IA
(santé, moyen de mobilité, services financiers, etc). Le parfait exemple est l’entreprise
hongkongaise SenseTime, valorisée à hauteur de 12 milliards de dollars, spécialisée dans la
reconnaissance faciale.
B. L’investissement dans le secteur privé
Une partie significative de l’investissement dans le secteur privé est faite par lui-même. En effet,
s’il existe des financeurs « physiques », en la qualité des Business Angels, il y a aussi la présence
d’entreprises privées ou de fonds d’investissement.
20 Cédric Villani. (2018, mars). Rapport : Donner un sens à l’intelligence artificielle. AI For Humanity.
https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf
21 PricewaterhouseCoopers. (2021). L’IA : un outil au service des hommes et des entreprises. PwC.
https://www.pwc.fr/fr/decryptages/humain/intelligence-artificielle-comment-tirer-parti-de-ces-nouveaux-
amis.html
22 O. (2021, 22 décembre). La Chine, leader mondial pour les « licornes » d’intelligence artificielle. LeBigData.fr.
https://www.lebigdata.fr/chine-leader-mondial-licornes-
ia#:%7E:text=Les%2019%20licornes%20chinoises%20identifi%C3%A9es,cl%C3%A9s%20de%20l%27intelligence%
20artificielle.*
Il existe une pléiade de start-ups pouvant se lancer dans le domaine de l’IA. Mais étant donné
la configuration technique du secteur de l’IA, très coûteux en R&D, la plupart de ces startups
doivent faire appel à des levées de fonds (2 660 en France ces dernières années23).
Par ailleurs, certaines grandes entreprises, déjà présentes dans l’IA, continuent de se mettre en
avant dans le secteur en rachetant et finançant un maximum d'innovations. C’est le cas avec les
GAFAM, qui investissent à la fois dans leur programme interne - Siri, Google Maps, algorithmes
de suggestion d’achats sur les réseaux sociaux, etc. - mais aussi externe en rachetant des start-
ups spécialisées dans l’IA, 80 d’entre elles ont été rachetées entre 2010 et 2021 24.
En plus des GAFAM ou des Business Angels, on trouve une dernière catégorie de financeurs,
celle des fonds d’investissement privés et publics. En France, la Banque Publique
d’Investissement (détenu à 50% par l’État, et à 50% par la Caisse des dépôts et consignations)
représente un acteur majeur de l’investissement dans cet écosystème : 330 millions d’euros
entre janvier et avril 201925, pour accompagner près de 95 % des startups françaises du monde
de l’IA.
23 Startup Intelligence artificielle - AI : Actualité des start-ups Intelligence artificielle - AI : levées de fonds. (2021).
Societe.Tech. https://www.societe.tech/actualite/startup/startup-business/startup-informatique/editeur-de-
logiciels/startup-intelligence-artificielle-ai/
24 Statista. (2021, 20 juillet). Apple en tête de course à l’intelligence artificielle. Statista Infographies.
https://fr.statista.com/infographie/9418/gafam-rachats-et-acquisitions-de-startups-
ia/#:%7E:text=D%27apr%C3%A8s%20les%20donn%C3%A9es%20de,de%20pr%C3%A9curseurs%20dans%20le%2
0domaine
25 Bpifrance, (2019, 3 septembre), Les start-up françaises de l’intelligence artificielle se multiplient.
https://www.bpifrance.fr/nos-actualites/les-start-francaises-de-lintelligence-artificielle-se-multiplient
C. Les dotations publiques
Enfin, l’un des principaux vecteurs du dynamisme dans le secteur de l’IA est l’investissement
des institutions par des dotations publiques, répondant à des appels d’offres ou à des critères
de financements publics.
Ainsi, les institutions françaises ont identifié que le secteur de l’IA sera l’un des secteurs
d’avenir, avec 90 milliards de dollars de chiffres d’affaires en 2025 contre 7 en 2020 26. Dans ce
cadre, le rapport Villani a mis en exergue le fait qu’il fallait « soutenir les démarches
d’investissement orientées vers les projets d’IA »27. Dès 2018, le gouvernement y a répondu en
lançant un « Grand plan d’investissement 2018-2022 », dont 4,6 milliards d’euros seront dédiés
à relever la compétitivité des entreprises françaises28.
Toutefois, même si ce secteur est marqué par une forte croissante et a été identifié par les
politiques français, il n’existe pas de volonté à ce que les investissements publics supplantent
les investissements privés.
Par ailleurs, l'investissement dans l’IA se caractérise aussi par le financement d’installations
dédiées à la recherche. À titre d’exemple, les États-Unis ont investi, en août 2020, 1 milliard de
dollars dans la recherche en IA et en informatique quantique 29, quelques mois après avoir dédié
une enveloppe de 2 milliards de dollars à l’IA non liée à la défense. Ce budget servira au
développement de 7 centres pour l’IA et 5 pour l’informatique quantique. Tous ces centres ont
noué des partenariats avec des instituts de recherche nationaux, tel la NSF (National Science
Foundation), l’université de l’Oklahoma ou encore le MIT.
Les collaborations dans l’IA sont liées à deux acteurs prédominants : les institutions, à l’aide de
partenariat public-privé, et les entreprises privées.
Les institutions, comme nous l’avons vu précédemment, sont régulièrement des financeurs de
premiers choix pour les chercheurs. Dans ce cadre, elles sont aussi les plus à même, dans les
appels à projets par exemple, de proposer, voire d’imposer, un partenariat entre les
bénéficiaires de ces subventions et les universités ou les centres de recherches. La délégation
d’un tel partenariat pour l’État est importante, dans la mesure où celui-ci bénéficiera de
https://www.economie.gouv.fr/la-strategie-nationale-pour-lintelligence-artificielle
27 Cédric Villani. (2018, mars). Rapport : Donner un sens à l’intelligence artificielle. AI For Humanity. P.179
https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf
28 Le grand plan d’investissement 2018–2022. (2017).
https://www.gouvernement.fr/sites/default/files/document/document/2017/09/dossier_de_presse_-
_le_grand_plan_dinvestissement_2018-2022.pdf
29 Corot, L. (2020, août 27). Les Etats-Unis investissent 1 milliard de dollars dans la recherche en IA et en
E. Garantie de l’État
Si les États veulent se doter des technologies IA les plus performantes, la garantie qu’ils
devraient être en mesure d’offrir réside en trois point clés : vitesse, réactivité et droit à l’échec.
● Vitesse : La mise en place d’une organisation agile, car le but est la mise en place
d’innovations disruptives, les acteurs de l’IA doivent bénéficier d’une réelle marge de
manœuvre concernant la prise de décision et le pilotage des projets en cours ou futur.
L’absence des lourdeurs administratives et d’une pyramide hiérarchique trop
importante favorisent les méthodes d’exploration et la poursuite ou non des projets.
● Réactivité : une réelle capacité à s’adapter concernant les projets innovants. Qu’ils
s’inscrivent dans un temps long ou court ou que la viabilité du projet soit encore
douteuse, le but est d’assurer une supériorité économique à l’État en tenant compte
des usages et besoins à l’échelle de la société au sens large.
● Droit à l’échec : Le but étant la mise en place d’innovations disruptives cela ne peut se
faire sans échec. Or, si les acteurs politiques offrent une agilité dans la mise en place
d’organisation et garantissent un soutien dans la recherche, cela facilitera la gestion des
projets complexes et risqués.
Pharmaceutiques. https://pharmaceutiques.com/actualites/en-vue/une-nouvelle-alliance-public-prive-pour-
renforcer-la-filiere-ia-et-cancer/
Deux scénarii sont envisageables dans la stratégie à mettre en place pour la gestion de l’IA 32 par
les pouvoirs publics :
L’IA est un domaine en perpétuel mouvement, il paraît donc essentiel que les gouvernants
accompagnent les entreprises dans l’adoption et l’usage de l’IA et plus largement encouragent
l’ensemble des secteurs à accepter l’IA comme vecteur d’innovations et de résolutions de nos
problématiques contemporaines.
Plutôt que de cultiver une forme d’ingérence étatique permanente, les acteurs politiques
devraient davantage assurer un suivi et une publicité des résultats obtenus dans cet écosystème
très vaste. Pour dynamiser le développement de l’IA, les États devraient répondre aux
demandes de besoins et ressources des acteurs du domaine notamment les secteurs B2B et
B2B2C33 compte tenu de leurs capacités propres. Or, la ressource la plus précieuse concernant
l’IA est la donnée. Le défi est alors double : il faut convaincre les entreprises de l’ensemble des
secteurs qui régissent nos économies d’accepter de laisser un accès aux données acquises aux
acteurs du milieu de l’IA afin que les données utilisées soient suffisamment conséquentes pour
percevoir les utilités des technologies IA lors des expérimentations, le tout dans un cadre
législatif peu contraignant afin que l’innovation ne soit pas freinée.34
De plus, les États devraient faciliter le développement d’infrastructures numériques
conséquentes afin d’assurer des puissances de calculs importantes. Pour ce faire, les pouvoirs
32 Charrié, J. L. J. (2017, janvier). 2017/2027 - Répondre à l’innovation disruptive - Actions critiques. France
Stratégie. https://www.strategie.gouv.fr/publications/20172027-repondre-linnovation-disruptive-actions-
critiques#:%7E:text=R%C3%A9pondre%20%C3%A0%20l’innovation%20disruptive%20suppose%20de%20prendre
%20des%20risques,entreprises%20que%20la%20puissance%20publique.
33 Ministère de la cohésion des territoires, Ministère de l’Économie et des Finances. (2021, décembre). Rapport
sur l’Intelligence artificielle - État de l’art et perspectives pour la France. Page 255
https://www.entreprises.gouv.fr/files/files/directions_services/etudes-et-
statistiques/prospective/Intelligence_artificielle/2019-02-intelligence-artificielle-etat-de-l-art-et-perspectives.pdf
34 Ibid. Page 11
publics devraient structurer des pôles de compétitivité constitués de start-ups, de centres de
recherches et de grandes entreprises afin que l’ensemble des enjeux scientifiques et
économiques des secteurs soit traité.
B. Communication
Ce faisant, les États doivent arriver à convaincre les citoyens de l’utilité de l’IA et de
dédramatiser l’image que les populations peuvent s’en faire. A titre d’exemple, la plateforme
française Botnation35 spécialisée dans la création de chatbots évolutifs a interrogé 1956
consommateurs et 1058 professionnels concernant la peur que les technologies telles que l’IA
et/ou la robotique les remplace dans leur travail :
Il est intéressant de constater que le terme choisi dans cette enquête est « la peur », qui relève
de l’appréhension de l’inconnu mais qui peut disparaître par le biais de la pédagogie et d’une
culture de l’IA. Il est indispensable que les pouvoirs publics allient des personnalités du public
comme du privé dans la réalisation et la communication des enjeux de l’IA afin que ces derniers
ne soient pas perçus comme servant des fins politiques.
C. Culture de l’IA
Pour tout profane, l’IA est une technologie qui exerce autant de fascination que d’inquiétude.
C’est pourquoi, il est primordial de s’attaquer au chantier de l’éducation en proposant un
nombre important de formations et de les accompagner en augmentant les effectifs et la
qualité de ces derniers. Cela implique notamment une association performante de l’ensemble
des acteurs de l’IA : écoles d’ingénieur, entreprises, laboratoires de recherche académique,
acteurs du secteur concerné, tous devraient se consulter afin d’optimiser la mise en place des
technologies de l’IA36.
Définie comme une General Purpose Technology (GPT)37, l’IA va s’immiscer dans tous les pans
de nos sociétés sans se limiter à des secteurs de niche. C’est pourquoi il faut que les acteurs
politiques favorisent les concours d’idées :
35 Tazrout -, Z. (2021, 24 juin). Enquête auprès de consommateurs : Les chatbots et l’IA remplaceront-ils les
sur l’Intelligence artificielle - État de l’art et perspectives pour la France. Page 255
https://www.entreprises.gouv.fr/files/files/directions_services/etudes-et-
statistiques/prospective/Intelligence_artificielle/2019-02-intelligence-artificielle-etat-de-l-art-et-perspectives.pdf
37 Philippe Askenazy, Francis Bach. IA et emploi : Une menace artificielle. Pouvoirs - Revue française d’études
Un pays qui n’innove pas dans le domaine des technologies, prend à la fois le risque d’une perte
de puissance économique mais également celui d’une dépendance technologique. Ainsi, pour
qu’un pays dispose d’une réelle force de frappe technologique, la recherche et développement
(R&D) de ses entreprises se doit d’être performante.
La révolution qui s'opère actuellement dans le domaine de l'IA n’est pas issue de découvertes
de la recherche fondamentale mais de la possibilité d’exploiter avec efficacité des fondements
relativement anciens (comme le deep-learning).39
Ainsi, comme nous avons pu l’évoquer précédemment, cette révolution repose principalement
sur l'accès à un foisonnement de données inédit dans l'histoire moderne, qui découle
directement du développement exponentiel d'internet ainsi qu’à une puissance de calcul de
plus en plus importante.
https://hal.archives-ouvertes.fr/hal-02343633/document
38 Ministère de la cohésion des territoires, Ministère de l’Économie et des Finances. (2021, décembre). Rapport
sur l’Intelligence artificielle - État de l’art et perspectives pour la France. Page 256
https://www.entreprises.gouv.fr/files/files/directions_services/etudes-et-
statistiques/prospective/Intelligence_artificielle/2019-02-intelligence-artificielle-etat-de-l-art-et-perspectives.pdf
39 Philippe Askenazy, & Francis Bach. (2021). Conseil de l’Europe Portail.
https://www.coe.int/fr/web/artificial-intelligence/what-is-ai
A. Les 3 champs de l’IA pratiqués au niveau économique
Pour mieux saisir les enjeux de la recherche, il semble important de rappeler quels sont les trois
champs qui composent l’Intelligence Artificielle aujourd’hui, pour en déterminer quels sont les
tenants et les aboutissants de la recherche dans chacun de ces champs.
Pour cela, nous nous appuierons sur une audition d’Henri Sanson40 Responsable de la recherche
sur les technologies de la décision et de la connaissance chez Orange, réalisée dans le cadre de
ce rapport.
Selon lui le premier champ, fait référence à ce qu’il nomme l’IA anthropomorphique, c’est-à-
dire « une IA qui vise à reproduire les capacités intelligentes de l’humain, voir à faire mieux que
l’humain ». Dans ce champ précis, l’enjeu de la recherche se situe dans les fondements des
technologies de l’IA (machine learning, deep learning etc), c’est-à-dire dans la capacité à faire
émerger de différentes technologies, des algorithmes génériques, « que l’on aura de moins en
moins besoin d’adapter ».
A terme, il s’agirait de créer des technologies d’IA qui peuvent s’adapter à une multitude de
marchés, comme la santé, les transports, la météo, ou encore la finance.
Le deuxième champ est celui de la « science des données », qui consiste à « extraire de la
connaissance à partir d’importants gisements de données, de faire parler les données ». Ce
domaine peut par exemple permettre de trouver des corrélations entre des habitudes
alimentaires et certaines maladies.
Dans ces deux modèles, l’outillage mathématique est générique mais le modèle d’IA va
drastiquement différer selon le métier et la problématique pour lequel il a été conçu. Ceci,
précisément parce que les données utilisées pour entraîner ces IA, sont de nature différente
(données de médecine, données liées au secteur des transports, à la finance etc).
Il existe donc autant de modèles d’IA qu’il existe de métier.
Pour résumer, l’enjeu majeur de ces deux champs est donc de spécialiser l’outillage
mathématique générique sur des domaines métiers à travers un entraînement sur des données.
Ainsi, dans ces deux champs qui constituent le nerf de la guerre de la recherche en IA, l’objectif
se situe moins dans une quête de généricité des modèles d’IA que dans celle d’une exploitation
de technologies génériques, pour en faire des modèles d’IA propres à des domaines métier
spécifiques.
Tout ceci, nous amène donc à un enjeu crucial sur lequel repose la performance du secteur de
la recherche et de l’innovation d’un pays dans l’IA : l’accès aux données. Ce secteur est en effet
dépendant à l’accessibilité et à la disponibilité des données de qualité dans le pays mais
également au sein des entreprises.
Une première condition permettant l’accès à des données de qualité en abondance, est la
source de captation des données. Il faut pouvoir disposer de produits et services qui
permettent de collecter des données intéressantes. En tant qu’exemple on peut considérer, un
acteur comme Google, dont la force est de proposer des produits et services extrêmement
ergonomiques, il dispose d’une immense capacité à capter les utilisateurs et in fine leurs
données. La possibilité pour un acteur de collecter des informations dépend donc de sa force
de positionnement et de sa puissance sur le marché.
Une deuxième condition avait été soulevée dans une étude41 confiée par la Direction générale
des entreprises (DGE), à Atawao Consulting en 2019. Elle fait état de l’entrave que peut
constituer la législation encadrant la protection des données à caractère personnel pour le
développement de l’Intelligence Artificielle. Le rapport cible en particulier la législation
française et européenne, et souligne l'existence de bases de données à large échelle dans le
domaine de la santé mais, « une législation en matière de protection qui rend aujourd’hui
pratiquement impossible la mise au point de services fiables basés sur des techniques
d’apprentissage ».
Ce constat est partagé par Henri Sanson, qui ajoute que « beaucoup de données relatives aux
entreprises sont des données qui ont à un moment donné un lien avec des individus »42, ce qui
implique l’interdiction d’exploitation de nombreuses BDD qui ne sont pas nécessairement
sensibles mais qui se rapportent à des individus.
Enfin, l’organisation des entreprises peut également avoir un impact considérable sur l’accès
aux données. De nombreuses entreprises sont en effet organisées en silos, ce qui rend le
partage et l’accès aux données extrêmement complexe entre les entités. La R&D se retrouve
donc dans l’incapacité d’avoir accès à des données suffisantes pour développer des IA
performantes.
41 Intelligence artificielle : État de l’art et perspectives pour la France | entreprises.gouv.fr. (2020, 3 février). Le
Il semble évident au premier abord que les entreprises ayant des capacités d’investissements
importantes, sont celles qui prendront le plus de risques dans la recherche et bénéficieront des
résultats les plus probants en matière d’innovation.
Henri Sanson souligne la différence entre les géants du numérique américains comme Google,
ayant des capacités d’investissement colossales et les entreprises françaises dont les moyens
sont bien inférieurs. Les premiers n'hésitent pas à investir, lorsque les deuxièmes seront plus
réticents si les estimations de retour sur investissements ne garantissent pas des résultats assez
significatifs. Cette situation a mené les entreprises américaines et chinoises (GAFAM et BATX)
à prendre le leadership de la R&D dans le domaine de l’IA.
Le rapport d’information44 sur les enjeux de la numérisation des armées soulignait en 2018, que
nous assistons à « un moment historique de croisement entre calcul intensif, big data et
Intelligence Artificielle ». Également tributaire de la puissance d’investissement, la capacité à
répondre aux besoins scientifiques et industriels en matière de recherche dans ce domaine du
calcul intensif, varie énormément selon les pays.
Ce rapport relate en effet l’écart significatif d’investissement entre la France et les autres
puissances dans les supercalculateurs, ce qui contraint incontestablement son aptitude à
répondre aux besoins en matière d’Intelligence Artificielle.
Enfin, de manière plus générale, lorsqu'on observe les pays les plus puissants du point de vue
de l’innovation technologique, on remarque une grande porosité entre le monde industriel et
le monde académique. Ce constat a été fait dans le rapport d’information sur les enjeux de la
43 Olivier Becht, & Thomas Gassilloud. (2018, mai). Rapport d’information (. . .) en conclusion des travaux d’une
mission d’information sur les enjeux de la numérisation des armées.
https://www.assemblee-nationale.fr/dyn/15/rapports/cion_def/l15b0996_rapport-information
44 Ibid
numérisation des armées qui mesure des transferts mutuellement bénéfiques entre
l’administration américaine et les industriels du numérique.
A travers l’exemple du Department of Defense américain, le rapport fait mention d’un certain
nombre de dispositifs permettant à des entreprises privées d’accéder relativement facilement
aux données des armées. Des représentants d’IBM expliquent que le Department of Defense
« peut fournir sans grande difficulté et à titre gratuit des bases de données qui présentent le
double avantage d’être constituées de données non seulement réelles, mais aussi actuelles ».
L’industrie numérique américaine et plus particulièrement sa R&D dispose donc d’un avantage
compétitif immense sur des pays dont les entreprises n’ont pas accès à une quantité aussi
significative de données de la part du secteur public. Dans le domaine de l’Intelligence
Artificielle, pour qui la donnée constitue la matière première, cet avantage est d’autant plus
important.
I.2. Stratégies nationales des acteurs majeurs
Les acteurs de l’IA aujourd’hui sont non seulement les chercheurs, mais plus encore les
étudiants. Le but premier étant de faire monter la nation en compétences, il semble important
de se pencher sur les différents programmes d’étude tout en proposant des postes et des
investissements conséquents pour assurer la conservation des professionnels sur le territoire.
De fait, les trois instituts d’excellence que sont Paris-Saclay, Sorbonne Université et la
collaboration Paris IPP et HEC Paris-Saclay sont un premier pas vers les instituts
interdisciplinaires qui ont été créés aux quatre coins de la France. En tout, 7 instituts sont
aujourd’hui spécialisés en IA sur tout le territoire, notamment à Grenoble, Toulouse et Nice en
plus de la région Île-de-France. 190 chaires de recherche sont donc financées au total, pour une
prévision de 500 nouveaux docteurs en IA en 2025.
Ces nouvelles mesures sont nécessaires pour réussir à conserver le vivier de chercheurs et de
scientifiques que la France possède déjà. Il était nécessaire d’investir dans la recherche et
d’augmenter les offres d’emplois intéressantes pour que les opportunités à l’étranger soient
moins concurrentielles. De fait, la formation de profils interdisciplinaires jusqu’en 2025
s’accompagne également d’une augmentation de 60% des emplois liés à l’IA, dont 75% de
recrutement de la part des grands groupes.
Il faut néanmoins rappeler que le secteur de la recherche n’est pas le seul à avoir bénéficié de
ce plan. En effet, les start-ups et l’industrie ont également pu toucher aux investissements
publics français et européens. Ainsi, 502 start-up françaises spécialisées en IA ont été recensées
en 2021, dont 6 licornes (Alan, ContentSquare, Dental Monitoring, Shift Technology, Miraki et
Meero).
45
45 Stratégie nationale pour l’intelligence artificielle - 2e phase, Conquérir les talents et transformer notre potentiel
Avec l’arrivée de Xi Jinping à la tête de l’État chinois, l’Intelligence Artificielle est devenue une
technologie au service du parti-État. L’histoire retient que la victoire du logiciel AlphaGo sur le
champion du monde de jeu de go Lee Seedol en mars 2016 serait à l’origine d’une prise de
conscience du pays de la nécessité d’investir dans L’IA.46 Pour autant, la volonté politique
dépasse ce storytelling. Les possibilités permises par ses avancées permettent d’affermir l’un
des piliers du fonctionnement du Parti-État, à savoir le contrôle et la surveillance de l’ensemble
de son immense population. En retour, ces moyens techniques s’améliorent en travaillant sur
le grand nombre de données rassemblées pour traquer les “déviants” à l’ordre social et
politique du Parti.
Le 14e plan quinquennal (2020-2025) régissant la stratégie nationale chinoise ne diverge pas de
l’axe porté par ses prédécesseurs et par le grand projet Made in China 2025 47 publié en 2013
par la banque nationale chinoise. L’ambition reste la même, devenir une puissance industrielle
mondiale en transformant son régime de croissance. L’économie à accumulation intensive du
capital et tirée par les exportations doit laisser la place à une économie dirigée par les
innovations scientifiques et techniques, stimulant ainsi la croissance de la productivité globale
46 Sophie-Charlotte Fischer, « Intelligence artificielle : les ambitions de la Chine », in Politique de Sécurité : analyse
: Chine », in Service économique régional de Pékin février 2017 (mis à jour en juillet 2017).
des facteurs de production et se tournant vers la consommation intérieure et le développement
des services.
La politique de la porte ouverte de Deng Xiaoping, qui a permis l’essor du pays, est aujourd’hui
dépassée. Le Made in China ne doit plus être le synonyme d’imitation et de production de masse
de produits bon marché mais celui d’innovation et des produits à forte valeur ajoutée. Alors
que la Chine vise à devenir un pays innovant de premier plan d’ici 2035, le rapport de travail
présente un plan technologique national ambitieux pour les cinq prochaines années, soulignant
que « l’innovation reste au cœur de la dynamique de modernisation de la Chine ».
Le gouvernement s’est engagé à se concentrer sur la réalisation de “percées majeures dans les
technologies de base”, y compris l’Intelligence Artificielle de nouvelle génération, les semi-
conducteurs, le cloud computing et d’autres domaines clés, ainsi qu’à établir davantage de
laboratoires nationaux et de centres d’innovation. Pékin vise également à obtenir 56% du pays
sur les réseaux 5G. D’ici 2025, le gouvernement ambitionne de faire passer la part de l'économie
numérique à environ 10 % de la nouvelle production économique de la Chine.48
Ce développement basé sur l’innovation fait donc la part belle à l’Intelligence Artificielle, qui
vient irriguer tous les autres axes de développement. Huit projets forment ainsi le cœur de la
stratégie chinoise pour l’économie numérique : le cloud computing, les mégadonnées,
l’internet des objets, les réseaux industriels, la blockchain, l’Intelligence Artificielle, la réalité
virtuelle et la réalité augmentée.
Pour mener à bien ce projet, la Chine s’appuie sur les BHATX, cinq entreprises majeures dans le
domaine technologique et numérique : Baïdu (moteur de recherche), Huawei
(télécommunications et téléphonie), Alibaba (commerce sur internet), Tencent (messagerie et
jeux vidéo en ligne) et Xiaomi (téléphonie). Les GAFAM n’ayant pas réussi à s’implanter en
Chine, les BHATX bénéficient de l’essentiel du marché chinois. 49
L’expression de la puissance chinoise est certes économique mais son ambition se porte
également dans le champ militaire. Xi Jinping a annoncé officiellement vouloir moderniser
l’Armée populaire de libération (APL) et par là même faire de la force chinoise une des
premières du monde. La voie choisie pour ce développement passe par la recherche en IA. La
48 Aifang Ma, « L’intelligence artificielle en Chine : un état des lieux », in Fondation pour l’innovation politique,
novembre 2018.
49 Xavier Seurre, « L’intelligence artificielle, un enjeu stratégique pour la puissance chinoise », in IRIS, Asia Focus,
L’autre champ d’action permettant à la Chine de rivaliser militairement avec les États-Unis, à
savoir le cyberespace, est également massivement investi et exploité par la Chine au travers de
moyens IA. Les domaines de la subversion, du sabotage et du renseignement bénéficient ainsi
d’un effort tout particulier dans le but d’obtenir un avantage stratégique grâce au croisement
de l’IA et de la Cyberdéfense.
S’appuyant sur son marché intérieur, la Chine développe ainsi une stratégie de développement
de l’Intelligence Artificielle pour renouveler son régime de croissance. Interpénétrant les
recherches civiles et militaires, le calendrier qui vise la primauté dans le domaine en dix ans est
en passe d’être réalisé compte tenu des résultats déjà obtenus.
À l’échelle internationale, les États-Unis jouissent depuis plusieurs décennies d’une avance
technologique confortable. Cette dynamique est largement stimulée par la croissance sans
précédent des GAFAM50 qui incarnent un véritable vivier d’innovations.
Néanmoins aujourd’hui, cette position dominante est de plus en plus contestée par
l’émergence de la Chine dans cette quête au progrès technologique.
L’axe éthique sera lui aussi rudement encadré par le gouvernement, en s’appuyant sur la White
House Office of Science and Technology Policy, le DoD (Department of Defense) ou encore la
intelligence https://oecd.ai/en/wonk/the-american-ai-initiative-the-u-s-strategy-for-leadership-in-rtificial-
intelligence
FDA (Food and Drug Administration). La sécurisation des données sera l’un des axes majeurs de
ce volet. Les États-Unis cherchent à composer avec le droit international humanitaire pour
encadrer le développement d’outils de défense liés à l’IA. De la même manière, les Etats-Unis
se montrent actifs dans le groupe d’experts gouvernementaux sur les technologies émergentes
dans le domaine des systèmes d’armes létales autonomes, ou ils fournissent un grand nombre
d’experts.
Cette stratégie comprend des collaborations qui seront mises en place avec d’autres pays
autour des domaines liés à l’IA. Cependant, il est bien spécifié que de tels projets ne devront
pas entraver la compétitivité américaine, que ce soit d’un point de vue technologique ou de
leurs intérêts.
Dans le secteur militaire, les États-Unis disposent de l’Agence pour les projets de recherche
avancée de défense (DARPA). Cet organe étatique a annoncé en 2018 qu’un investissement de
près de 2 milliards de dollars avait été déployé pour la recherche dans l’IA.52
La stratégie américaine se caractérise par une étroite collaboration entre le domaine du public
et du privé, permettant ainsi de mieux superviser les avancées techniques de chaque secteur.
On notera cependant que certaines entreprises du privé se montrent réticentes à l’idée de
partager des technologies avec un département d'État.
Ce fut le cas notamment lors du projet MAVEN qui avait pour objectif de permettre à l’armée
américaine de s’appuyer pour ses drones des outils de traitement d’images développés par
Google. Le contrat a provoqué de vives réactions au sein de l’entreprise et de l’opinion publique
et des pétitions ont été mises en place pour bloquer le projet. Les objectifs de cette mission
sont de fournir à l'armée américaine des outils pour effectuer “la reconnaissance d’objets sur
des données non classifiées, à partir d'algorithmes de détection et d'analyse automatisés
capables de fonctionner sur des captures de vidéos en mouvement.” 53
Des questions d'éthique interviennent sans cesse lors de l’arrivée de nouveaux outils,
questionnant alors les possibles dérives dans leurs applications. 54 Pour rappel, le groupe
américain avait déjà mis à la disposition de l’armée sa technologie TensorFlow, un outil
d’apprentissage automatique (deep learning) qui était déjà disponible au grand public en open
source.
52 Darpa. (2018, 7 septembre). DARPA Announces $2 Billion Campaign to Develop Next Wave of AI Technologies.
Defense Advanced Research Projects Agency.
53 Chartier, M. (2021, 9 septembre). Project Maven : le Pentagone signe pour 50 millions de dollars de contrats
News.
https://globalnews.ca/news/4125382/google-pentagon-ai-project-maven/
Les États-Unis disposent d’un avantage compétitif face aux autres acteurs dans cette course
technologique, leur influence dans les institutions internationales est forte et leurs
investissements dans la recherche sont importants. Dans ce contexte, il existe un observatoire
des politiques de l’IA au sein de l’Organisation de Coopération et de Développement
Économique (OCDE) auquel l'État américain fournit une multitude de recommandations quant
aux sujets traités tout en assurant la direction de l’organisme. Les USA sont aussi un des acteurs
majeurs de la création du “Global Partnership on Artificial Intelligence” 55 lancé lors du sommet
du G7 en 2018.
● Innovation
● Advancing Trustworthy AI
● Education and Training
● Infrastructure
● Applications
● International Cooperation
Ce site internet dispose aussi d’un espace dédié à la recherche scientifique, l’objectif étant de
faciliter la coopération et le transfert d’informations utiles à certains acteurs en mettant à leur
disposition une quantité importante de données. On peut y retrouver des données satellitaires
de la NASA, des études statistiques gouvernementales ou encore des bases de données plus
générales.
Par ailleurs, la Commission nationale de sécurité américaine sur l’Intelligence Artificielle (NSCAI)
a publié en mars 2021 son rapport final autour du développement et des enjeux actuels de l’IA
aux États-Unis : pour la première fois depuis la Seconde Guerre mondiale, la prédominance
technologique de l’Amérique est menacée.
Dans ce rapport, les auteurs notent que les ambitions chinoises dans le domaine sont immenses
et estiment que la RPC deviendra leader dans les prochaines décennies si les tendances
n’évoluent pas. Face à ce constat d’échec, deux axes se dégagent pour les États-Unis s’ils
souhaitent inverser ce scénario : la défense de l’Amérique dans l’ère de l’IA et le gain du
concours technologique face aux différents acteurs mondiaux. 57
55
Partenariat mondial sur l’intelligence artificielle
56 National Artificial Intelligence Initiative Office (NAIIO). (2021, 24 avril). STRATEGIC PILLARS. National Artificial
Intelligence Initiative. https://www.ai.gov/strategic-pillars/
57 Commission members. (2021, mars). Final Report - National Security Commission on Artificial Intelligence.
https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf
II - Les stratégies d’influence normative dans le domaine
de l’IA
II.1. La norme comme outil d’influence
Si une part importante de la population française a de plus en plus conscience que la voie des
armes n’est pas la seule façon de mener une guerre et que les affrontements économiques sont
une réalité, la plupart ont encore du mal à percevoir toute la profondeur de ce nouveau champ
de bataille non-militaire. Particulièrement, au sein même de cette nouvelle forme de
conflictualité, la population parvient difficilement à saisir l’enjeu des “normes”, un terme très
abstrait et très mal compris qui n’évoque le plus souvent rien aux citoyens, ou qui au mieux
ferait penser à une forme de soft law ou de cadre juridique aux contours très flous.
Selon l’ISO une norme est “un document qui définit des exigences, des spécifications, des lignes
directrices ou des caractéristiques à utiliser systématiquement pour assurer l’aptitude à l’emploi
des matériaux, produits, processus et services”. De fait, la norme s’établit par consensus des
différentes parties, de manière implicite, réglementaire ou bien normée par les organismes de
normalisation internationaux.
● D’une part l’élaboration des normes qui est organisée autour de l’AFNOR en France,
● D’autre part, la certification qui est assurée par une tierce partie et qui consiste à vérifier
et attester de la conformité d’une structure à une norme.
● Les normes obligatoires : l’application d’une norme est rendue obligatoire par sa
présence dans un texte réglementaire comme un moyen unique de satisfaire la
régulation en question. Il s’agit alors d’un soutien technique d’ordre politique qui se
maintient dans la durée et qui prend la forme d’une collaboration entre organismes
étatiques et infrastructures privées.
Si une arme "relationnelle" permet de dominer pendant un temps, sur des sujets très précis, la
véritable puissance, à la fois la plus durable et la moins coûteuse, est bien la puissance
“systémique”. Donc, le meilleur moyen d’obtenir cette puissance est de contrôler les structures
qui écrivent les règles du jeu dans lequel tous les acteurs sont amenés à évoluer. Ces règles, ce
sont notamment les normes. Celles qui fixent le standard des grille-pains et des huiles de
moteur, comme celles qui fixent le standard de qualité d’une profession, d’un secteur, d’un
comportement… Ces normes peuvent encadrer presque tous les éléments de la vie des
hommes et des entreprises.
Occuper une place dans les comités de normalisation, avoir un rôle d’impulsion, participer aux
travaux d’élaboration : voilà donc autant de façon de participer à la mise en place des “règles
du jeu” que sont les normes et donc d’accroître la puissance structurelle dont bénéficie le pays,
Les acteurs du marché ont ainsi intérêt à s’investir davantage dans la normalisation puisqu’elle
est le cadre de référence pour toute densité essayant de s’introduire dans un espace
d’échanges économiques. La normalisation permet à celui qui s’en saisit permet d’anticiper les
évolutions techniques, d’orienter le marché et donc in fine de façonner les frontières de
l’espace concurrentiel.
Historiquement, la France a toujours été très active au sein des comités normatifs des secteurs
traditionnels comme l’agriculture ou les industries lourdes. Mais l’Hexagone accumule un
retard important dans le secteur des nouvelles technologies – dont l’IA fait partie –, des secteurs
où la Chine et les Etats-Unis dominent aujourd’hui très largement, imposant leur agenda, leur
rythme et ultimement leur vision à travers la norme.
Ainsi, si la France veut être capable de faire valoir ses intérêts face aux rouleaux compresseurs
chinois et américain, elle se doit impérativement d’investir son énergie dans le renforcement
de son arsenal normatif en participant à l’écriture des règles du jeu de cette grande technologie
de demain.
Cet investissement dans la normalisation, véritable politique de long terme, permettra d'abord
à l'hexagone et ses alliés européens de protéger leurs populations en privilégiant l’éthique face
à une technologie au potentiel intrusif important. Sur le plan politique et commercial, dans le
cadre de la guerre économique qui agite notre monde mondialisé, investir sur la normalisation
c’est aussi se donner les moyens de rester compétitif face à la toute-puissance des deux
mastodontes de l’Est et de l’Ouest, de ralentir leurs efforts, voire d’identifier, conquérir et
protéger des niches industrielles que nos entreprises pourront tenir et développer de manière
durable.
Dans un rapport intitulé Stratégies Nationales de Normalisation 59 (SNN), l’ISO énonce qu’une
SNN vise à déterminer “une feuille de route politique qui permet à un pays de s’assurer que ses
priorités stratégiques nationales sont soutenues par des normes nationales et internationales
pertinentes”. La SNN nécessite alors d’être cohérente avec les priorités économiques, sociales
et environnementales du pays, soit la stratégie globale du pays qui la met en place.
Par conséquent, comme tous les pays n’ont pas les mêmes priorités dans les domaines cités ci-
dessus, et n’ont donc pas la même stratégie, il n’existe pas de SNN générique applicable par un
Sans rentrer dans des détails qui n’auraient pas leur place dans ce rapport, une SNN devrait en
général suivre un processus en trois étapes ; premièrement un “diagnostic”, ensuite une
“politique directrice” et finalement “une action cohérente”60.
Le diagnostic est en réalité une étude des priorités nationales ainsi que de la stratégie déjà mise
en place par le pays souhaitant faire valoir ses normes. D’abord devrait avoir lieu une discussion
avec les différentes parties prenantes souhaitant s’engager dans le processus de normalisation.
Ensuite, il s’agit d’identifier les acteurs qui pourraient avoir des intérêts alignés à ceux du pays
visant à mettre en place sa stratégie. Et comme un plan ne s’élabore pas tout seul, des
discussions doivent avoir lieu avec les différentes parties prenantes en question. Cela permet
de recevoir une critique constructive et de nourrir le diagnostic en question afin de sculpter le
plan. Durant cette étape, les ressources disponibles (humaines, financières…) à l’organisme
national de normalisation doivent être conservées en toile de fond afin de ne pas commencer
à établir une stratégie “hors-sol”.
La politique directrice permet quant à elle d’impliquer l’ensemble des parties prenantes dans
un seul et même but, celui des objectifs à atteindre et des intérêts du pays en question.
Idéalement, l’ensemble des acteurs devraient être coordonnés dans le but d’agir de manière
cohérente afin d’éviter toute perte d’efficacité dans la capacité à influencer le processus de
normalisation.
60 Rumelt (2011), p. 7
Par ailleurs, une SNN se décide dans le cadre d’un “cycle de vie”61 qui vise à s’assurer que la
stratégie mise en place demeure pertinente dans le temps. En effet, si aucune boucle
permettant des feedbacks permanents sur l’évolution de l’environnement n’est présente, la
SNN risque d’être trop rigide lors de son exécution. Le cycle de vie comporte 6 phases :
Dans l'établissement de cette SNN il faudrait aussi prendre en compte les autres outils qui
pourraient permettre de maîtriser les accès au marché. Les brevets et les normes se complètent
et sont les deux faces d’une même pièce. Manipuler ces outils de façon stratégique peut
permettre de valoriser une technologie. La différence entre les deux réside majoritairement
dans l’approche de chacune des mesures.
Dès lors, si différents acteurs réussissent à s’imposer au sein d’une norme tout en déposant des
brevets relatifs à des technologies qui répondent à la mise en œuvre de cette norme, l’avantage
est double et sans équivoque.
Outre-Rhin, on observe une « culture brevet »62 qui, associée à une coopération entre les
acteurs de différentes industries, les pôles de recherches et les pouvoirs publics dans
l’établissement de ces brevets, a permis à ces derniers de répondre à des normes élaborées.
Par le passé, la France a aussi su tirer profit de cette stratégie pour les piles à combustibles,
l’hydrogène ou encore les technologies du nucléaire.63 C’est cette stratégie qui a en partie
permis au pays de rester compétitif dans ces domaines disruptifs. Ainsi, l’Hexagone a tout
intérêt à passer le pas et d’employer des stratégies similaires pour la normalisation au sein de
l’Intelligence Artificielle tout en restant vigilant à ce que l’établissement d’une telle stratégie
n'entraîne pas un litige juridique pour abus de position dominante.64
Derrière la technicité du sujet normatif et les aspects purement commerciaux se cache un enjeu
à la dimension culturelle non négligeable 65. En réalité, plus une norme aura un impact fort sur
la société, plus la bataille culturelle entre différentes parties du monde (donc entre différentes
visions du monde) sera forte, cela en dépit de la technicité de la norme. Cette dernière peut
servir d’outil de domination culturelle, un aspect qui manque cruellement de couverture étant
donné les enjeux qui se jouent à travers le cadre normatif.
Un exemple : il y a cinq ans, la Chine a proposé un nouveau système WIFI, le WAPI à l’aide d’une
nouvelle norme. Au départ, l’idée fut reçue parmi les pays occidentaux comme bonne et
recevable. Mais lorsque l’un de ces derniers réalise que le WAPI, au-delà d’être un simple sujet
de boîte électronique, touche au cœur même de la transmission des données, il fait prendre
conscience aux autres acteurs des menaces qu’un tel système pourrait impliquer en termes de
gouvernance de la vie privée. Ayant mis la lumière sur ce sujet, d’autres pays occidentaux se
62 Conseil Économique et Social. (1998, mai). APPROCHE ANALYTIQUE DES BREVETS ET DES NORMES. page 27-28
https://www.vie-publique.fr/sites/default/files/rapport/pdf/984001716.pdf
63 Webinaire "Normalisation et innovation" . La normalisation outil d’influence pour le CEA. Corinne Hueber-
technique "Management de l'innovation" à l'ISO, il conseille les entreprises sur les stratégies en lobbying normatif
lors d’un entretien réalisé le 19.04.2022.
sont opposés au projet chinois bien qu’il eût été techniquement très intéressant. Ce cas soulève
une question cruciale cependant : qu’en serait-il advenu du futur de la vie privée si la
transmission des données avait pu être “accordée” aux Chinois ? Si personne n’avait été
attentif, l’adoption de cette norme aurait pu avoir des répercussions considérables sur la vie de
millions de citoyens occidentaux.
Par ailleurs, les enjeux culturels et commerciaux au sein des organismes de normalisation se
reflètent sur le personnel des différentes délégations actives. En effet, le président d’un comité
technique peut se retrouver sous une énorme pression car la nature de son rôle l’expose
particulièrement. Il n’est pas rare de voir des pressions psychologiques venant de membres
d’autres délégations ayant des intérêts divergents : SMS récurrents mettant en cause les
capacités de travail, voire intellectuelles du président, pression et autres techniques de
déstabilisation peuvent être utilisées à l’encontre des individus. Ces méthodes ont pour but de
semer le doute chez certains acteurs et de les forcer à remettre en cause leurs propres légitimité
et dans des cas extrêmes les pousser à la démission pour les remplacer par des personnes qui
avantageraient d’autres positions.
Les interactions des délégués au sein des organismes de normalisation demeurent très
“humaines” dans l’optique où les délégués de différentes nations sont en général en poste pour
quelques années et tissent parfois des liens de confiance, de méfiance, d’indifférence ou encore
d’amitié entre eux. Autant de types d’interactions qui se reflètent par la suite dans les votes.
La réputation est également un aspect important dans les interactions qu’ont les différentes
délégations entre elles. Il peut d’ailleurs arriver que certaines délégations jouissent de
l’avantage du paradigme de la culture dominante, c’est le cas notamment pour les Etats-Unis.
Certaines délégations, souvent venues de petits pays fortement influencés par les USA, ne
remettent pas en question la volonté américaine simplement parce qu’ils sont jugés comme
étant plus compétents en la matière. Pour ces pays, l’abandon de leur réflexion au profit des
Etats-Unis se traduit inévitablement par une perte de souveraineté.
Par ailleurs, l’anglais étant la langue la plus couramment parlée au sein des organismes de
normalisation, ceux qui maîtrisent cette langue sont structurellement avantagés.
Spécifiquement lorsqu’il s’agit de sujets techniques, car ce sont dans ces domaines que les mots
utilisés pour décrire la norme prennent toute leur importance ce qui peut parfois donner lieu à
l’endiguement d’une décision autour d’un mot qui ne ferait pas l’unanimité.
Finalement, pour les entreprises il ne faut surtout pas oublier qu’avoir une présence au sein des
organismes de normalisation est un formidable outil de récupération de l’information. Ceci
permet d'interagir avec les parties prenantes, de se mettre au courant de leurs stratégies, de
leurs ambitions, de leurs développements et d’informations plus générales concernant le
comportement de certains concurrents. Cela permet aussi d’avoir une meilleure
compréhension de l’environnement commercial, culturel et industriel dans lequel une
entreprise ou un pays évolue.
A. Étude de cas : La « TYPE 3 », autopsie d’une défaite normative française dans le secteur
industriel
La prise de type 3 est un cas récent et représentatif qui permet d’étudier en profondeur la
puissance que peut avoir une stratégie d’influence normative lorsqu’elle est dirigée vers un
objectif défini. Cette étude d’une situation qui a tourné en défaveur de la France ne sert pas à
ressasser une vieille défaite pour la déplorer. Au contraire, il s'agit véritablement de souligner
toutes les erreurs qui ont été commises, d’identifier les opportunités manquées par la France
pour s’imposer sur ce dossier afin d’en tirer les enseignements.
Commençons par situer le contexte : au début de la décennie 2010, le marché européen des
véhicules électriques en est à ses balbutiements, mais une croissance exponentielle s’annonce
et les autorités communautaires semblent séduites à l’idée d’électriser le parc automobile de
l’Union.
Rapidement, une question d’ampleur se pose : à long terme, la vocation des véhicules
électriques est de pouvoir se substituer totalement aux véhicules thermiques, ceci implique que
chaque voiture, quel que soit le constructeur, le modèle ou le pays de production, puisse être
chargée, dans l’ensemble des pays de l’UE.
Or en 2010, les constructeurs automobiles de différents pays de l’union prenaient des directions
différentes, chaque constructeur et chaque pays proposant des systèmes de charge distincts.
- Pour les pays : les gouvernements européens ont déjà, en 2010, commencé à déployer
des bornes de charge. Or si certains pays ont investi dans des bornes de Type 2, d’autres
ont décidé de dépenser de larges sommes pour l’installation de bornes de Type 3. Il y aura
donc forcément des gagnants et des perdants quand la Commission Européenne
reconnaîtra définitivement une norme de prise plutôt qu’une autre
Sans surprise, dans le rapport de force qui apparaît, les deux camps se polarisent globalement
autour de la sphère d’influence allemande et de la sphère d’influence française. L’État
allemand, comme les constructeurs d’outre-rhin, soutient la prise de Type 2. Tandis que l’État
français, comme les principaux constructeurs de l’hexagone, soutient la prise de Type 3.
Mais les négociations virent rapidement en défaveur des Français, poussant les acteurs
défendant la Type 3 (majoritairement des groupes français et quelques groupes étrangers,
notamment en Italie) à se regrouper au sein d’un lobby créé pour l’occasion, L’EV Plug Alliance.
Cette tentative de peser sur le débat ne portera pas ses fruits car défendre une solution franco-
française par esprit de souveraineté ne suffit pas. Le rapport de force économique s’impose
avant tout, et le rouleau compresseur de l’industrie allemande parvient à faire plier les
entreprises et les constructeurs de l’hexagone.
Dès lors, en 2011 le groupe PSA Peugeot-Citroën décide par « réalisme commercial » de se
ranger derrière le choix allemand et d’opter pour la Type 2 pour ses véhicules électriques. Cette
« défection » fait l’effet d’une bombe car le camp français perd ainsi un acteur industriel de
poids, le groupe français représentant près de 20% des parts du marché automobile en Europe,
juste derrière l’allemand Volkswagen.
Le coup de grâce viendra en Mars 2012 par la décision de Renault d’opter pour la Type 2
allemande afin d’équiper sa Zoé, qui est alors le véhicule amiral de la flotte de voitures
électriques du géant français.
Au sein de l’EV Plug Alliance, suite au changement de cap des constructeurs français, l’acteur le
plus puissant devient… SCAME, un groupe italien. Ainsi, malgré le soutien d’officiels français (à
travers le Rapport Nègre ou le Rapport Hirtzman), si la « défection » de PSA Peugeot-Citroën
avait déjà bien entamé les chances de la Type 3, à partir de la « défection » de Renault, l’avenir
de la prise française se compte en jours.
La décision de Renault sera rendue officielle le 12 Mars 2012. Moins de deux semaines après,
le 21 mars 2012, l’association Eurelectric, qui représente une trentaine d’acteur de l’énergie
électrique du continent, publie un communiqué pour affirmer qu’elle soutient la Type 2
allemande contre la proposition française. Parmi les justifications données pour cette décision,
Eurelectric laisse notamment entendre que, dans les faits, la Type 2 a déjà gagné puisque dans
tous les pays européens, les pays installent des bornes de recharge sur ce modèle allemand.
Tous sauf la France, qui installe encore des bornes de Type 3 (les bornes Autolib parisiennes
étaient par exemple des bornes de Type 3).
La carte suivante, qui montre les choix fait par chaque pays en date de Mars 2012 est éloquente
tant elle montre l’isolement français sur la scène européenne : alors même que la norme qui
fera triompher la Type 2 n’a pas encore été adoptée, tous les pays européens se sont déjà
alignés sur les géants industriels allemands et reflète l’influence des acteurs d’outre-rhin dans
le domaine.
Le château de cartes commence à s’écrouler et après l’association Eurelec, le 4 mai 2012, c’est
au tour de l’Association des Constructeurs Européens d’Automobiles de se rallier
définitivement à la Type 2 allemande. On notera que PSA Peugeot-Citroën, comme Renault,
appartiennent tous les deux à ce lobby automobile.
Enfin, le 6 juin 2012 la Commission Européenne annonce soutenir la Type 2 allemande pour
uniformiser l’offre de prise de recharge électrique, justifiant cette prise de position par une
observation laconique et d’un empirisme fatal : « une convergence autour d’une solution basée
sur le Type 2 semblent être actuellement une option préférée par une large majorité des
acteurs ».
Cette décision des instances communautaires prend un statut officiel le 24 janvier 2013, lorsque
les institutions européennes de normalisation adoptent officiellement la Type 2 comme norme
pour les 27 pays membres. La décision sera annoncée par Siim Kallas, le vice-président de la
Commission européenne et la prise de Type 2 entre ainsi en vigueur comme norme officielle.
Ce qui par la même occasion, mettra fin à l’aventure de la Type 3 et aux efforts de l’industrie
française dans le domaine.
1) Synthèse de la chronologie de l’affrontement normatif Type 2 versus Type 3
Sans faire le procès des acteurs du dossier de la Prise de Type 3, le déroulé des faits de ce cas
pratique offre des enseignements importants sur les points faibles du dispositif normatif
français, points qui doivent être impérativement pris en compte pour comprendre la
normalisation et éviter des erreurs similaires sur le marché de l’IA. Parmi les différentes erreurs
commises par la France dans le cadre de la normalisation Type2/3, on observe notamment :
● Un certain fatalisme : le premier point remarquable dans le cas de la prise Type 3 est le
fatalisme voire le défaitisme dont ont fait preuve les acteurs français. D’abord
unanimement rangés derrière la solution française, les plus gros acteurs (PSA Peugeot-
Citroën, Renault), ont rapidement changé de camp, alors que la décision sur la norme
n’était pas encore actée. Les deux géants industriels français ont en effet considéré,
peut-être avec une pointe de vérité, que la solution française n’avait aucune chance de
triompher face aux propositions allemandes et au rouleau compresseur des
mastodontes d’outre-rhin… Mais partant de ce constat, ce faux-pragmatisme est
devenu auto-réalisateur. C’est parce qu’ils estiment la bataille perdue d’avance qu’ils se
retirent et que celle-ci sera bel-et-bien perdue, la victoire étant impossible en l’absence
des deux géants français. A la manière d’un célèbre stratège chinois, l’appareil d’État
allemand obtient ainsi des victoires normatives et économiques sans combattre,
simplement en ayant miné la confiance des acteurs adverses, les poussant à la reddition.
Les groupes français, fébriles sur leurs positions, ont ainsi intériorisé leur infériorité vis-
à-vis des Allemands, paralysé ils sont devenus incapables d’imaginer s’opposer à la
proposition allemande.
● Absence d’unité entre les acteurs français : ce point fondamental apparaît clairement
dans le dossier de la Type 3. Les acteurs français sont très divisés, à l’inverse des acteurs
allemands, qui eux chassent en meute et fonctionnent sur le mode de la coopétition
(s’unir pour éliminer la concurrence étrangère, avant de s’affronter entre allemand pour
le monopole sur le marché). La France de son côté fonctionne sur la compétition pure,
les acteurs français n’hésitant pas à s'aligner sur la proposition allemande en trahissant
les autres acteurs français, si cela leur permet d’engranger une avance et des parts de
marché. Les Allemands, comme les Américains ou les Chinois, savent parfaitement
utiliser cet opportunisme, pour diviser les acteurs français entre eux.
Grâce à cette vision combinée d'une influence intra-comité normatifs, liée à une
politique de conquête de marché, les industriels allemands ont pu triompher. Ils se sont
assurés de déployer la technologie qu’ils souhaitaient, de la normaliser à l’échelle
continentale, de sorte qu’elle puisse s’imposer de facto, avant même la reconnaissance
officielle par la Commission Européenne.
Ces éléments permettent donc de dégager les erreurs commises par la France et d’en déduire
les quatre postures à adopter sur le chantier de la normalisation de l’IA.
● Principe 1, refuser le fatalisme : au niveau européen comme mondial, quel que soit la
force de l’acteur adverse, il existe toujours un moyen de s’imposer ou de faire du
damage control ; il ne faut donc surtout pas refuser le combat ou le rapport de force
● Principe 2, sortir de la passivité : il est crucial d’adopter une position offensive, dans les
rapports de force permanents, sans tomber dans la naïveté vis à vis des intentions de
nos pays voisins.
● Principe 3, éviter à tout prix la division entre acteurs d'intérêts convergents : qu’il
s’agisse d’acteurs nationaux dont les intérêts convergent face à un concurrent
européen, ou d’acteurs européens convergent ensemble face aux USA ou la Chine,
l’important est de créer une unité entre ces acteurs. A cette fin, il est nécessaire que les
acteurs français soient encouragés à “faire bloc” derrière la stratégie normative
française : la défection d’un acteur français ou son ralliement à la stratégie normative
d’un pays étranger devrait ainsi être explicitement ou implicitement dénoncés.
● Principe 4, conserver en tout temps une vision de la normalisation centrée sur le
marché plus que sur le travail dans les comités eux même. A la manière des Allemands,
il faut tenter d’encercler les adversaires dans le champ industriel en imposant nos
normes dans la pratique commerciale ou l’industrie, avant même de mettre sur la table
le sujet de la normalisation au sens légal. La normalisation n’apparaît en fait que comme
le pyramidion ultime de toute cette structure, où 90% de l’effort consiste en fait à faire
adopter sa technologie par l’autre, et à utiliser ce soutien massif et diffus pour faire
accepter la norme en utilisant l’ensemble des leviers d’influence disponibles.
Les principes 1 et 2 consistent avant tout à changer la culture stratégique des acteurs français,
qui doivent sortir de la passivité et cultiver une vision plus volontariste et offensive des rapports
de force économique : il faut partir mener le combat normatif en ayant conscience que l’on
peut triompher.
Les principes 3 et 4 sont quant à eux des éléments de doctrine purement opérationnels, à
prendre en compte dans l'exécution tactique d’une stratégie de normalisation : avant même de
partir au combat, il faut s’assurer que les différents acteurs de son camp font bloc et s’assurer
d’avoir fait le “siège” de l’adversaire, avec un encerclement, tant industriel que commercial,
permettant à la norme que l’on défend d’avoir déjà gagné, puisqu’elle est déjà utilisée
massivement.
B. Étude de cas – L’European Cloud Service (EUCS) : une réussite en matière d’influence
française
Bien que n’étant pas une norme, l’European Cloud Service peut en de nombreux points
constituer une source d’inspiration pour les futures stratégies d’influence normatives
françaises. En effet, elle est la preuve que lorsque la France s’empare d’un sujet, et qu’elle en
est pionnière, elle est capable d’influencer les règles à une échelle supérieure, ici en
l'occurrence à l’échelle européenne.
Au cours de la décennie 2010, les pays européens ont commencé à adopter chacun des textes
de références à appliquer en matière de cybersécurité pour les hébergeurs de données
stratégiques, par exemple dans la santé ou la finance. En France, le SecNumCloud, régissant le
cadre du traitement des données, est géré par l'Agence nationale de la sécurité des systèmes
d'informations (ANSSI). Par ce biais, cette dernière a pour mission principale de venir en aide
aux entreprises en matière de cybersécurité, afin de leur garantir un niveau acceptable et de
les accompagner dans la lutte contre les actions malveillantes.
Dans le même temps, d'autres nations ont avancé dans le maintien d'une souveraineté pérenne
et sécuritaire de leurs données dites "stratégiques". C'est le cas de l'Allemagne, par le biais de
l’Office fédéral de la sécurité des technologies de l’information (BSI), qui s’est doté d’un texte
nommé le C5, ou encore des Pays-Bas, à travers la Zeker-online fondation et du texte Zeker-
online.
Le 17 avril 2019, est adopté le Cybersecurity Act, par l’Union européenne, qui détaille les
missions de l’ENISA (l’agence de l'Union européenne pour la cybersécurité) pour les années à
venir. Elle y énonce une coordination avec les agences nationales des pays européens, tout en
délivrant un cahier des charges détaillant la mise en place d’une stratégie afin d’élaborer des
certifications qui ont pour but d’influencer toute l’Europe en matière de cybersécurité. Cette
stratégie a abouti à un texte de référence pour l’ensemble des hébergeurs de données
européens dénommé l’European Cloud Service (ou EUCS) qui est le fruit d’un groupe de travail
au sein de l’ENISA, ayant réuni agences nationales en charge des questions de cybersécurité et
acteurs privés en lien avec le cyber66.
66 L’intérêt stratégique des normes et de la certification pour la confiance numérique -Club Cyber AEGE. (2022, 31
mars). [Vidéo]. YouTube.
https://www.youtube.com/watch?v=V_ZPQJEdMag
La certification désirée par l’ENISA a pour fondement la norme ISO 27001 relative à la
gouvernance de la sécurité informatique appuyée par un cadre de contrôle similaire aux
standards internationaux d’audit issu de la norme ISAE 3000 67, qui est la norme garantissant un
cadre de contrôle interne pertinent et robuste dont le RGPD est très largement inspiré68.
Cette coopération efficace au sein de l’Europe a permis de renforcer la légitimité des agences
telle que l’ANSSI, car outre sa participation active à l’élaboration d’une certification cloud
européenne, l’agence a été désignée par la France comme étant en charge « de l’autorisation
et de la notification des organismes de certification, du contrôle et de la supervision des
schémas européens de certification mis en œuvre, mais également, pour chaque schéma qui le
prévoit, de l’émission de certificats au niveau d’assurance élevé »69 conformément au
Cybersecurity Act qui laissait une période de deux ans à chaque Etat afin de désigner l’agence
en charge de la certification de cybersécurité.
Si les travaux de l’ANSSI ont connu un véritable succès pour l’élaboration de la certification
EUCC européenne, cela est dû à deux facteurs : une mobilisation de la communauté cloud et
une exigence de conformité renforcée vis-à-vis du RGPD.
https://www.grantthornton.fr/fr/insights/articles-et-publications/2020/la-norme-isae-3000-appliquee-au-rgpd-
et-pourquoi-pas/
69 Certification européenne : quelles perspectives pour 2022 ? (2022). ANSSI.
https://www.ssi.gouv.fr/actualite/certification-europeenne-quelles-perspectives-pour-2022/
70 DCmag - SecNumCloud – L’ANSSI publie la version 3.2 du référentiel d’exigences des prestataires de services
Outre la prise en compte des exigences européennes relatives à la protection des données
personnelles (RGPD) dans l’élaboration du SecNumCloud 3.2, l’ANSSI s’aligne sur la
jurisprudence de la Cour de Justice de l’Union européenne (CJUE) du 16 juillet 2020 « Schrems
II ». Cette jurisprudence est venue renforcer la protection des données personnelles des
citoyens européens en imposant une exigence d’équivalence de protection des données
lorsque celles-ci font l’objet d’un transfert en dehors de l’Europe. Or, en matière de protection
des données stockées par les fournisseurs de cloud sur le territoire européen, le SecNumCloud
3.2 offre des garanties qui permettent aux clients des offres d’hébergements cloud d’être
protégés vis-à-vis des législations non-européennes faisant l’objet d’extraterritorialité. Ainsi,
l’ANSSI a su prendre de l’avance en appliquant la jurisprudence « Schrems II » à la protection
des hébergements des données au sein de l’élaboration de la certification SecNumCloud 3.271,
ce qui a permis à l’agence française de faire valoir ces travaux de certifications à l’échelle
européenne.
Si le rôle de l’ANSSI au sein de l’élaboration d’une certification cloud européen est un succès
cela est dû à plusieurs facteurs qui ont permis à l’agence française de se positionner en réel
acteur de l’EUCS :
· Une veille active du droit positif : si l’ANSSI a vu ses certifications intégrées les travaux
européens, c’est notamment par le biais d’une prise en compte des évolutions
réglementaires en étendant le droit relatif à la protection des données des citoyens à
l’hébergement des données. Par ce fait, l’ANSSI s’est positionnée comme un acteur crédible
et légitime pour élaborer les certifications européennes indispensable dans l’harmonisation
des certifications à l’échelle européenne.
le-referentiel-secnumcloud/
II.2. Stratégie des acteurs phares
Lors deux dernières années, la Commission européenne a pris en main l’Intelligence Artificielle
à bras-le-corps afin d’établir une véritable feuille de route réglementaire pour considérer cette
innovation disruptive à sa juste valeur.
Le 19 février 2020 a été publié le livre blanc « IA-une approche européenne axée sur
l’excellence et la confiance » qui définit la stratégie de l’Union européenne en matière d’IA dans
le but de satisfaire un double objectif : promouvoir l’adoption de l’IA au sein des sociétés
européennes et tenir compte des risques inhérents à l’utilisation de l’IA.
Les objectifs principaux de cette réglementation peuvent être définis de la manière suivante :
L’AI Act a pour but d’instaurer la confiance grâce à un cadre juridique entourant l’IA. La
nouveauté réside dans son approche basée sur les risques, en incluant les risques sociétaux tels
que la transparence, l’éthique, l’impartialité ou encore le contrôle constant de l’Humain.
Les systèmes d’IA feront l’objet d’une classification en 4 segments de risques différents :
minimal/limité/élevé/inacceptable :
72
Les contrôles concernant ces systèmes classifiés niveau 3 porteront sur les données, la
fourniture d’informations, le contrôle par l’Humain, la transparence, la documentation, la
traçabilité la robustesse des systèmes et l’exactitude des buts poursuivies par les fournisseurs
d’IA sous peine de la mise en place d’amende ou de mise en place de correctif sous tutelle des
instances européennes afin d’être en conformité avec les règles de l’UE.
Pour ce faire, les normes dites « harmonisées » sont élaborées par un Organisme Européen de
Normalisation à la suite d’une demande (mandat) de la Commission Européenne relative à
une réglementation.
Alors que les exigences techniques édictées par la législation de l'UE sont obligatoires,
l'application des normes harmonisées n’est pas contraignante. Elles établissent des
spécifications techniques qui sont considérées comme étant adaptées ou suffisantes pour
respecter les exigences techniques de la législation européenne. Elles confèrent une
présomption de conformité à la réglementation.
En 2013, le rapport de Claude REVEL 74 rappelle que “les régulations internationales ne sont
jamais innocentes, elles déterminent des marchés, fixent des modes de gouvernance,
permettent à leurs auteurs de devancer la concurrence [...]. La France, secteurs public et privé
confondus, dispose de compétences remarquables et de savoir-faire pointus dans tous les
domaines. Mais encore trop peu d’entreprises et responsables publics ont associé à ces atouts
des stratégies d’intelligence économique et d’influence à long terme, portant notamment sur la
normalisation et l’action sur les règles du jeu. Des propos qui résonnent encore aujourd’hui
pour la course à la normalisation de l’IA.
https://ec.europa.eu/commission/presscorner/detail/fr/ip_21_1682
74 Rapport COMPLET REVEL, 28 déc 2012
https://www.vie-publique.fr/sites/default/files/rapport/pdf/134000079.pdf
La France souhaite engager les discussions sur les différents volets de la normalisation de l’IA
pour positionner et défendre ses intérêts face aux grandes puissances ou entreprises
technologiques étrangères. La stratégie développée vise à soutenir l’AI Act, en produisant des
normes permettant d’instaurer la confiance dans l’IA de la part des populations en introduisant
des exigences éthiques pour les systèmes d’IA.
Pour cela, la stratégie française rédigée par AFNOR se focalise sur 6 axes prioritaires :
Par cette stratégie, la France compte s’aligner sur la requête de normes harmonisées présentée
par la Commission Européenne, afin de positionner comme un moteur au niveau européen tout
en favorisant les intérêts des entreprises françaises.
Sortir d’une vision défensive sur les normes et la réglementation.
Bien que ces réglementations soient impératives, elles sont également révélatrices de
faiblesses dans le rapport de force avec les grandes puissances du numérique. En effet, comme
le relève le document du National Bureau of Asian Research, les leaders technologiques ont
plus de liberté pour permettre une approche normative basée sur les principes du marché libre,
tandis que les retardataires technologiques sont incités à adopter une approche plus
protectionniste des normes.
Ainsi, si nous n’arrivons pas à faire émerger des leaders technologiques dans le domaine de l’IA,
nous serons cantonnés à n’apporter qu’une approche défensive à l’élaboration des normes, si
toutefois nous arrivons à peser dans le processus de normalisation de l’IA.
Au-delà de l’occupation des postes majeurs d’un comité (à l’ISO par exemple), il est nécessaire
que les entreprises françaises occupent une place plus importante dans les groupes de travail
des organismes de normalisation internationaux si la France veut peser suffisamment sur le
processus de normalisation. En effet, comme nous l’avons vu précédemment par l’exemple des
Etats-Unis, seul un écosystème d’entreprises disposant de technologies bien installées sur un
marché peut permettre une stratégie offensive de normalisation. Autrement dit, animer des
comités de normalisation ne suffit pas à influencer la norme qui émerge in fine de cet
organisme. Il faut des entreprises technologiques fortes, capables d’influencer la norme dans
le sens de leurs intérêts et de ceux de leur pays.
De plus, la réglementation est un jeu d’équilibre entre : faire naître des règles qui rendent le
marché plus compétitif pour nos entreprises et créer des barrières à l’entrée difficilement
https://www.iso.org/files/live/sites/isoorg/files/news/magazine/ISOfocus%20(2013-
NOW)/fr/2020/ISOfocus_139/ISOfocus_139_fr.pdf
surmontables pour de nouveaux acteurs. Il est important en effet de ne pas tomber dans le
piège de la régulation ; à force d’ériger des règles, l’innovation peut être entravée. Or, cette
dernière est indispensable à l’émergence d’acteurs technologiques français et européens.
Pire encore, la régulation peut favoriser les grands du secteur (pour l’instant majoritairement
étrangers) qui pourront se mettre en conformité plus rapidement et facilement en investissant
à hauteur du changement.
Le standard GSM avec la 2G, fruit d’un groupe de travail de la Conférence européenne des
administrations des postes et télécommunications (CEPT), en 1982, est un exemple de réussite
normative européenne. Le réseau GSM était une standardisation de télécommunication,
surtout développée par Ericsson. Il représentait 90% des parts de marché des téléphones
mobiles et était présent dans plus de 200 pays 76, faisant de lui le réseau le plus répandu au
monde. Cet exploit d’influence est difficile à réitérer pour le réseau 5G puisque les acteurs
majeurs en matière d’innovation et de normes sont les Etats-Unis et la Chine. (voir annexe 3)
Par ailleurs, il est à noter que l’UE, et plus particulièrement ses organismes de normalisation,
ont signé des accords avec les organismes internationaux : il s’agit des accords de Vienne, signé
en 1991, par le CEN et l’ISO77 et de Dresde, signé en 1996, par le CENELEC et l’IEC. Ils visent à
favoriser l’élaboration de normes au niveau international, plutôt qu'au niveau européen. Ainsi,
nombre de normes font l’objet de vote parallèle identique : environ 70 % des normes élaborées
par l’IEC se retrouvent au niveau européen et environ 30 % de celles adoptées par l’ISO le sont
aussi par le CEN. Ainsi, si les organismes européens gardent une indépendance vis-à-vis de leur
partenaire, ces accords peuvent leur être défavorables. En effet, puisque les normes s’élaborent
au niveau international, les pays européens doivent influer directement depuis les organismes
internationaux. Or, si dans les sous-comités et dans les groupes de travail, les pays européens
sont présents, nous avons pu constater qu’être présent n’est pas suffisant pour mettre en avant
ses intérêts, il faut être actif, ce qui implique de disposer d’entreprises de taille.
Les propos recueillis durant notre entretien avec Patrick Bezombes nous confortent dans l’idée
que sur un secteur aussi stratégique que celui de l’Intelligence Artificielle, nous ne pouvons tirer
profit de cet outil de puissance que constitue la norme que si nous améliorons la compétitivité
https://isotc.iso.org/livelink/livelink?func=ll&objId=4230451&objAction=browse&sort=subtype
de notre tissu économique français et européen dans ce secteur. En effet, M. Bezombes
souligne que « Si demain des entreprises américaines décident de se mettre ensemble et de créer
des normes, le seul moyen de les contrer c’est d’avoir les mêmes entreprises en France et en
Europe et qu’elles se mettent ensemble pour essayer de les contrer ». Il ajoute : « C’est toute la
difficulté dans le monde numérique, c’est que nous n’avons pas suffisamment d’acteurs
numériques crédibles, l'état du tissu économique français et européen dans ce secteur n’est pas
à la hauteur de celui des américains et des chinois ».
2.2. Stratégie Chinoise
La prise de conscience par l’ISO et l’IEC d’une nécessité d’un encadrement des normes liées aux
différentes applications de l’Intelligence Artificielle remonte seulement à 2018. Des comités ad
hoc existent désormais pour répondre aux besoins de normalisation dans ces domaines. Ceux-
ci sont en apparence verrouillés par les États-Unis qui tiennent la plupart des postes clés. Pour
autant la Chine arrive à placer quelques membres notamment au sein de l’IEC, susceptibles de
mener des actions d’influence. Par ailleurs, la première réunion du sous-comité chargé de
l’Intelligence Artificielle pour l’ISO (ISO-IEC JTC1/SC 42) s’est tenue du 18 au 20 avril 2018 à
Pékin montrant la volonté du pays de se placer comme un acteur essentiel pour le
développement de ces normes.
Au-delà de cette présence accrue des spécialistes chinois dans les différents comités, le projet
Belt and Road Initiative (BRI) permet d’engager des actions « bottom-up » propres à influencer
les normes internationales. Outil majeur du développement économique chinois, le BRI installe
une domination économique sur un ensemble de pays tant en Afrique, en Asie et en Europe.
Ces mêmes États subissent des pressions chinoises pour adopter des normes propres à imposer
les technologies de l’empire du milieu. Ce faisant, la Chine mène une guerre normative afin de
ne plus être seule au sein des organismes internationaux.
La Chine a fait le choix en matière de normalisation internationale de suivre ses propres
initiatives après avoir jugé les instances internationales dans ce domaine trop lente. Ainsi, le
pays développe sa stratégie normative par le biais d’accords bilatéraux avec des pays
producteurs de normes avérés ou bien avec des pays en voie de développement n’ayant pas
particulièrement de stratégie normative encore établie.
La Chine cherche par le projet BRI l’élaboration de collaborations des normes avec les différents
pays acteurs. Durant le premier forum autour de cette initiative en 2017, Pékin a signé des
accords sur la reconnaissance mutuelle des normes avec 12 pays : La Russie, la Biélorussie, la
Serbie, la Mongolie, le Cambodge, la Malaisie, la Kazakhstan, l’Éthiopie, la Grèce, la Suisse et
pour finir la Turquie. En 2019, ces accords se sont développés avec 49 pays et non plus 12.
Imposition des normes par l’innovation
Concernant la 6G, la Chine a pour plan d’augmenter encore le développement R&D et la mise
en place de cette technologie sur leur territoire national. Au niveau de l'international, Pékin
prévoit de s’impliquer et d’être moteur dans la création de normes internationales sur la 6G. La
stratégie autour de cette technologie a débuté dès 2019 78, alors même que le déploiement de
la 5G avait été mis en place. Le PCC a débuté dès 2020 une collaboration avec les entreprises
de télécommunication nationales telles que ZTE China Unicom ou encore Huawei autour de la
technologie, l’innovation et les normes.
78 A. (2021, 18 novembre).6G in China is at the initial stage of development, here is what you should know.
Daxue Consulting - Market Research China. https://daxueconsulting.com/6g-in-china/
Ainsi, la Chine est en août 2021 le pays ayant développé le plus de brevets autour de cette
technologie79 en détenant 40,3% des demandes de brevets contre 35,2% pour les Etats-Unis.
Cette étude du Cyber Creative Institute a basé ses analyses sur 9 technologies dont les
télécommunications, les stations de base, les technologies quantiques, et l’Intelligence
Artificielle.
En tant qu’acteur majeur dans les domaines du numérique, la Chine puise une partie de sa force
à travers ses efforts dans le champ normatif. Bien que la montée en puissance du pays se soit
faite sur une période relativement courte, les industriels eux ont su préparer le terrain en amont
pour devenir leader dans certains domaines d’innovation comme la 6G. Il est donc indéniable
que la Chine a la pleine maîtrise de ses outils normatifs et par conséquent qu’elle les utilise dans
le développement d’une IA qui correspond à ses valeurs. Par conséquent, les pays qui
souhaitent conserver une souveraineté numérique devront se protéger eux aussi par la norme
pour éviter de se voir imposer un développement de l’IA qui irait à l’encontre de leurs visions
de l’éthique numérique.
La position des grandes puissances de l’IA dans le monde ne peut être comprise qu’à travers
l’étude de leur stratégie d’influence globale dans le secteur du numérique.
Cette position de leader témoigne de la capacité américaine à faire émerger des technologies
de grande qualité, ce qui constitue indéniablement une des raisons pour lesquelles l’usage de
ces technologies est si important.
Toutefois, cette position dominante sur le marché depuis les débuts d’internet agit également
comme vecteur d’influence pour les Etats-Unis lorsqu’il s’agit d’imposer leurs volontés dans le
cyberespace et de créer ainsi des dépendances.
C’est cette légitimité acquise dans l’espace numérique qui conditionne l’utilisation de leurs
technologies, en Europe comme dans le monde entier. Le soft power américain a ainsi un impact
considérable sur le numérique.
Cédric Villani souligne dans son rapport d’information paru en 2018 et intitulé « Les enjeux de
la numérisation des armées », le processus par lequel la domination américaine s’impose
comme une fatalité dans le domaine de l’Intelligence Artificielle. Il affirme : « le cœur politique
et économique de l’Intelligence Artificielle bat toujours dans la Silicon Valley, qui fait encore
office de modèle pour tout ce que l’Europe compte d’innovateurs ». Pour lui, « plus qu’un lieu,
davantage qu’un écosystème particulier, [la Silicon Valley est], pour beaucoup d’acteurs publics
et privés, un état d’esprit qu’il conviendrait de répliquer » ; ainsi, « la domination californienne,
qui subsiste dans les discours et dans les têtes, nourrit l’idée d’une voie unique, d’un
déterminisme technologique ». 80
D’autre part, l’industrie du numérique est vue par les Etats-Unis comme un secteur d’une
importance éminemment stratégique : les Américains ne cachent pas leur volonté de faire de
leurs technologies numériques des outils de puissance dans la confrontation avec les autres
pays.
Dans ce même rapport d’information sur les enjeux de la numérisation des armées, Cédric
Villani a analysé la lecture que fait l’Eisenhower School de la politique numérique des Etats-
● Se servir du numérique comme d’un outil de puissance parmi d’autres, d’une part en
tenant un rôle déterminant dans la définition des standards et des normes et, d’autre
part, en consentant des efforts substantiels d’éducation de la population à l’« hygiène
cybernétique » pour limiter les vulnérabilités numériques de la société américaine.
La stratégie d’influence américaine dans le numérique s’appuie sur les normes et les standards.
Pour comprendre comment s’opère l’influence des Etats-Unis sur les normes, il convient de
comprendre l’objectif initial que poursuivent ces normes.
Si ces objectifs sont officiellement affichés par tous les acteurs qui participent à l’élaboration
des normes, il apparaît que, dans la réalité, les entreprises américaines voient surtout la
normalisation comme un formidable outil de conquête de marchés internationaux par
l’établissement de standards, ceux-ci permettant de renforcer la dominance et la compétitivité
des technologies et entreprises américaines.
Il est nécessaire de distinguer la nature des normes qui émergent dans l’économie numérique
afin de comprendre les processus par lesquels ces différentes normes émergent ainsi que la
manière dont les Etats-Unis s’en servent comme un outil de puissance.
● La première renvoie à des spécifications techniques ou des textes élaborés par des
forums ou des consortiums, dans des cadres spécifiques qui peuvent être de nature
différente.
● Le second, utilisé au sens de l’ISO (l'Organisation internationale de normalisation)
désigne des textes élaborés de façon consensuelle, dans l’intérêt général, sur le principe
d’une application volontaire même s’il est prévu que certaines normes puissent être
rendues d’application obligatoire par voie réglementaire. Ces normes sont approuvées
par un organisme avec une activité normative reconnue.
Les normes « institutionnelles » sont donc des normes publiques et sont destinées à être
utilisées par tous, alors que les normes « de facto » font généralement l’objet d’un droit exclusif
d’une ou plusieurs entreprises.
L’écosystème de l’innovation numérique est tellement prolifique aux Etats-Unis, qu’un grand
nombre de technologies américaines s’imposent « de facto » par le simple fait qu’elles sont
régulièrement pionnières dans beaucoup de domaines.
En effet, le rapport d’information sur les enjeux de la numérisation des armées produit par
Cédric Villani mettait en lumière en 2018 les effets d’échelle à l’œuvre et l’intensité des
échanges d’informations dans l’économie numérique, qui conduisent souvent l’ensemble des
acteurs à adopter un même standard.
Cette situation est extrêmement préjudiciable pour la France et l’Europe qui n’auraient d’autre
choix que “de prendre le train en marche” d’après lui.
Le système QWERTY était l'une des nombreuses options pour la disposition des lettres sur les
touches de la machine à écrire (et plus tard du clavier). Il est pourtant devenu une norme de
facto car il était utilisé sur les machines à écrire les plus vendues dans le commerce, contribuant
ainsi à répandre ce système de manière généralisée. L’agencement en QWERTY est maintenant
82Rapport d’information sur les enjeux de la numérisation des armées, La commission de la défense nationale et
des forces armées, mai 2018
utilisé sur une très grande majorité des claviers anglais, de la machine à écrire, au clavier
d’ordinateur en passant par les claviers sur écran tactile.
De même, le format en “.doc” de Microsoft Word a très vite dominé le marché et est
aujourd’hui pris en charge par toutes les applications bureautiques, y compris par les logiciels
open source ou les logiciels qui veulent concurrencer Microsoft. Cette norme s’est donc
véritablement imposée de facto et constitue aujourd’hui un standard de référence dans le
monde entier.
Si l’on se penche sur la manière dont les normes institutionnelles émergent aux Etats-Unis, il
semble pertinent de distinguer ce processus américain (très libéral et valorisant l’impulsion des
entreprises privées), de ce qui peut se produire par ailleurs dans un pays comme la Chine, où la
normalisation est impulsée de façon presque exclusive par l’État central.
Ces deux organisations sont les principaux organismes de normalisation dans les technologies
numériques et sont, en 2022, à l’origine de 85 % de toutes les normes internationales.
Les normes institutionnelles (ou volontaires) qui sont établies dans ces instances de
normalisation sont déterminées par la situation du marché pour lequel ces normes sont
destinées. En effet, le document du National Bureau of Asian Research souligne que dans tous
les domaines de la politique technologique, la position d’un pays ou d’une entreprise sur les
normes dépend de sa position sur le marché. La meilleure technologie l'emporte généralement
et la norme de facto sur le marché devient souvent la norme codifiée dans l'organisme
international.
À travers ces propos, on comprend que si les normes internationales ont vocation à servir
l’intérêt général, il se trouve que les entreprises qui en sont à l’origine participent
principalement aux groupes de travail pour faire valoir leurs intérêts.
D’autre part, bien que les coûts d’accès à ces groupes de travail à l’origine des normes dans ces
institutions soient adaptés à la taille de l’entreprise (les prix varient selon les moyens financiers
des entreprises), il semble que l’implication de chaque entreprise reste de facto corrélée aux
moyens financiers et humains de l’entreprise, les TPE/PME ayant de toute évidence du mal à
libérer des ressources suffisantes pour réellement s’investir dans ces comités sur le long terme.
En effet, M. Bezombes souligne à propos des Etats-Unis que sur le marché du numérique «
lorsque des groupes américains font des milliards de bénéfice par an, cela ne leur pose pas
beaucoup de problème d’investir dans une équipe de cent personnes uniquement pour
travailler sur la norme et se projeter dans une vision de long terme sur ce sujet ». Il est possible
d’en déduire qu’à l’inverse, une entreprise de moindre taille a rarement les ressources
humaines suffisantes pour s’impliquer dans l’élaboration des normes, que ce soit au travers
d’organismes internationaux, ou de consortiums.
De plus, lorsque l’on s’intéresse à la manière dont se déroule les groupes de travail de l’ISO, M.
Bezombes étant président du Groupe "Feuille de route de la normalisation IA" à l’ISO/42 fait
remarquer (dans ce groupe précis) que « les vrais acteurs qui travaillent ne sont pas nombreux,
et sont généralement toujours les mêmes : Microsoft, Huawei, IBM … et en pratique des
groupes de dimension internationale capable d’avoir une stratégie de normalisation à long
terme. Certains acteurs, comme Google sont initialement dans la norme de facto, mais
s’intéressent également à la norme volontaire étant donné son lien avec la réglementation. »
Il ajoute également que « lorsque l’on connaît l’impact des normes sur les usages, il est
invraisemblable de constater qu’environ trente à quarante personnes (au mieux) sont
présentes aux groupes de travail. C'est-à -dire que la norme mondiale est faite par ces quarante
personnes. » Ceci, en sachant que selon lui « la discussion est monopolisée par un tout petit
nombre de personnes et qu’environ les deux tiers de la salle ne disent pas un mot ».
Ces chiffres sont bien évidemment estimatifs et peuvent varier d’un groupe de travail à l’autre
mais l’on peut en déduire que trop peu d’acteurs européens s’impliquent réellement dans les
groupes de travail à l’ISO.
Ainsi, regarder la nationalité des chefs de délégation ou des experts de certains groupes de
travail ne donne pas nécessairement d'indications sur ceux qui font la norme.
Tout ceci laisse donc apparaître une normalisation pilotée par un très petit nombre d’acteurs
ayant une vision stratégique sur leur marchés respectifs, et où les normes volontaires
internationales dans le domaine numérique sont développées par une petite minorité
d’experts, très souvent les mêmes, qui se sont imposés en partie grâce à la position dominante
des entreprises auxquelles ils appartiennent.
Dans les faits donc, lorsqu’on regarde les normes ISO dans le numérique, on constate que
certaines d’entre elles étaient à l’origine des normes de facto et sont devenues des normes
institutionnelles.
Le format PDF (format de fichier informatique) a été créé pour la première fois en 1993 par
Adobe, sous la forme d’une norme de facto. Mais en 2005, le format PDF / A est devenu une
norme ISO sous le nom ISO 19005-1 : 2005, pour devenir en 2008 la norme ISO 32000-1 : 2008.
De son côté, Microsoft a mené une campagne de grande ampleur pour faire adopter son format
de document Open XML en tant que norme ISO en 2008. Ceci, malgré de vives réticences de la
part de nombreuses associations 83 promouvant les logiciels libres, mais aussi de géants
concurrents comme Google, Sun ou IBM qui soutenaient le format ODF84 (Open document
format) utilisé dans la suite bureautique open source intitulée OpenOffice.
Tous ces exemples confirment que, en faisant partie des meilleures entreprises sur le marché
du numérique, beaucoup d’entreprises américaines arrivent à faire de leurs normes de facto,
des normes institutionnelles, cela parce que leur technologie est leader sur le marché, ou
simplement parce que cette position de leader leur permet d’exercer une influence significative
dans les groupes de travail de normalisation.
procédure accélérée dans l’examen d’une deuxième norme bureautique à l’ISO. | AFUL. (2007, 2 février). AFUL.
https://aful.org/communiques/afnor-fasttrack-iso
84 Pagbe, T. (2019, 22 octobre). Open XML : Microsoft lutte toujours pour sa norme ISO. Silicon.
https://www.silicon.fr/open-xml-microsoft-lutte-toujours-pour-sa-norme-iso-28933.html
II.3. Cartographie des acteurs
La réalisation d’une cartographie des acteurs de la normalisation de l’IA au niveau international
permet de corroborer les différentes stratégies mises en place par les États présentées
précédemment.
● La présidence de groupe de travail (working group), qui permet de piloter les travaux
menés par le groupe, de conduire les orientations stratégiques ou encore de mobiliser
des experts ;
● Les project leader, qui désigne les experts à l’initiative d’un projet de norme et en charge
de conduire celui-ci jusqu’à publication.
Considérant ces deux indicateurs, on observe que l’activité normative se concentre sur un petit
nombre de pays. Ainsi, le Canada, les Etats-Unis (qui président également le sous-comité dans
sa globalité), l’Irlande, le Royaume-Uni, la France, la Chine et le Japon président les différents
groupes de travail. Concernant le nombre de project lead par pays, traduisant de manière plus
précise encore l’implication effective des acteurs, la Chine, le Royaume Uni, la Corée du Sud et
le Japon se positionnent comme les plus actifs en la matière.
Le détail des travaux de normalisation au sein des différents groupes permet en outre de
comprendre explicitement les stratégies employées par les pays leaders et les sujets qu’ils
considèrent comme prioritaires, à travers les entreprises impliquées et les moyens alloués. Il
conviendra de se focaliser sur les 5 working groups, dans lesquels sont élaborés les normes.
WG 1 : Foundational standards
WG 2 : Data
La composition du second groupe de travail dédié à la donnée traduit un fort intérêt de la part
d’un certain nombre d’acteurs, notamment au regard du grand nombre de projets de normes
développés. Alors que la répartition des participants par pays est plutôt équilibrée, une forte
participation américaine peut-être observée, par leur présidence du WG (via le NIST) et
plusieurs projets de normes. Une analyse des entreprises impliquées fait également ressortir
une forte présence des acteurs de la recherche (Corée du Sud, Japon, Inde, Irlande) sur ces
sujets.
WG 3 : Trustworthiness
Le groupe de travail n°4 sur les cas d’usages et les applications est presque entièrement piloté
par le Japon à travers une même entreprise, Fujitsu, qui en possède la présidence et a lancé
deux projets de normes sur trois.
WG 5 : Computational approaches and characteristics of AI systems
Le 5ème groupe de travail est lui entièrement contrôlé par la Chine, qui possède la présidence
et pilote les 3 projets de normes développés par le groupe. On constate ici qu’il s’agit
uniquement d’acteurs étatiques chinois, ceci expliquant peut-être la présence importante de
participants américains comparativement aux autres pays.
Le JTC 1-SC 42 est dominé par les États-Unis, suivi de la Chine, traduisant naturellement la
puissance technologique de ces deux acteurs dans l’IA et ainsi les moyens mobilisés pour influer
sur les normes. La différence de canaux d’influence utilisés retranscrit fidèlement les modes
opératoires habituels des deux pays :
Les Etats-Unis utilisent ainsi la force et le rayonnement de ses entreprises numériques (IBM,
Microsoft notamment) pour diffuser sa vision et assurer ses intérêts. Cette influence s’opère
particulièrement par la mobilisation des filiales nationales s’exprimant au nom du pays hôte
(IBM Germany et Microsoft Germany s’exprimant au nom du DIN allemand par exemple). Par
ailleurs, la présence en très grand nombre d’experts américains au sein des working groups
marque une différence importante avec les autres acteurs dans les moyens mobilisés pour
contribuer à la rédaction des normes, et donc à la leur contenu.
La Chine, elle, adopte naturellement une démarche nettement étatique, en mobilisant des
acteurs presque exclusivement liés à l’État (institut de recherche nationaux, entreprises
nationales etc). Outre le WG5 qu’elle contrôle intégralement, la Chine se positionne également
sur des sujets particulièrement stratégiques (qualité des données, contrôlabilité des systèmes,
évaluation de conformité). Enfin, la présence importante d’experts de Huawei est à noter dans
l’ensemble des groupes de travail, l’entreprise représentant un guichet unique de la stratégie
industrielle chinoise.
Enfin, la stratégie japonaise peut représenter un modèle d’inspiration pertinent pour la France.
Fort d’une présence équilibrée dans l’ensemble des groupes de travail, le Japon semble cibler
des sujets d’intérêts tout en mutualisant ses forces derrière un groupe d’acteur ou un acteur
unique (Fujitsu par exemple). Ce positionnement permet ainsi de deviner des stratégies de
filières mises en place dans la normalisation ainsi que de priorisation des sujets d’intérêts et
des opportunités d’influence.
Ainsi, l’analyse des différentes stratégies employées au niveau international permet de ressortir
3 enseignements :
Si la question d’un encadrement de l’IA par l’éthique peut être perçu comme un frein dans
l’acquisition des parts du marché vis-à-vis des concurrents américains et surtout chinois, il est
dans notre intérêt de percevoir l’éthique autrement. Étant donné que les populations
européennes sont plus attentives à ces enjeux, il paraît inconcevable de soustraire les
algorithmes d’IA à un contrôle dans ce domaine. Dès lors, le levier de la certification apparaît
comme stratégique. Cette étape obligée pour la mise sur le marché européen permettrait
d’affirmer une souveraineté numérique soutenant une politique d’éthique et de RSE.
Marquée par des décennies de « faiblesse », la France doit soutenir la mise en place de centres
d’innovations d’ampleurs mondiales au sein de ses territoires. L’objectif est d’attirer les
entreprises étrangères tout en soutenant les entreprises nationales. Cette démarche
permettrait d’inciter les meilleurs spécialistes, experts, ingénieurs, à travailler en France et pas
ailleurs comme ce que proposent les centres Y-Spot de Grenoble et d’Occitanie 85.
https://yspot.fr/
Recommandation 3 : Prioriser les actions de normalisation qui correspondent à nos intérêts
stratégiques
S’inspirer du Japon qui est un acteur qui a su montrer une forte capacité à transcrire ses intérêts
stratégiques en actions normatives pourrait permettre de mieux valoriser les atouts français.
Pour ce faire, le Japon a :
● Développé une doctrine qui visait à cibler les domaines stratégiques en termes de
normalisation. Cette doctrine étant basée sur un délaissement volontaire de certaines
parts de marché afin de devenir hyper-compétitif dans d’autres domaines davantage
stratégiques.
● Investi les groupes de travail dédiés aux domaines stratégiques définis par sa doctrine
de manière forte et intensive.
En plus de ces stratégies de positionnement dont la France doit s’inspirer, chaque place
stratégique détenue par des Français dont le mandat touche à sa fin doit être réévaluée et faire
l'objet d'un suivi pour que les postes restent soit sous la responsabilité de Français, soit d'alliés.
Le débat dépasse donc largement le cadre de l'IA : ce qui importe c'est de mener une véritable
campagne de diffusion, à large spectre, pour armer l’économie dans son ensemble sur le sujet
de la normalisation (entendue sous l'angle de l'intelligence économique, c'est à dire du rapport
de force). Cet éveil au sujet nous paraît un préalable nécessaire avant toute opération ciblée
concentrée au secteur de l'IA : cette campagne d'évangélisation prépare en quelque sorte le
terrain.
Dans cette campagne, l'effet final recherché serait de transmettre au public les trois messages
suivants :
● S'investir dans la normalisation est bénéfique économiquement pour les entreprises
(gains de parts de marché, profit, valorisation de l’innovation etc.…).
● S'investir dans la normalisation permet d’opérer une veille concurrentielle, d’influencer
les règles du marché et de valoriser sa technologie à l’international
● Contribuer à la normalisation permet de participer à la diffusion des positions françaises
sur les technologies stratégiques, et à défendre des stratégies industrielles.
Ce projet pourrait être mené par département en partenariat avec les Chambres de Commerce
et d'Industrie et pourrait donner lieu à certification ; il est aussi possible de mener ce projet
avec les Conseils Départementaux ou Régionaux, qui pourrait contribuer à animer l'écosystème
normatif local en fournissant des subventions ou des avantages fiscaux aux entreprises actives
dans ce domaine.
Ce projet pourrait être mené au niveau national en partenariat avec les différentes banques
d'investissement, fonds de capital-risque et incubateurs français. Par exemple, un
investissement BPI lors d'une levée de fonds, pour les start-ups de certains secteurs
stratégiques, pourrait être conditionné au suivi d'un court séminaire de sensibilisation à la
normalisation.
L'objectif est de faire essaimer la culture de la normalisation dès le lancement des start-ups,
mais aussi de permettre à l'AFNOR d'identifier dès le départ des interlocuteurs, au sein de ces
structures, pour les solliciter par la suite. A titre d’exemple, aux Etats-Unis il est fréquent que le
N.I.S.T, l’organisme de normalisation américain, sollicite certaines startups innovantes pour
participer à des groupes de travail.
Recommandation 4.3 : Organiser des séminaires de sensibilisation dans les grandes écoles
françaises et dans les masters spécialisés
Ce projet pourrait être mené au niveau national en partenariat avec les grandes écoles
françaises (de commerce, d'ingénieur, d'administration) et les différents masters stratégiques
(mathématiques appliqués, machine learning, sciences appliquées...).
Au même titre que des postes de "Compliance Officer" ou de "Data Protection Officer" ont été
créé et sont obligatoires pour les entreprises dépassant un certain seuil ou répondant à certains
critères, la même chose peut être imaginée pour la normalisation, un « standardization officer »
qui incarnerait le point de contact direct entre les entreprises et les organismes de
normalisation.
Au-delà du simple enjeu de l'IA (qui peut néanmoins être utilisé comme exemple clé), l'AFNOR
devrait mener, à l'égard du grand public, une large campagne d'information de long terme pour
faire connaître les enjeux de la normalisation sous l’angle tant stratégique que business. Pour
ce faire, des partenariats ou travaux communs via plusieurs types de canaux doivent être
envisagés : presse généraliste, chaînes YouTube, think-tank et instituts de recherches ou encore
universités.
L'enjeu ici est de sensibiliser le public aux enjeux de la normalisation, pour ouvrir le débat via
une acculturation généralisée, créant ainsi une inertie qui entrainera une pression positive sur
les acteurs du secteur de la normalisation, pour encourager une montée en puissance de
l'AFNOR et décupler ses moyens... En somme, pour créer un climat favorable à la normalisation.
86
Sensibilisation des directeurs d’études de la Faculté des Sciences, de la Technologie et de la Communication.
(2013, 22 mai). portail-qualité.lu. https://portail-qualite.public.lu/fr/actualites/normes-
normalisation/2013/sensibilisation-normalisation.html
L’IA donne justement un prétexte particulièrement propice à l’AFNOR pour lancer ce type de
campagne. Une posture “urgentiste” voire sur l’imminence de la réglementation européenne
et les enjeux de marché qui l’accompagne peut être envisagée pour sensibiliser le plus grand
nombre.
Les think-tanks permette de donner des orientations stratégiques aux secteurs auxquels ils sont
associés et ont pour corollaire de “façonner” les esprits en produisant de la doctrine. Dans cette
perspective, il nous paraît essentiel qu’un think tank dédié à la normalisation soit créé.
Celui-ci pourrait être en partie lié à l’AFNOR et pourrait faire l’objet d’un financement
public/privé. Il aurait pour but de pallier aux faiblesses françaises identifiées au cours de ce
rapport en termes de normalisation et pourrait reprendre à son compte certaines des
recommandations que nous proposons dans cette section.
Dans ce cadre, l’AFNOR pourrait se servir des contrats de recherche pour amener les chercheurs
vers la normalisation, de deux manières différentes :
Aussi, sur les sujets considérés comme stratégiques, le calcul du Crédit Impôt Recherche
pourrait comptabiliser les contributions fournies lors des travaux de normalisation. En effet,
cette mise à jour permettrait de valoriser et d’inciter à la participation effective dans les
instances européennes et internationales.
3. Impulsion de l’État
Ainsi, à court terme, il semble indispensable que l’État finance en partie la normalisation dans
ce secteur stratégique de l’IA. Concrètement, il faudrait qu’une partie des financements comme
le PIA (Programme d’Investissements d'Avenir) fasse l’objet de subventions aux entreprises
françaises, dédiées à la normalisation dans ce secteur. Ceci leur permettrait d’allouer des
ressources humaines aux processus de normalisation.
Il est vrai que des crédits d’impôts existent déjà mais ils ne semblent pas être suffisants pour
impliquer suffisamment les PME et TPE. De plus, si la participation des PME et TPE aux travaux
de l’AFNOR est gratuite depuis 2009, il est souvent difficile pour ces entreprises d’engager des
ressources humaines (à l’arrivée financières) dans les travaux de normalisation. 88
Recommandation 8 : Attribuer des subventions spéciales dans les secteurs stratégiques tels
que l’Intelligence Artificielle
En France, le financement public de la normalisation intervient par des subventions budgétaires
versées à l'AFNOR. Seulement, comme le relève en 2017 un rapport d’information sur la
88 Le décret n° 2009-697 du 16 juin2009 prévoit une exonération totale de droits à l’égard des PME de moins de
250 salariés ne dépendant pas à plus de 25 % d’un groupe de plus de 250 salariés
normalisation, ces subventions, en plus de n’avoir jamais été très élevées, sont en constante
diminution depuis 2009, alors même que la normalisation devient de plus en plus stratégique
au fil des années.89
En effet, ce budget est passé de 16,53 millions d'euros en 2009 à 6,6 millions en 2020. Dans ce
rapport, Alain Schmitt, chef du service de la compétitivité, de l'innovation et du développement
des entreprises à la DGE, affirme que « cette diminution était liée à l'état dégradé des finances
publiques ». L’AFNOR subit donc les conséquences d’une politique de « plus grande maîtrise
des coûts » en raison de cette dégradation des finances publiques.
Pour autant, il serait pertinent, compte tenu de leur importance pour la souveraineté nationale,
que certaines technologies stratégiques bénéficient d’aides particulières. Une subvention
spéciale fléchée vers la normalisation de ces secteurs, et en particulier vers les technologies du
numérique, trouverait ainsi tout son sens.
La France sera d’autant plus forte dans ses propositions normatives si elle a mis en place un
écosystème industriel fort autour de l’IA. En s’appuyant sur les initiatives déjà en cours pour
créer des entreprises numériques françaises d’envergure (OVH, Qwant…), le pays peut créer
des structures au sein desquelles les application d’Intelligence Artificielle pourront s’inscrire
sans craindre d’ingérence étrangère.
De plus, une mise en commun des moyens pour pousser à l’établissement des normes est
nécessaire. Porté par une société phare du secteur qui agrège les moyens de l’ensemble des
entreprises du domaine, un travail de préparation des normes peut être mis en place. Ce
faisant, les propositions de normes via les entreprises auraient plus de poids, d’une part, et
cette mise en commun des compétences permettrait aussi d’obtenir un “coup d’avance” au
moment de négocier les futures normes.
L’imposition de ces choix passe par une augmentation des rivalités autour des institutions
mondiales, des lois et des normes. Cependant, le rapport souligne aussi qu’aucun État ne sera
en mesure de dominer toutes les régions dans tous les domaines. À l’avenir, un plus grand
nombre d’acteurs seront en concurrence : des puissances rivales vont se bousculer pour
façonner les grandes lignes pendant que les puissances régionales et les acteurs non étatiques,
eux, pourront exercer une plus grande influence en prenant la tête de dossiers laissés de côté
par les grandes puissances. C’est là que les acteurs français ont leurs cartes à jouer.
Dans cette optique, ce dossier d’étude avait pour objectif de permettre aux lecteurs de mieux
cerner les enjeux importants et structurants de ce champ technologique large qu’est
l’Intelligence Artificielle, car ce domaine technologico-industriel structurera profondément les
rapports de force de demain et conférera un avantage majeur aux puissances qui auront acquis
une avance sur le sujet.
Le développement croissant des technologies IA par les puissances étatiques et privées impacte
chaque jour les relations de l’Homme avec lui-même et son environnement. Ce développement
est le fruit d’une motivation tripartite : la volonté d’innover, la recherche du pouvoir et la
volonté d’améliorer les conditions de vie, mais la priorité mise sur ces motivations tend à varier
dans le temps en fonction des aléas ou des objectifs propres à chacun des acteurs.
Similairement à ce qui a pu être observé entre l’URSS et les USA durant la guerre froide avec la
course à l’espace et aux armements, l’IA sera l’enjeux d’une course technologique qui opposera
majoritairement la Chine et les USA. Pris en tenaille dans ce rapport de force, la France et
l’Europe devront user de leurs leviers de puissance pour tirer leurs épingles du jeu et s’assurer
de rester compétitifs.
Dans cette course technologique, le premier facteur de compétitivité apparaît comme étant la
R&D, fer de lance de toute politique d’innovation. Mais les enseignements de l’intelligence
économique nous apprennent aussi que des moyens périphériques, tout aussi efficaces,
90National Intelligence Council (USA), & Smolar, P. (2021). Le monde en 2040 vu par la CIA : Un monde plus
contesté. EQUATEURS DOCUMENTS.
peuvent permettre à des acteurs de s’imposer dans un rapport de force : la normalisation en
fait partie.
Le propre de la normalisation est en effet de permettre à une puissance “en retard” sur le plan
technologique de s’imposer autrement, en utilisant la puissance normative pour soutenir ses
intérêts. Or, c’est exactement dans cette situation que se trouve la France : il est indéniable
que, malgré des efforts récents et de vrais atouts dans la recherche, l'hexagone et l’Europe
doivent encore combler leur retard par rapport aux géants américains et chinois.
C’est pourquoi il est indispensable pour les acteurs français d’être déterminés à se doter d’une
vision pragmatique et stratégique concernant la normalisation de l’IA face au deux mastodontes
mondiaux dans ce domaine.
Cette vision peut se traduire par la forme d’encerclement normatif préconisée dans ce rapport
: En utilisant ses alliés européens comme tremplin et ses partenaires africains comme atout, la
France a véritablement les moyens de porter une politique normative qui permettra de
protéger le pré-carré français. Si la France et l’UE ne s’attèlent pas à ce grand chantier, leurs
adversaires, eux, ne s’en priveront pas : certains ont même déjà adopté une politique de
normalisation agressive.
L’ensemble des recommandations présentées dans ce dossier visent à remplir cet objectif et
d'offrir à la France les moyens de ses ambitions. Avec ces recommandations structurelles
(concernant l’appareil normatif français en général) et ces recommandations plus
conjoncturelles (concernant l’aspect IA en particulier), la France sera armée pour mener la
bataille normative contre ses grands adversaires internationaux. Mais cela, à la condition
majeure que l’appareil politique français se mobilise sur ce sujet afin d’encourager les
industriels, les entreprises, les think-tanks, les centres de recherche et les chefs d’entreprise qui
veulent s’investir dans le champ normatif.
Annexes
91 Organisation internationale de normalisation. (2015). ISO en pratique | Délégués et experts : ce qu’ils doivent
savoir. http://www.eurogip.fr/images/pdf_page_normalisation/ISO%20en%20pratique%20FR.pdf
Annexe 2: Les canaux de normalisation
Le système français de normalisation repose sur un travail de coopération entre des acteurs
professionnels d’un secteur économique et d’experts. Cette relation entre ces deux parties
permettra à l'issue de l’étude de produire une norme.
En France, pour participer à l’élaboration d’une norme, l’organisation doit effectuer une
demande auprès du bureau de normalisation de son secteur d’activité ou directement auprès
de l’AFNOR. Cette participation nécessite un apport financier de la part de l’entreprise
volontaire pour financer l’élaboration de la norme désirée. 94
Le consommateur dispose lui aussi de sa représentation lors de l’élaboration d’une norme pour
défendre ses droits. 95 Sept représentants d'associations de consommateurs siègent au sein du
93 Lydie EVRARD, Déléguée Interministérielle Aux Normes. (2014, décembre). Politique nationale de
normalisation et stratégie pour la compétitivité de notre économie. https://www.vie-
publique.fr/sites/default/files/rapport/pdf/154000103.pdf
94 AFNOR Normalisation. (2021, 2 décembre). Comment participer à la normalisation ?
https://normalisation.afnor.org/foire-aux-questions/comment-participer-a-la-normalisation/
95 CNC
conseil d’administration de l’AFNOR. Ces représentants sont élus par le Conseil national de la
consommation (CNC).
L’État dispose du délégué interministériel aux normes pour représenter ses intérêts au sein du
Conseil d'administration de l’AFNOR. Le Comité de Coordination et de Pilotage de la
Normalisation (CCPN) détermine la stratégie et les objectifs d’un projet de normes donné. Ces
directives seront transmises au comité stratégique concerné. Il existe 15 CoS en France pour
représenter les différents secteurs d’activité.
AGROALIMENTAIRE
CONSTRUCTION ET URBANISME
ÉLECTROTECHNOLOGIES
GAZ
MANAGEMENT ET SERVICES
PÉTROLE
TRANSPORT ET LOGISTIQUE
Lors de l’élaboration d’une norme, les différents comités et bureaux constituent la Commission
de Normalisation. (CN)
Cette Commission prendra la décision après concertation de rédiger ou non le projet de norme.
Ensuite il y aura une consultation citoyenne sous forme d'enquête publique sur le site de
l’AFNOR. Cette étape est primordiale car en fonction de ce qu’il en ressortira, une révision de
la norme pourra être décidée.
Après confirmation de tous les axes du travail de la commission, le document deviendra
officiellement une norme NF validée par l’AFNOR.
En France, dès 1970, l’État s’est rendu compte du retard accumulé dans le domaine de la
téléphonie, d’où la mise en place du 6e plan de modernisation et d’équipement qui a permis de
« développer en un temps record un réseau parmi les plus performants du monde » 96. Ainsi,
jusque dans les années 1990 la France était dotée de fortes compétences dans ce domaine.
Établi en 1982, le GSM (Groupe spécial mobile) est un standard numérique de seconde
génération (2G) pour la téléphonie mobile provenant de la Conférence européenne des
administrations des postes et télécommunications (CEPT) qui a défini cette norme. Sa mise au
96
Albouy, M. (2019, 8 mai). France Télécom, une entreprise historiquement dans la tourmente de la révolution
technologique et sociale. The Conversation. https://theconversation.com/france-telecom-une-entreprise-
historiquement-dans-la-tourmente-de-la-revolution-technologique-et-sociale-116719
point ainsi que ses particularités ont été permises par l’ETSI, dans lequel la France, par le biais
l’AFNOR, occupe une place privilégiée.
Les normes 3GPP visent à réduire « la complexité et à éviter la fragmentation des technologies
proposées » et réunissent de manière constante sept organisations de développement des
normes de télécommunications nommées « partenaires organisationnels »97. Les études
produites au sein de la norme 3GPP ont pour but de fournir un environnement stable afin de
produire les rapports et les spécifications qui définissent et encadrent les technologies 3GPP.
Cependant, bien que l’Europe et notamment la France se soient imposées comme un leader
mondial de norme pour la téléphonie mobile avec la norme GSM, l’Europe subit un désavantage
normatif, notamment dû à sa perte de capacités industrielles.
En effet, en matière de R&D, l’État va commettre une erreur stratégique majeure. Incapable de
prendre le tournant de l’Internet, Alcatel98 apparaît comme la principale victime du boom
numérique. Cela peut résulter d’une incompréhension massive de ce que pouvait représenter
Internet en matière de télécommunications et d’un modèle industriel, dit « fabless », sans
usines, appauvrissant ainsi la capacité industrielle française. Conséquence de quoi, Alcatel va
subir une réduction progressive des effectifs du groupe s’élevant à deux tiers de 1995 à 2003.
C’est la politique du « ni-ni»99 qui va marquer la disparition d’Alcatel en tant que leader mondial
des équipementiers télécoms
Pour illustrer cela, le début du XXIe siècle est catastrophique en ce qui concerne le secteur de
la production industrielle par les acteurs de la télécommunication en France. En effet, selon
France Stratégie100 les exportations françaises entre 2000 et 2018 en matière de
télécommunications se sont réduites de plus de 55 % et ne s’élevaient en 2019 qu’à 4,4 milliards
d’euros. Durant la même période, la production industrielle d’équipements de communication
en France a été divisée par trois. Si la France devient incapable d’assumer un rôle important en
97 Ziora, F. (2021, 28juillet). Qu’est que le 3GPP ? Une coopération mondiale pour normaliser les
télécommunications mobiles. MCPTTstore. https://www.mcpttstore.com/blogs/infos/qu-est-que-le-3gpp-une-
cooperation-mondiale-pour-normaliser-les-telecommunications-mobiles
98 France Stratégie. (2020). Les politiques industrielles en France - Évolution et comparaisons internationales.
https://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/fs-2020-rapport-politique_industrielle-
novembre.pdf
99 Ibid.
100France Stratégie. (2020). Les politiques industrielles en France - Évolution et comparaisons internationales.
https://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/fs-2020-rapport-politique_industrielle-
novembre.pdf
matière d’exportation de produits fabriqués par ses entreprises, sa capacité à imposer des
normes deviendra automatiquement moindre.
Du côté des Etats-Unis, les acteurs privés ont des facilités à travailler ensemble ; la 5G fait ainsi
déjà l’objet d’une standardisation américaine, portée par l’IEE 101, plus grande association de
professionnels de l’électronique du monde. Il se pourrait que les standards américains à ce sujet
soient portés jusqu’à l’ISO, pour devenir ainsi la norme à l'échelle internationale. Du côté de la
Chine, une intervention des pouvoirs publics, via le plan China Standards 2035 est soupçonnée
de créer des barrières à l’entrée pour contre-attaquer les sanctions américaines contre Huawei.
Le groupe de travail international 3GPP, créé en 2015, est un acteur important dans la
normalisation de la 5G ; la dernière publication en date (18e publication) se concentre
notamment sur l’Intelligence Artificielle. La participation de entreprises, membres individuels,
au sein de 3GPP est soumis à l’obligation qu’ils soient représentés par les organismes normatifs
membres du groupe (ETSI, ANSI102, CCSA…). Nous pouvons ainsi apprécier les stratégies
d’influence normative des grandes entreprises américaines et chinoises, puisque leurs filiales
peuvent demander un siège auprès des organismes affiliés. Huawei par exemple a bénéficié de
deux sièges distincts, via le CCSA et l’ETSI 103. Ses concurrents européens Nokia et Ericsson ont
à l’inverse moins de marge de manœuvre dans La China Communications Standards Association
(CCSA) dans la mesure où seules des joint-ventures, avec des acteurs chinois, peuvent en être
membres.
Les champions restent les Etats-Unis avec un nombre important de membres individuels (57
membres) et 40 filiales américaines représentées par l’ETSI (contre 10 filiales chinoises). En
regardant la liste des membres individuels du 3GPP 104, le résultat est sans appel : ETSI est
peuplée de filiales tandis que les agences chinoise et américaine représentent peu voire aucune
entreprise de nationalité étrangère. En matière de contribution, Huawei a été en 2019 l’acteur
le plus engagé suivi d’Ericsson ; Nokia a quant à lui un bon taux de réussite pour faire valoir ses
intérêts comparativement à sa part de marché. Un signal positif pour les acteurs européens.