Vous êtes sur la page 1sur 18

BUT GEA

EXPRESSION-COMMUNICATION &
CULTURE GENERALE
________________

S6

________________

Durée : 2 heures

________________

Ce sujet n'est pas achevé :

- choisis les 4 textes que tu conserves (en plus du doc. 9, qui est à conserver)

- justifie ton choix

- propose 3 questions d'analyse, destinées à comparer les textes et le visuel (doc. 9) (sur 8 points)

- propose un sujet de discussion (sur 12 points)

Document n°1 : Émilie Lévêque, « Comment sauver le travail face à l'intelligence


artificielle ?», Pour l’Eco, 11 août 2021.
Document n°2 : « L’IA est-elle une menace pour l’emploi ? », La Tribune, 11 Mai 2023.
Document n°3 : Mohamed Zaraa, « Intelligence artificielle : entre menace
d'obsolescence et promesse d'innovation », Journal du Net, 9 oct. 2023
Document n°4 : Amandine Schmitt, « George R. R. Martin, Jonathan Franzen, John
Grisham et d’autres célèbres auteurs américains attaquent OpenAI », Le Nouvel Obs,
22 septembre 2023
Document n°5 : Boris Manenti, "Pourquoi ChatGPT est une bombe
environnementale", Le Nouvel Obs, 18 septembre 2023.
Document n°6 : Laure Van Ruymbeke, “Intelligence artificielle : « Des millions de
personnes vont bientôt perdre leur travail »”, Le Point, 3 novembre 2023.
Document n°7 : Sarah Halifa-Legrand, « J’ai été remplacée par une IA ! Mais un robot
ne peut pas faire ce que je faisais ! », Le Nouvel Obs, 26 septembre 2023.
Document n°8 : Laurence Neuer, « Avec l'IA, nous allons perdre certaines capacités,
mais en gagner d’autres », Le Point, 29 octobre 2023.
Document n°9 : “Les Français et l’IA”, Infographie réalisée par l’IFOP pour Talan, mai
2023.
Document n°1 : Émilie Lévêque, « Comment sauver le travail face à
l'intelligence artificielle ?», Pour l’Eco, 11 août 2021.

L'intelligence artificielle détruira-t-elle les emplois, et changera-t-elle radicalement la


nature du travail. Pour l'Éco a interrogé deux économistes spécialistes du sujet qui
en débattent.
Ariell Reshef, Professeur associé à la Paris School of Economics, chercheur au
CNRS et conseiller scientifique au CEPII. Ses recherches portent sur la répartition
des revenus – en particulier sur la relation entre les marchés du travail et le
commerce mondial, les changements technologiques et la réglementation.
La hausse de la productivité permettra une augmentation de la taille des entreprises
A.R. La crainte existe que les mutations technologiques entraînent la fin du travail.
Des articles récents suggèrent, d’une part, que l’intelligence artificielle, les robots et
l’automatisation pourraient provoquer un taux de chômage structurel élevé, d’autre
part que ces trois phénomènes ont déjà des effets sur les salariés.
En France, James Harrigan, Farid Toubal et Ariell Reshef montraient, en 2016, pour
le National Bureau of Economic Research (NBER), que le changement
technologique a polarisé le marché vers les emplois à haute valeur ajoutée et
les emplois non spécialisés, en réduisant ceux de la classe moyenne.
Un corpus considérable de littérature scientifique relativise toutefois les pertes
d’emplois. Des études de l’OCDE montrent qu’en moyenne, 9 % des emplois
américains sont menacés par l’automatisation.
En France, le Conseil d’orientation pour l’emploi estime que “moins de 10 % des
emplois existants présentent un cumul de vulnérabilités susceptible de menacer leur
existence dans un contexte d’automatisation”.
Bien que le progrès technologique « déplace » certains travailleurs, il crée
également une demande de masse salariale. L’analyse historique corrobore ce point
: les révolutions industrielles passées, en provoquant des changements structurels,
ont conduit au chômage technologique, mais il n’est pas certain que l’effet se soit
maintenu dans la durée et à grande échelle.
Aujourd’hui, nous sommes beaucoup mieux lotis que nos ancêtres. Il y a deux effets
dans le progrès technique. Le premier se traduit par une baisse de l’emploi suite à
une hausse de la productivité. À plus long terme, la hausse de la productivité permet
une augmentation de la taille des entreprises et donc la création d’emplois.
L’enjeu politique et social est de gérer cette transition, d’accompagner les personnes
qui ont perdu leur emploi en les formant aux nouveaux besoins des entreprises.
Georgios Petropoulos, chercheur résident à Bruegel. Ses recherches portent sur
l’économie numérique, l’organisation industrielle, la politique de la concurrence et
l’économie du travail. Dans le passé, il a occupé des postes à la BCE, à la Banque
de France et au département de recherche de HewlettPackard à Palo Alto
(Californie).
En séparant les tâches automatisables des autres
G.P. L’intelligence artificielle va certainement détruire certaines tâches, mais elle
va en créer d’autres. À mesure que les systèmes automatisés évoluent grâce aux
techniques d’apprentissage automatique, les machines deviennent plus intelligentes
et peuvent efficacement effectuer diverses tâches : traduction, reconnaissance
d’image et de voix, résolution de problèmes, pour n’en nommer que quelques-unes.
Alors que dans le passé, les machines remplaçaient principalement le travail dans
des tâches physiques (par exemple, des robots dans l’industrie automobile), elles
peuvent maintenant exécuter très bien de nombreuses tâches cognitives.
Cependant, les gains d’efficacité introduits peuvent donner lieu à de nouvelles
formes d’emploi, de nouvelles tâches nécessitant du travail. Nous l’avons déjà
vu dans l’économie de partage, où les systèmes d’IA et les technologies de
l’information créent des emplois via des plateformes.
La première question est donc de savoir quelles tâches seront très probablement
automatisées : les systèmes d’intelligence artificielle ont besoin d’accéder aux
données pour gagner en efficacité. Dans les tâches où de grands ensembles de
données de formation sont disponibles, la machine peut remplacer le travail.
En outre, les tâches pour lesquelles il n’est pas nécessaire de fournir des
explications ou un raisonnement long, ou bien les tâches ne nécessitant pas de
mobilité spécialisée ou d’aptitudes physiques avec plusieurs degrés de liberté ont
plus de chances d’être automatisées.
Il ne faut pas oublier que de nombreux métiers comportent une variété de tâches
parfois très hétérogènes. Un avocat prépare des accords contractuels, mais il se
présente également devant le tribunal pour défendre ses clients.
Par conséquent, si l’avocat peut compter sur l’intelligence artificielle pour préparer
un contrat de bonne qualité, il disposera de plus de temps pour préparer la
procédure judiciaire : un gain d’efficacité. Dans l’ensemble, l’effet positif de
productivité compensera l’effet négatif de déplacement de main-d’œuvre.
Émilie Lévêque, « Comment sauver le travail face à l'intelligence artificielle ?»,
Pour l’Eco, 11 août 2021.

Document n°2 : « L’IA est-elle une menace pour l’emploi ? », La Tribune, 11 Mai
2023.

Depuis le lancement de ChatGPT, l’intelligence artificielle est au cœur des débats.


Certes, cette technologie est présente depuis de nombreuses années, mais les
progrès récents suscitent des craintes concernant l’avenir de nombreux métiers. Une
récente étude réalisée par Goldman Sachs estime à 300 millions le nombre
d’emplois à temps plein impactés par l’IA. Cependant, elle pourrait également
favoriser l’émergence de nouvelles professions.
Les emplois très qualifiés également menacés par l'essor de l'IA
Selon les chercheurs de la banque d'investissement, toutes les activités susceptibles
d'être automatisées, partiellement ou totalement, risquent gros avec le
développement de l'IA. Et contrairement à une idée reçue, les métiers peu qualifiés
ne sont pas les seuls concernés, car l'IA ne se cantonne pas à des tâches répétitives
relativement simples.
Dans les domaines juridiques, administratifs, du téléconseil, de la banque, de
l'assurance, des fonctions requérant un niveau de qualification élevé sont menacées.
En effet, la technologie excelle dans le traitement de gros volumes de données, ou
la proposition d'un diagnostic à partir de règles réglementaires. Elle est également
beaucoup plus rapide et plus économique que les collaborateurs humains, même
très compétents.
La note de recherche de Goldman Sachs prédit ainsi des « perturbations
importantes sur le marché du travail en raison de l'essor de l'IA générative ». Les
travailleurs seniors, qui s'adaptent moins vite, seraient particulièrement exposés.
Aux États-Unis, environ 2 emplois sur 3 seraient affectés par l'introduction de l'IA au
sein de l'entreprise, parfois pour la moitié de leurs tâches. Ces conclusions
rejoignent celles d'une étude menée conjointement par OpenAI et de l'université de
Pennsylvanie, indiquant que « l'IA générative pourrait se substituer à 80 % des
employés américains pour au moins 10 % de leurs tâches ». Les analystes vont
même plus loin, anticipant « l'automatisation de 50 % des activités pour 19 % des
travailleurs outre-Atlantique ».
Des créations massives d'emplois attendues dans les économies développées
Au total, l'institution s'attend à ce que l'IA entraîne la disparition de deux tiers des
emplois actuels. Cependant, l'étude ne précise pas à quel rythme ces
bouleversements vont se produire, sans compter que le marché compte encore peu
de spécialistes en IA, notamment des data scientists, ingénieurs en cloud et
virtualisation, spécialistes en monétisation.
En se fiant à l'histoire, les experts sont d'ailleurs convaincus que les emplois vont
s'adapter, évitant des catastrophes sur le long terme. En outre, chaque révolution
ouvre la porte à de nouvelles opportunités. Le rapport de Goldman Sachs salue ainsi
une « avancée majeure » qui a le potentiel pour tirer l'économie vers le haut.
La banque ajoute prévoir une « hausse de 7 % du PIB mondial au cours de la
prochaine décennie ». Dans des régions comme les États-Unis ou l'Europe, l'impact
de l'IA serait similaire, les experts d'Accenture ou McKinsey prédisent la « création
massive » de nouveaux métiers, compensant ceux qui se transforment en
profondeur ou disparaissent. En 2020, le rapport « Future of Jobs » du World
Economic Forum, évaluait à 85 millions le nombre d'emplois remplacés par
l'intelligence artificielle à l'horizon 2025, contre 97 millions d'emplois créés. D'après
une étude réalisée par Dell en partenariat avec le think tank « l'Institut du Futur », «
85 % des emplois de 2030 n'existent pas encore aujourd'hui ». Certains imaginent
en effet des coachs pour robots ou chatbots, des géomaticiens, en plus des
psydesigners, etc.
En revanche, dans les pays émergents, où la part des emplois manuels sur le
marché du travail reste importante, l'IA devrait mettre plus de temps à s'imposer.
L'intervention humaine reste indispensable
Par ailleurs, pour que de nouvelles applications soient développées, il faudra nourrir
l'IA en données, assurer la maintenance et la résolution de problèmes techniques,
gérer les risques... Dans l'immédiat, l'intervention humaine reste essentielle.
Salariés d'entreprises ou indépendants, les professionnels de l'IT et du digital ont de
beaux jours devant eux. En effet, le portage salarial en informatique offre aux
freelances un cadre sécurisé pour exercer leur activité. Tout en restant autonomes
dans le choix de leurs clients, leur organisation et la fixation de leurs tarifs, ils
bénéficient d'une couverture sociale complète. De plus, la société de portage
s'occupe de toutes les formalités administratives, leur permettant de se consacrer
pleinement à leurs missions.
De nombreux experts réfutent l'idée d'un chômage massif dû à l'adoption des
nouvelles technologies. L'économiste et essayiste français Nicolas Bouzou les voit
au contraire comme des « vecteurs de progrès et d'emplois, à condition de réformer
le marché du travail et le système de formation en France ».
Il rappelle d'ailleurs qu'en Europe, « des pays comme le Danemark ou l'Allemagne,
très avancés en matière de technologie robotique, sont aussi les plus proches du
plein emploi ». Pour d'autres prévisionnistes, « l'IA et les robots intelligents
complèteront les hommes, en occupant le rôle de second, afin de permettre à ces
derniers de gagner en efficacité ».

« L’IA est-elle une menace pour l’emploi ? », La Tribune, 11 Mai 2023.

Document n°3 : Mohamed Zaraa, « Intelligence artificielle : entre menace


d'obsolescence et promesse d'innovation », Journal du Net, 9 oct. 2023
L'Intelligence Artificielle (IA) est au cœur d'un débat crucial : menace pour l'emploi
humain ou moteur de croissance économique ? Explorez les deux facettes de cette
question épineuse.
L'intelligence artificielle (IA) est devenue un sujet brûlant dans le débat public,
suscitant à la fois l'enthousiasme et l'inquiétude. Alors que certains voient en elle
une révolution technologique capable de résoudre des problèmes complexes,
d'autres craignent qu'elle ne soit une menace pour l'emploi humain. Ce clivage est
alimenté par des avancées rapides dans des domaines tels que l'apprentissage
automatique, la reconnaissance vocale et la vision par ordinateur. Les robots et les
algorithmes sont de plus en plus capables de réaliser des tâches autrefois réservées
aux humains, ce qui soulève des questions sur l'avenir du travail et de l'emploi. Le
terme "grand remplacement" est même utilisé pour décrire ce phénomène
potentiellement perturbateur.
La question de l'impact de l'IA sur l'emploi n'est pas seulement un sujet de débat
académique ou technologique; elle touche au cœur de nos sociétés et de nos
modes de vie. Avec la montée de l'automatisation et des technologies intelligentes,
les emplois de millions de personnes sont potentiellement en jeu. Cela pourrait
entraîner des changements sociaux et économiques majeurs, y compris des
inégalités croissantes et des tensions sociales. L'expression "grand remplacement"
est souvent évoquée pour souligner l'urgence et la gravité de la situation. Par
conséquent, il est crucial de comprendre si l'IA est une menace pour l'emploi humain
ou une opportunité de croissance économique. Ce sujet mérite une attention
particulière de la part des décideurs politiques, des entreprises et du grand public
pour naviguer avec prudence dans cette nouvelle ère technologique.
L'intelligence artificielle (IA) n'est pas un phénomène nouveau; elle a ses racines
dans les années 1950 avec les travaux de pionniers comme Alan Turing et John
McCarthy. Depuis lors, l'IA a connu des hauts et des bas, passant par des "hivers de
l'IA" où le financement et l'intérêt ont diminué, pour finalement connaître une
renaissance spectaculaire ces dernières années. Grâce aux avancées en matière de
puissance de calcul, de disponibilité des données et d'algorithmes plus sophistiqués,
l'IA est devenue une force omniprésente dans presque tous les secteurs de
l'économie mondiale. Elle est passée d'un concept théorique à une réalité pratique,
transformant tout, de la médecine à la mobilité et bien sûr, au marché du travail.
Impact des technologies sur l'emploi dans le passé
L'histoire nous montre que l'adoption de nouvelles technologies a toujours eu un
impact sur l'emploi. Prenons l'exemple de la révolution industrielle : l'automatisation
des usines a certes réduit le besoin de main-d'œuvre dans certains secteurs, mais
elle a également créé de nouveaux emplois et industries. De même, l'arrivée de
l'ordinateur personnel dans les années 1980 a transformé le paysage professionnel,
supprimant certains emplois tout en en créant de nouveaux, souvent plus qualifiés.
Ainsi, si l'histoire peut servir de guide, l'impact de l'IA sur l'emploi sera probablement
nuancé. Il est crucial de comprendre cette dynamique pour anticiper les
changements à venir et préparer la main-d'œuvre de demain.
L'IA comme Menace
L'automatisation, alimentée par l'IA, est souvent perçue comme une menace pour
l'emploi. Selon une étude de McKinsey, environ 30% des tâches dans 60% des
emplois pourraient être automatisées. Cela soulève des inquiétudes quant à la perte
massive d'emplois, en particulier pour les travailleurs peu qualifiés. L'IA peut
effectuer des tâches répétitives plus rapidement et avec plus de précision que les
humains, ce qui rend certains emplois obsolètes. Le Forum économique mondial
estime que 75 millions d'emplois pourraient être déplacés d'ici 2022 en raison de
l'automatisation et de l'IA.
Certains secteurs sont plus vulnérables que d'autres à l'automatisation. Par
exemple, le secteur manufacturier, déjà fortement automatisé, pourrait voir encore
plus de postes disparaître. Le secteur des services, notamment la restauration
rapide et le commerce de détail, est également à risque. Une étude de l'OCDE
indique que 14% des emplois dans les pays membres sont à haut risque
d'automatisation. Les emplois qui nécessitent des compétences routinières et
manuelles sont les plus susceptibles d'être affectés.
En intégrant ces données et études, il est clair que l'IA présente des défis sérieux
pour le marché du travail. Toutefois, il est important de noter que ces chiffres ne sont
pas une fatalité, mais plutôt un appel à l'action pour les décideurs politiques, les
entreprises et les individus.
Création de nouveaux emplois
L'Intelligence Artificielle n'est pas seulement une menace pour l'emploi, elle est aussi
une formidable opportunité de création de nouveaux métiers. Selon un rapport de
McKinsey, près de 9% des emplois en 2030 seront des métiers qui n'existent pas
aujourd'hui. Ces emplois seront plus axés sur la gestion de la technologie, l'analyse
de données et des compétences humaines comme l'empathie et la communication.
L'IA peut automatiser les tâches répétitives, permettant aux humains de se
concentrer sur des tâches plus complexes et créatives.
Secteurs en croissance grâce à l'IA
L'IA a le potentiel de révolutionner presque tous les secteurs de l'économie. Selon le
Forum économique mondial, l'IA pourrait générer jusqu'à 13 trillions de dollars en
valeur économique d'ici 2030. Des secteurs comme la santé, l'éducation, et l'énergie
sont en pleine transformation grâce à l'IA. Par exemple, dans le secteur de la santé,
l'IA aide dans le diagnostic et le traitement personnalisé, créant ainsi de nouveaux
emplois et opportunités.
Rôle des politiques publiques
Les politiques publiques jouent un rôle crucial dans la manière dont l'IA impacte le
marché de l'emploi. Des initiatives comme la formation continue, les incitations
fiscales pour les entreprises qui investissent dans l'IA de manière éthique, et les
réglementations sur l'automatisation peuvent aider à atténuer les effets négatifs.
Selon un rapport de l'OCDE, les politiques publiques doivent être adaptées pour
encourager une transition juste pour les travailleurs déplacés par l'IA.
Adaptation du marché du travail
Le marché du travail doit également s'adapter à cette nouvelle réalité. Cela implique
une réorientation des compétences, où l'accent est mis sur la polyvalence, la
créativité et les compétences en résolution de problèmes. Des programmes de
reconversion et des formations ciblées peuvent aider les travailleurs à s'adapter aux
exigences changeantes du marché du travail.
En somme, l'IA représente à la fois une menace et une opportunité pour l'emploi.
Alors que certains secteurs sont vulnérables à l'automatisation, d'autres connaissent
une croissance et une création d'emplois sans précédent. Le rôle des politiques
publiques et l'adaptabilité du marché du travail sont des facteurs clés pour naviguer
dans cette transition complexe.
Il est temps pour les décideurs politiques et les travailleurs de prendre des mesures
proactives. Les politiques publiques doivent être mises en place pour assurer une
transition juste et équitable, et les travailleurs doivent se préparer à acquérir de
nouvelles compétences pour rester pertinents dans le marché du travail de demain.
Mohamed Zaraa, « Intelligence artificielle : entre menace d'obsolescence et promesse
d'innovation », Journal du Net, 9 oct. 2023
Document n°4 : Amandine Schmitt, « George R. R. Martin, Jonathan Franzen, John
Grisham et d’autres célèbres auteurs américains attaquent OpenAI », Le Nouvel Obs,
22 septembre 2023.

Comme son héroïne Daenerys Targaryen, George R. R. Martin a les naseaux qui
fument. En cause, non pas une armée de Dothrakis, mais un ennemi bien moins
concret : l’intelligence artificielle. L’auteur de la saga « Game of Thrones » attaque
en justice, aux côtés d’une quinzaine d’autres écrivains, OpenAI, la société mère du
générateur de textes ChatGPT, selon une information du « New York Times ».
Associés à la Guilde des auteurs, des romanciers de renom comme John Grisham,
Jonathan Franzen, Michael Connelly ou encore Jodi Picoult accusent l’IA de se
servir de leurs romans sans leur autorisation afin d’« entraîner » ChatGPT. Selon
leur plainte, ChatGPT serait capable de produire des résumés de livres comprenant
des détails non disponibles en ligne, ce qui signifie que le programme s’est sans
doute directement « nourri » des textes. « Au cœur de ces algorithmes se trouve le
vol systématique à grande échelle », assènent leurs avocats.
Les modèles de langage « mettent en danger la capacité des auteurs de fiction à
gagner leur vie, dans la mesure où ils permettent à n’importe qui de générer
automatiquement et gratuitement (ou à très bas prix) des textes pour lesquels ils
devraient autrement payer des auteurs », argumentent-ils dans la plainte. Ils ajoutent
: « De manière injuste et perverse, […] la copie délibérée [du travail] des plaignants
transforme donc leurs œuvres en moteurs de leur propre destruction. »
La question autour du copyright et de l’intelligence artificielle reste floue, et les
experts se divisent quant à savoir si les auteurs réunis en class action auront gain de
cause. Si certains experts sont confiants, d’autres estiment que même si l’IA ingère
des œuvres protégées, elle en crée de nouvelles, qui diffèrent assez du contenu
originel pour respecter le fair use qui vaut outre-Atlantique, l’utilisation équitable. «
Ce procès est important car il marque un point de non-retour », déclare quant à elle
Mary Bly, alias Eloisa James, au quotidien new-yorkais. « Si, à l’avenir, vous
comptez entraîner des choses à partir de mes livres, vous devez les obtenir sous
licence. Vous ne pouvez pas simplement les prendre. »
Comme le rappelle Me Marie Soulez, avocate spécialisée en droit de la propriété
intellectuelle au sein du cabinet Lexing Alain Bensoussan Avocats, « ce n’est pas le
premier procès de ce type aux Etats-Unis ». L’agence Getty Images poursuit en effet
Stability AI pour atteinte à la base de données en général et aux données
photographiques en particulier. Des dessinateurs ont aussi porté plainte pour des
motifs similaires contre OpenAI, Midjourney et Stability AI. Idem pour la comédienne
Sarah Silverman et les auteurs Christopher Golden et Richard Kadrey, qui se sont
lancés contre OpenAI mais aussi Meta.
« Non seulement le procès contre OpenAI est transposable en France, mais il faut
même le souhaiter », poursuit Me Soulez. « Il faudrait une réponse juridique à ces
problématiques, que ce soit par une décision de la Cour de cassation ou de la Cour
de justice de l’Union européenne (CJUE), afin de bénéficier d’éléments
d’appréciation. Car, la question de la propriété intellectuelle et du droit d’auteur
relève de l’appréciation souveraine des juges du fond, selon les principes directeurs
que devront suivre les juridictions du fond pour apprécier l’existence ou non d’une
atteinte aux droits d’auteur ».
Pour elle, l’affaire américaine renvoie à « deux problématiques distinctes : la
question de l’exploitation des œuvres et celle de l’accès à l’image. S’agissant de la
première, il convient de s’interroger sur le point de savoir qu’il y a une exploitation de
l’œuvre en tant que telle et une reprise de ses éléments formels dans le cadre de
l’apprentissage. Or, il apparaît que l’œuvre originale n’est pas reproduite, mais
utilisée en corrélation avec un nombre très important de données pour en déduire
des règles pour la réalisation de nouvelles créations. Dans ce cadre, la Cour de
justice de l’Union européenne (CJUE), à propos de l’utilisation de sample d’un extrait
de musique du groupe Kraftwerk, a considéré qu’il n’y a pas de reproduction si la
forme est modifiée de telle sorte qu’elle ne soit pas reconnaissable. La
problématique de l’accès renvoie à la protection par le droit européen des bases de
données et la possibilité qu’a le producteur d’en interdire l’extraction et la réutilisation
substantielle. »
La directive européenne 2019/790, du 17 avril 2019, permet la reproduction et
l’extraction d’œuvres aux fins de fouille des textes et de données (ce qu’on appelle
le « data mining »). Une exception existe néanmoins : les ayants droit peuvent
réserver expressément les droits par un système d’« opt out », c’est-à-dire choisir
sciemment de retirer leurs contenus afin qu’ils ne soient pas ciblés par la machine.
Un autre texte est en projet au niveau européen, l’IA Act, proposition de règlement
sur l’intelligence artificielle dont l’adoption est prévue pour fin 2023 ou début 2024. «
Elle comprend une obligation pour l’IA générative [comme ChatGPT, N.D.L.R.] de
publier un “résumé suffisamment détaillé” des données protégées par le droit
d’auteur utilisées pour l’apprentissage. Ce qui permettrait une certaine
reconnaissance des auteurs », décrypte Me Soulez. En gros, l’IA devrait citer ses
sources.
Quant à savoir à qui revient la paternité d’une œuvre créée avec une intelligence
artificielle (qui, résumons, a pu elle-même s’entraîner sur des œuvres protégées), là
non plus, rien n’est tranché. Me Soulez indique : « Le rapport du CSPLA (Conseil
supérieur de la propriété littéraire et artistique) de janvier 2020 propose trois
hypothèses. La première serait d’attribuer la titularité au concepteur de l’IA, la
deuxième à l’utilisateur de l’IA et la troisième serait de créer un régime propre des
œuvres générées par ordinateur ».
Amandine Schmitt, « George R. R. Martin, Jonathan Franzen, John Grisham et
d’autres célèbres auteurs américains attaquent OpenAI », Le Nouvel Obs, 22
septembre 2023.

Document n°5 : Boris Manenti, "Pourquoi ChatGPT est une bombe


environnementale", Le Nouvel Obs, 18 septembre 2023.
L’impact climatique des nouvelles intelligences artificielles (IA) n’est que rarement
évoqué, pourtant la valeur d’une bouteille d’eau de 500 ml est utilisée lors de chaque
conversation avec le robot. Et ce n’est pas tout… « L’Obs » a enquêté.
C’est devenu le principal tabou des acteurs des technologies : l’impact climatique
des nouvelles intelligences artificielles (IA). Depuis un an et l’irruption de ChatGPT,
le robot conversation d’OpenAI, les IA dites « génératives » ont le vent en poupe,
volontiers promues comme un bouleversement à venir « au moins aussi important
qu’internet ». Sauf que la question des ressources nécessaires pour les faire
fonctionner n’est jamais évoquée.
L’américain OpenAI incarne à l’extrême cette problématique. Tandis que la start-up
clame « façonner l’avenir de la technologie » avec « un examen attentif de son
impact », multipliant les clichés de salariés entourés de plantes vertes, jamais au
grand jamais elle ne livre le moindre détail sur son impact environnemental.
Interrogée par « l’Obs », elle botte en touche, sans fournir le moindre élément.
Même chose quand on questionne ChatGPT lui-même, il noie le poisson : « Tout
dépend de la manière dont il est utilisé […] les chiffres précis varient en fonction de
l’infrastructure. » Sur son forum d’utilisateurs, un responsable de la firme pratique
tout aussi bien la langue de bois à propos des émissions de CO2 dues à l’usage de
ChatGPT : « Nous n’avons pas fait ce calcul complet. Mais la tendance est à la
baisse, vers zéro. L’infrastructure d’OpenAI fonctionne sur Azure [les serveurs cloud
de Microsoft, NDLR], et Azure fonctionnera à 100 % avec de l’énergie renouvelable
d’ici 2025. »
OpenAI est largement financée par le géant Microsoft, qui s’est engagé à atteindre
une empreinte carbone négative d’ici 2030. Mais entre cet horizon promis et la
réalité actuelle, impossible d’en savoir plus. « C’est ça le pire : on n’a aucune
information, alors même qu’on assiste à une course des entreprises pour déployer
des IA génératives partout, sans se poser la question de l’impact, déplore Sasha
Luccioni, responsable climat chez Hugging Face, une plateforme de développement
d’IA. OpenAI ne dit rien sur la localisation de ses serveurs et la consommation d’eau
pour les refroidir, ne dit pas quelle est la taille de son modèle d’IA, s’il y a un ou
plusieurs modèles qui fonctionnent en parallèle – et donc multiplie l’impact –, ne dit
pas les puces qui équipent ses machines – et donc leur consommation d’énergie et
de minerais –, etc. »
Il faut alors se fier à des études indépendantes. Et le résultat est sans appel : « L’IA
a un bilan carbone terrible, tranche un article paru dans le “MIT Technology Review”,
du prestigieux Massachusetts Institute of Technology. Entraîner un seul modèle d’IA
peut émettre autant de CO2 que cinq voitures au cours de leur vie. » Dans le cas de
ChatGPT, une publication de l’université de Californie évalue que l’entraînement de
sa troisième version a consommé 1 287 MWh d’électricité, ces derniers ayant émis
552 tonnes d’équivalent CO2, soit plus de 205 vols aller-retour entre Paris et New
York. Quantité à laquelle il faut ajouter son utilisation quotidienne, évaluée à la
louche à 23,04 kg de CO2 par jour – c’est-à-dire 8,4 t CO2 par an, l’équivalent de
près de six ans de chauffage électrique pour une maison de 100 m² en France.
On estimait déjà les data centers, ces centres de données indispensables pour
traiter toute l’information présente en ligne, responsables d’environ 1 % des
émissions des gaz à effet de serre dans le monde – à peine moins que le Brésil ou
l’ensemble du secteur aérien. Désormais sollicité par ces IA génératives, le stockage
dans le cloud devrait décupler son impact environnemental. Ainsi, les data centers
pourraient peser pour 14 % des émissions d’ici 2040.
Aussi, quand des dizaines de sociétés disent vouloir déployer leurs propres chatbots
et autres outils d’IA génératives, ce n’est pas une très bonne nouvelle pour le climat
et l’environnement. Et on commence à le percevoir avec la consommation d’eau,
utilisée pour refroidir les serveurs. Une récente étude évalue que 700 000 litres
d’eau douce ont été utilisés uniquement pour l’entraînement de la troisième version
de ChatGPT. Consommation à laquelle il faut ajouter 500 ml d’eau par échange avec
l’IA composé d’entre 20 et 50 questions-réponses. Réalisez : une petite bouteille
d’eau est consommée pour chaque conversation avec le robot ! Et le vertige est total
lorsque l’on multiplie cela par ses 60 millions d’utilisateurs quotidiens. « La
consommation totale d’eau est tout simplement énorme ! », commente un des
chercheurs.
Et cela commence à se voir. Depuis l’an dernier, c’est-à-dire quand il s’est mis à
héberger les machines d’OpenAI, Microsoft a enregistré une augmentation d’un tiers
de sa consommation d’eau dans ses data centers. Même chose d’ailleurs chez le
concurrent Google qui, depuis le lancement de son IA Bard, a vu sa dépense d’eau
augmenter de 20 %.
« Le problème est qu’on est dans une course : tout le monde veut son IA, la plus
performante, et potentiellement la plus consommatrice de ressources, poursuit
Sasha Luccioni. Et ce, alors qu’on ne sait même pas encore si c’est vraiment utile…
Est-ce que pour des recherches simples il vaut mieux une IA générative, toujours
allumée, toujours prête à répondre, et avec d’importantes conséquences
environnementales, ou un moteur de recherche éprouvé avec des propositions de
réponses sous forme de liste ? »
Quelle solution alors ? Cesser immédiatement d’utiliser ces IA ? « Non, pas du tout,
réplique du tac au tac la chercheuse d’Hugging Face. Ce n’est pas aux individus
d’être toujours les plus responsables. Là, il faut clairement exiger de la transparence
des entreprises. Et ensuite agir en conséquence. »
Boris Manenti, "Pourquoi ChatGPT est une bombe environnementale", Le Nouvel
Obs, 18 septembre 2023.

Document n°6 : Laure Van Ruymbeke, “Intelligence artificielle : « Des millions de


personnes vont bientôt perdre leur travail »”, Le Point, 3 novembre 2023.
ENTRETIEN. Expert du numérique, Alex Krasodomski dresse le bilan du premier
sommet mondial sur les risques de l’IA et met en garde contre la menace immédiate
qui pèse sur les emplois.
Pour le Premier ministre Rishi Sunak, qui a annoncé la création de l'AI Safety
Institute, c'est une réussite. Kamala Harris, vice-présidente américaine, a fait la
même annonce à l'ambassade des États-Unis à Londres. Présent, Elon Musk a
réclamé un « arbitre » de l'IA. Lors d'un tête-à-tête, critiqué, avec Rishi Sunak jeudi
soir, le milliardaire a affirmé qu'« il viendra un moment où aucun travail ne sera
nécessaire ».
Alex Krasodomski, chercheur associé à la Digital Society Initiative du think tank
Chatham House à Londres, revient sur l'importance d'un tel sommet. L'IA, dit-il, est
déjà dans notre quotidien et menacera bientôt des millions d'emplois.
Le Point : La déclaration de Bletchley est-elle une étape importante ?
Alex Krasodomski : Oui, pour une raison majeure : il s'agit d'un accord international
impliquant les États-Unis, l'Europe, le Royaume-Uni, l'Inde, la Chine, qui se
réunissent pour convenir d'un certain niveau de coopération sur la gouvernance
technologique. Cette déclaration, qui n'est pas contraignante, engage les signataires
à poursuivre la recherche et à organiser d'autres réunions à l'avenir. Le fait que ces
acteurs géopolitiques, qui ont tendance à ne pas vraiment coopérer en matière de
technologie, se réunissent pour au moins afficher une certaine unité sur cette
question est un point positif.
La présence de la Chine a été critiquée, notamment en raison de craintes
d'espionnage. Devait-elle être là ?
Oui, car ce sommet privilégie les risques existentiels à long terme de l'IA, difficiles à
prédire et dont on sait peu de choses. Comme l'utilisation de l'IA pour fabriquer
génétiquement ou biologiquement de nouvelles armes ou maladies, ce qui pourrait
condamner l'humanité. Et, si vous voulez en savoir plus sur la fin du monde, la Chine
doit être présente. Il y a une autre école, celle de se concentrer sur les risques à
court terme : désinformation, surveillance, marché de l'emploi. Pour ces risques-là, il
sera plus facile d'obtenir un accord entre des pays partageant les mêmes idées sur
ces questions.
Le Royaume-Uni et les États-Unis ont chacun annoncé la création d'un institut
sur la sécurité de l'IA. Qui peut s'imposer en leader ?
Les États-Unis resteront le leader dans un avenir prévisible. Plus précisément, les
entreprises américaines. C'est un défi pour tout type d'accord multilatéral mondial
parce que ce ne sont pas les gouvernements qui font avancer cette technologie. Il
suffit de regarder les plateformes de réseaux sociaux pour voir que ce sont les
plateformes d'entreprises technologiques américaines qui ont un impact mondial.
D'ailleurs, les États-Unis ont été plutôt réticents à l'idée de les réglementer ou de les
contrôler.
Elon Musk a insisté sur la nécessité d'un « arbitre » dans l'IA. Qu'en
pensez-vous ?
Je pense qu'il fait référence à l'idée que nous avons besoin d'une organisation
internationale capable d'observer le développement de l'IA et de tenir les
gouvernements informés des dernières avancées, de leur expliquer ce qu'ils peuvent
contrôler ou ne pas contrôler. Un observatoire n'est pas une instance de
réglementation. C'est un organisme de recherche. Elon Musk pense que c'est une
bonne idée. Il n'est pas le seul. C'est d'ailleurs la création d'un institut de ce type qui
a été annoncée à la fois par les États-Unis et le Royaume-Uni.
Un texte contraignant pourrait-il voir le jour ?
S'agissant des applications spécifiques de l'IA, il devrait y avoir une impulsion –
applications militaires, médicales –, là où il existe déjà des lois et des normes
éthiques. Par exemple, nous avons des règles sur la façon dont les guerres doivent
être menées. Il est beaucoup plus aisé d'adapter les applications que d'essayer de
réglementer une intelligence artificielle générale d'une puissance inconnue.
À quel point l'IA est-elle déjà présente dans nos sociétés ?
Garry Kasparov a perdu aux échecs contre une intelligence artificielle dans les
années 1990. Il se retrouvait face à un simulateur d'échecs écrit avec une seule
ligne de code. Il faisait un kilo-octet. Personnellement, je n'ai jamais réussi à battre
ce programme. Chaque match Tinder, chaque itinéraire que vous choisissez sur
Google Maps, chaque tweet, chaque vidéo YouTube qui vous est recommandée,
chaque prime d'assurance, chaque offre de prêt hypothécaire, tout cela est dicté
d'une certaine façon par l'intelligence artificielle : un modèle statistique relevant de
l'informatique. L'IA est dans notre quotidien. Très souvent, nous ne savons pas
comment ces décisions automatisées fonctionnent. Et la plupart du temps elles sont
créées par le secteur privé, qui ne rend aucun compte aux organismes publics. À qui
se plaindre si Google vous dirige sur une mauvaise voie ?
Quelles sont les principales menaces ?
À mon avis, les risques les plus importants et immédiats sont les perturbations sur le
marché de l'emploi : des millions de personnes vont bientôt perdre leur travail. Je
pense aux comptables, avocats, relecteurs, codeurs… Ce sont là des emplois où les
machines font beaucoup mieux que les humains à l'heure actuelle. Le
contre-exemple, ce sont les travailleurs sociaux.
L'intelligence artificielle finira-t-elle par dominer l'homme ?
Sans aucun doute, selon certains ; jamais, selon d'autres ; moi, je ne sais pas. Si l'IA
suit une courbe exponentielle, cela se produira, d'où l'intérêt de ce sommet. Nous
devons nous y préparer dès maintenant, car, quand cela arrivera, cela ira très vite.
Un commentaire sur « Now and Then », la chanson des Beatles créée grâce à
l'IA et sortie jeudi ?

Je ne l'ai pas encore écoutée ! God bless the Beatles, beau travail, mais… Cela
soulève des questions car on n'a jamais demandé à John Lennon s'il voulait sortir
cette chanson, n'est-ce pas ?
Laure Van Ruymbeke, “Intelligence artificielle : « Des millions de personnes
vont bientôt perdre leur travail »”, Le Point, 3 novembre 2023.

Document n°7 : Sarah Halifa-Legrand, « J’ai été remplacée par une IA ! Mais un robot
ne peut pas faire ce que je faisais ! », Le Nouvel Obs, 26 septembre 2023
Aux Etats-Unis, de plus en plus de salariés sont licenciés pour être suppléés par
l’intelligence artificielle. C’est ce qui est arrivé à Abbie Harper.
Abbie Harper n’en revient toujours pas. Début mars, cette femme pétillante de 39
ans aux boucles blondes et lunettes roses passe encore toutes ses journées au
téléphone à écouter, conseiller, aiguiller ses interlocuteurs, pour le service
d’assistance de la National Eating Disorder Association (Neda), la plus grande
organisation américaine à but non lucratif consacrée aux troubles de l’alimentation.
Elle prend les appels, délivre des conseils par SMS et répond aux questions sur le
chat en ligne. Mais voilà, le 31 mars, elle apprend qu’elle-même, ses quatre
collègues et les 200 bénévoles sont brutalement mis à pied. « J’ai été remplacée par
une IA ! » Un robot conversationnel (un « chatbot », dans le jargon), prénommé «
Tessa » et doté d’une intelligence artificielle générative, inspirée de ChatGPT, se
nourrit d’une montagne de données pour délivrer à ceux qui contactent l’ONG des
réponses toutes faites. « Mais un robot ne peut pas faire ce qu’on faisait ! Il faut être
humain, avoir de l’empathie », s’étrangle Abbie.
Cette compassion, l’Américaine en déborde, elle qui a aussi souffert de troubles
alimentaires, jusqu’à rejoindre l’organisation il y a trois ans, d’abord comme
bénévole puis comme salariée. Répondre aux 70 000 appels à l’aide annuels n’est
pas aisé, d’autant plus qu’avec la pandémie de Covid-19, les demandes ont plus que
doublé, avec toujours plus de personnes suicidaires, de cas de maltraitance et
d’urgences médicales. Un surmenage qui a conduit, à l’automne 2022, les cinq
salariés surmenés à réclamer du renfort et une meilleure formation. Faute d’être
entendus, ils ont décidé de se syndiquer. Est-ce ce qui a convaincu la Neda de se
débarrasser d’eux ? Elle s’en défend.
La suite après la publicité
Reste que, fin mai, le chatbot a pris son poste, et Abbie Harper s’est retrouvée seule
dans son appartement new-yorkais. Elle a contacté le robot, pour voir ce dont il est
capable. « Je lui ai dit que j’avais perdu tout espoir. Il aurait dû détecter un risque
suicidaire mais il m’a juste conseillé de suivre le programme “body positive” pour
reprendre confiance en moi ! » A d’autres, Tessa a recommandé de réduire leur
alimentation de 1 000 calories par jour, d’acheter une pince à plis cutanés pour
évaluer leur taux de graisse, voire a même félicité quelqu’un qui voulait arrêter de
s’alimenter. « C’est l’inverse de ce qu’il faut faire, ce truc est carrément dangereux »,
conclut Abbie.
D’autant que les troubles de l’alimentation provoquent plus de 10 000 morts par an
aux Etats-Unis. Elle n’a pas été la seule à tirer la sonnette d’alarme : quelques
semaines après la mise en fonction du robot, la Neda s’est résignée à le désactiver
« temporairement ». Ironie de l’histoire, elle recherche désormais des bénévoles
pour l’améliorer. Hors de question pour Abbie, qui envisage plutôt de se consacrer à
plein temps à défendre les droits des travailleurs rendus vulnérables avec l’arrivée
des nouvelles IA. Ecrivains remplacés par ChatGPT et mis sur la paille, scénaristes
de Hollywood demandant une réglementation sur l’usage de l’IA, licenciements dans
la tech… Le marché de l’emploi américain commence déjà à se recomposer sous
son effet. La Maison-Blanche s’en est inquiétée dès décembre : « L’IA expose de
nouveaux pans entiers de la main-d’œuvre à des perturbations potentielles. »
Sarah Halifa-Legrand, « J’ai été remplacée par une IA ! Mais un robot ne peut
pas faire ce que je faisais ! », Le Nouvel Obs, 26 septembre 2023.

Document n°8 : Laurence Neuer, « Avec l'IA, nous allons perdre certaines capacités,
mais en gagner d’autres », Le Point, 29 octobre 2023.
« Les récits technologiques sont tout aussi humains et tout aussi inhumains que les
mythes qui parlent des dieux et des démons. » Dans son dernier livre au titre
éloquent, Parole de machines*, le physicien et philosophe Alexei Grinbaum
convoque les récits et les sagesses antiques pour nous amener à cette nécessaire «
prise de conscience » : « À travers l'interaction à double sens qu'il établit avec la
machine, l'homme place la parole non humaine au sein de la culture et de l'histoire
qui sont les siennes. » Et de s'interroger : quel statut accorder au discours qu'aucun
« sujet » n'engendre, fabriqué par une machine incapable de « comprendre » ?

Si le directeur de recherche au CEA-Saclay, spécialiste de la théorie de l'information


quantique, reconnaît « le caractère inédit et stupéfiant des prouesses de la
génération automatique du langage » par les chatbots, tels que ChatGPT ou Bing,
c'est pour mieux nous mettre en garde face aux risques et aux dérives de ces
nouveaux oracles. Il place l'éthique au cœur de sa réflexion sur ces outils : les
systèmes d'IA générative peuvent d'autant mieux nous manipuler que l'on projette
sur eux des sentiments et des émotions.

L'éthique de l'IA est l'un des fils rouges de la prochaine édition du Paris Legal
Makers, un événement international que le barreau de Paris organise au palais
Brongniart, à Paris, le 23 novembre, en partenariat avec Le Point. En clôture de
cette journée d'échanges avec des personnalités du monde économique, juridique et
politique, autour du thème « L'intelligence artificielle : un avenir prometteur, un
engagement responsable », les experts proposeront des pistes pour construire un
avenir éthique et innovant de l'IA tout en favorisant la recherche et l'innovation. Pour
Alexei Grinbaum, qui participera aux Paris Legal Makers, c'est en s'interrogeant sur
ce qui nous constitue en tant qu'humains que l'on pourra construire un cadre éthique
propre à l'IA générative.

Le Point : Une machine dotée de « la » parole, autrement dit, de la faculté de


s'exprimer par le langage articulé, signifie que l'être humain est en train de
perdre le monopole de l'expression linguistique : un tournant historique, selon
vous…

Alexei Grinbaum : Ce qui importe, c'est la question du sens. Tout ce que nous
sommes – dans nos vies privée et publique –, nous en faisons sens à travers la
langue et dans la langue. Or, les agents conversationnels parlent notre langue, la
manipulent et nous manipulent à travers elle, sans qu'il soit possible de distinguer sa
production de celle d'un humain. Les chatbots font des phrases syntaxiquement
correctes et souvent plausibles sémantiquement, alors que, en réalité, les sorties de
la machine ne sont que des combinaisons de caractères générées au travers d'un
calcul de nombres ; autrement dit, ce qui relie l'entrée d'une requête à la « réponse »
de la machine ne passe pas par la signification. Mais ces sorties sont si plausibles
que cela nous conduit à faire des projections spontanées de qualités humaines sur
la machine, comme la connaissance, les émotions ou même la conscience. Nos
cerveaux perçoivent naturellement le sens des phrases qui sortent de la machine, de
la même manière que l'on pense le sens de celles prononcées par des humains.

Un progrès aussi exaltant qu'inquiétant...


Il est fascinant de constater une telle dextérité de l'outil à manier notre langue sans
passer par le sens humain ! Donc, en effet, nous avons perdu le monopole de
l'expression linguistique. Mais ce qui est aussi fascinant, c'est la capacité de la
machine à faire émerger des phrases inattendues, qui créent la surprise, provoquent
la peur ou la joie, alors que la machine est dénuée d'intentions. La question est alors
: quel sera l'effet, sur nous, de cette expression asémantique qui suscite de notre
part des projections spontanées ?

C'est ce que vous expliquez : l'utilisateur a tendance à projeter des affects sur
la machine, à l'anthropomorphiser comme s'il s'agissait d'un ange ou d'un
dieu antique. D'autant que, en disant « je », le chatbot « se cisèle une porte
d'entrée dans l'être et son interlocuteur humain lui attribue spontanément une
identité », faites-vous observer.

En effet, comme les oracles ou les paroles des anges, la machine peut nous
influencer émotionnellement et psychologiquement. Si on lui donne un nom, comme
Adam l'a fait en nommant les animaux et les oiseaux, on établit avec elle une
relation à travers la langue. La machine fera alors partie de notre réalité, et sera
capable de nous influencer, voire de nous manipuler.

Le « je » de la machine n'existe que par projection parce qu'aucun sujet ne se cache


derrière l'écran. Mais, pour l'utilisateur du chatbot, le virtuel et le réel se fondent en
un seul monde. Je donne souvent l'exemple de l'appli Replika, qui permet de se
fabriquer un ami virtuel, selon son goût, ses désirs, etc. Cet ami est disponible 24
h/24. Des milliers de jeunes sont addicts à cette appli qui joue, pour beaucoup
d'entre eux, un rôle thérapeutique ou celui de souffre-douleur. Des questions se
posent : l'ami virtuel peut-il vous contredire ? Peut-il vous inciter à vous engager
dans un projet maléfique ?... Je pense que ce genre d'applis ne doit pas être interdit,
mais il me paraît nécessaire de l'encadrer.

L'apparente autonomie de ces agents conversationnels nous laisse croire


qu'ils sont « libres ». En interrogeant la machine, en remettant en question ses
réponses, on pourrait presque se retrouver dans un dialogue socratique ?

Absolument. Lorsqu'on pousse l'outil dans ses retranchements, la qualité des sorties
est extraordinaire. Ce qui est important, c'est l'ingénierie des prompts (requêtes que
l'utilisateur soumet à la machine), qui ne doivent pas être de simples phrases
courtes. Il faut dire à la machine « Raisonne étape par étape », même si elle est
incapable de raisonner ! Étrangement, le simple ajout de cette phrase permet
d'améliorer la qualité des réponses.

Ces machines parlent de manière imprédictible, et à cet égard elles nous


ressemblent. Elles imitent le libre arbitre humain de manière très convaincante. On
pourrait même les qualifier d'« individus numériques ». Et ceci est d'autant plus vrai
qu'à une même requête elle n'offre jamais la même réponse ! Mais un libre arbitre
imité à travers un calcul très complexe, est-ce du « vrai » libre arbitre ? Et que veut
dire « vrai » ? Si la machine induit chez l'utilisateur une illusion parfaite de posséder
des qualités que ce dernier projette sur elle, à quoi sert de savoir si elle les possède
« en vrai » ou pas, dès lors que son comportement linguistique est parfaitement
efficient ? Mais il y a aussi une différence fondamentale. La machine est
fonctionnelle, elle met en œuvre un calcul décidé par son concepteur. Elle n'est donc
pas libre de changer de finalité.

« Le manque de distinctions entre un texte écrit par un être humain et celui


généré́ par un système d'IA est un problème éthique majeur », souligne le
Comité national d'éthique du numérique dont vous êtes l'un des rapporteurs.
Comment peut-on construire une éthique de la responsabilité des machines ?

L'introduction de codes en filigrane (watermarks) permettrait de distinguer la


production d'une machine de celle d'un auteur humain. Mais ces codes ne sont pas
faciles à mettre en œuvre. Ils doivent être robustes et interopérables, et sur ce point,
nous avons des progrès à faire. Pour connaître la provenance des textes, il est
nécessaire de prévoir cette obligation de filigranes dans la réglementation
européenne.

Avec l'IA générative, on ne sait pas ce qui se passe en coulisses, derrière l'interface.
Le système est si complexe que même les concepteurs ne peuvent pas prédire les
sorties que génère la machine. Or, les méthodes de contrôle actuelles ne bloquent
pas complètement les sorties potentiellement « toxiques » du système, comme les
insultes. On ajoute des filtres et des contrôles par conception, mais ils ne pourront
jamais garantir l'absence totale de problèmes.

Comment éviter de se laisser manipuler par ces systèmes d'IA générative ?

Certainement pas en appliquant le RGPD [Règlement général sur la protection des


données, NDLR], qui démontre dans ce domaine sa totale insuffisance. Même si
l'utilisateur est informé qu'il interagit avec un chatbot, il se laissera influencer par les
paroles de ce dernier tout en sachant qu'il s'agit d'une machine. C'est la force de la
langue ! Voilà pourquoi la génération des textes aura une influence bien plus forte
sur l'humanité sur les systèmes d'IA qui fabriquent des images ou du son.

« L'homme qui interagit avec la machine l'imite parfois inconsciemment »,


écrivez-vous. Dans quel sens ces machines parlantes, omniscientes,
feront-elles évoluer la condition humaine ? L'être humain est-il amené à
devenir une machine pensante ?

Ce que notre cerveau est capable de faire et de concevoir a évolué depuis le début
de l'ère technologique. C'est une inquiétude légitime de s'interroger sur la façon dont
ce type de bouleversement va continuer, et impacter l'être humain. Déjà, Platon
dénonçait une invention pitoyable en parlant de l'écriture. Plus tard, on s'est méfié de
l'imprimerie et, plus tard encore, on a dit que, avec les smartphones et le GPS, notre
mémoire et notre capacité de repérage dans l'espace diminuaient… Avec les
machines parlantes, nous allons perdre certaines capacités, mais nous allons en
gagner d'autres. Une machine reçoit à travers les textes la description d'un monde
qui ressemble au nôtre, mais il y a des limites.

En procédant par simple imitation, la machine est incapable de juger du vrai ou du


beau. Seul l'homme a le discernement nécessaire pour cela : c'est ce que j'appelle
des « H-qualités », qui restent exclusivement du ressort humain. La machine peut
donner des idées, être très créative, mais elle ne sait pas ce qui est magnifique dans
un poème qu'elle génère. Bien écrire, écrire dans un style élaboré et élégant, par
exemple à la manière de Pascal Quignard avec un zeste de Proust, seul l'homme
est capable de dire que c'est beau. À lui de mettre son cerveau au service de
l'apprentissage de ces « H-qualités » et d'apprendre donc à valoriser sa signature
humaine. C'est le défi qui nous attend en tant qu'humanité : soit on se laisse
influencer par la moyenne statistique des sorties de la machine, et c'est un véritable
danger pour la culture humaine, soit on s'élève au-dessus de cette banalité. À nous
d'utiliser notre discernement, notre jugement, pour apprécier davantage le vrai et le
beau.

* Parole de machines, d'Alexei Grinbaum, éditions HumenSciences, 191 pages,


17,90 €.

Laurence Neuer, « Avec l'IA, nous allons perdre certaines capacités, mais en gagner
d’autres », Le Point, 29 octobre 2023.

Document n°9 : “Les Français et l’IA”, Infographie réalisée par l’IFOP pour Talan, mai
2023.

Vous aimerez peut-être aussi