Académique Documents
Professionnel Documents
Culture Documents
EXPRESSION-COMMUNICATION &
CULTURE GENERALE
________________
S6
________________
Durée : 2 heures
________________
- choisis les 4 textes que tu conserves (en plus du doc. 9, qui est à conserver)
- propose 3 questions d'analyse, destinées à comparer les textes et le visuel (doc. 9) (sur 8 points)
Document n°2 : « L’IA est-elle une menace pour l’emploi ? », La Tribune, 11 Mai
2023.
Comme son héroïne Daenerys Targaryen, George R. R. Martin a les naseaux qui
fument. En cause, non pas une armée de Dothrakis, mais un ennemi bien moins
concret : l’intelligence artificielle. L’auteur de la saga « Game of Thrones » attaque
en justice, aux côtés d’une quinzaine d’autres écrivains, OpenAI, la société mère du
générateur de textes ChatGPT, selon une information du « New York Times ».
Associés à la Guilde des auteurs, des romanciers de renom comme John Grisham,
Jonathan Franzen, Michael Connelly ou encore Jodi Picoult accusent l’IA de se
servir de leurs romans sans leur autorisation afin d’« entraîner » ChatGPT. Selon
leur plainte, ChatGPT serait capable de produire des résumés de livres comprenant
des détails non disponibles en ligne, ce qui signifie que le programme s’est sans
doute directement « nourri » des textes. « Au cœur de ces algorithmes se trouve le
vol systématique à grande échelle », assènent leurs avocats.
Les modèles de langage « mettent en danger la capacité des auteurs de fiction à
gagner leur vie, dans la mesure où ils permettent à n’importe qui de générer
automatiquement et gratuitement (ou à très bas prix) des textes pour lesquels ils
devraient autrement payer des auteurs », argumentent-ils dans la plainte. Ils ajoutent
: « De manière injuste et perverse, […] la copie délibérée [du travail] des plaignants
transforme donc leurs œuvres en moteurs de leur propre destruction. »
La question autour du copyright et de l’intelligence artificielle reste floue, et les
experts se divisent quant à savoir si les auteurs réunis en class action auront gain de
cause. Si certains experts sont confiants, d’autres estiment que même si l’IA ingère
des œuvres protégées, elle en crée de nouvelles, qui diffèrent assez du contenu
originel pour respecter le fair use qui vaut outre-Atlantique, l’utilisation équitable. «
Ce procès est important car il marque un point de non-retour », déclare quant à elle
Mary Bly, alias Eloisa James, au quotidien new-yorkais. « Si, à l’avenir, vous
comptez entraîner des choses à partir de mes livres, vous devez les obtenir sous
licence. Vous ne pouvez pas simplement les prendre. »
Comme le rappelle Me Marie Soulez, avocate spécialisée en droit de la propriété
intellectuelle au sein du cabinet Lexing Alain Bensoussan Avocats, « ce n’est pas le
premier procès de ce type aux Etats-Unis ». L’agence Getty Images poursuit en effet
Stability AI pour atteinte à la base de données en général et aux données
photographiques en particulier. Des dessinateurs ont aussi porté plainte pour des
motifs similaires contre OpenAI, Midjourney et Stability AI. Idem pour la comédienne
Sarah Silverman et les auteurs Christopher Golden et Richard Kadrey, qui se sont
lancés contre OpenAI mais aussi Meta.
« Non seulement le procès contre OpenAI est transposable en France, mais il faut
même le souhaiter », poursuit Me Soulez. « Il faudrait une réponse juridique à ces
problématiques, que ce soit par une décision de la Cour de cassation ou de la Cour
de justice de l’Union européenne (CJUE), afin de bénéficier d’éléments
d’appréciation. Car, la question de la propriété intellectuelle et du droit d’auteur
relève de l’appréciation souveraine des juges du fond, selon les principes directeurs
que devront suivre les juridictions du fond pour apprécier l’existence ou non d’une
atteinte aux droits d’auteur ».
Pour elle, l’affaire américaine renvoie à « deux problématiques distinctes : la
question de l’exploitation des œuvres et celle de l’accès à l’image. S’agissant de la
première, il convient de s’interroger sur le point de savoir qu’il y a une exploitation de
l’œuvre en tant que telle et une reprise de ses éléments formels dans le cadre de
l’apprentissage. Or, il apparaît que l’œuvre originale n’est pas reproduite, mais
utilisée en corrélation avec un nombre très important de données pour en déduire
des règles pour la réalisation de nouvelles créations. Dans ce cadre, la Cour de
justice de l’Union européenne (CJUE), à propos de l’utilisation de sample d’un extrait
de musique du groupe Kraftwerk, a considéré qu’il n’y a pas de reproduction si la
forme est modifiée de telle sorte qu’elle ne soit pas reconnaissable. La
problématique de l’accès renvoie à la protection par le droit européen des bases de
données et la possibilité qu’a le producteur d’en interdire l’extraction et la réutilisation
substantielle. »
La directive européenne 2019/790, du 17 avril 2019, permet la reproduction et
l’extraction d’œuvres aux fins de fouille des textes et de données (ce qu’on appelle
le « data mining »). Une exception existe néanmoins : les ayants droit peuvent
réserver expressément les droits par un système d’« opt out », c’est-à-dire choisir
sciemment de retirer leurs contenus afin qu’ils ne soient pas ciblés par la machine.
Un autre texte est en projet au niveau européen, l’IA Act, proposition de règlement
sur l’intelligence artificielle dont l’adoption est prévue pour fin 2023 ou début 2024. «
Elle comprend une obligation pour l’IA générative [comme ChatGPT, N.D.L.R.] de
publier un “résumé suffisamment détaillé” des données protégées par le droit
d’auteur utilisées pour l’apprentissage. Ce qui permettrait une certaine
reconnaissance des auteurs », décrypte Me Soulez. En gros, l’IA devrait citer ses
sources.
Quant à savoir à qui revient la paternité d’une œuvre créée avec une intelligence
artificielle (qui, résumons, a pu elle-même s’entraîner sur des œuvres protégées), là
non plus, rien n’est tranché. Me Soulez indique : « Le rapport du CSPLA (Conseil
supérieur de la propriété littéraire et artistique) de janvier 2020 propose trois
hypothèses. La première serait d’attribuer la titularité au concepteur de l’IA, la
deuxième à l’utilisateur de l’IA et la troisième serait de créer un régime propre des
œuvres générées par ordinateur ».
Amandine Schmitt, « George R. R. Martin, Jonathan Franzen, John Grisham et
d’autres célèbres auteurs américains attaquent OpenAI », Le Nouvel Obs, 22
septembre 2023.
Je ne l'ai pas encore écoutée ! God bless the Beatles, beau travail, mais… Cela
soulève des questions car on n'a jamais demandé à John Lennon s'il voulait sortir
cette chanson, n'est-ce pas ?
Laure Van Ruymbeke, “Intelligence artificielle : « Des millions de personnes
vont bientôt perdre leur travail »”, Le Point, 3 novembre 2023.
Document n°7 : Sarah Halifa-Legrand, « J’ai été remplacée par une IA ! Mais un robot
ne peut pas faire ce que je faisais ! », Le Nouvel Obs, 26 septembre 2023
Aux Etats-Unis, de plus en plus de salariés sont licenciés pour être suppléés par
l’intelligence artificielle. C’est ce qui est arrivé à Abbie Harper.
Abbie Harper n’en revient toujours pas. Début mars, cette femme pétillante de 39
ans aux boucles blondes et lunettes roses passe encore toutes ses journées au
téléphone à écouter, conseiller, aiguiller ses interlocuteurs, pour le service
d’assistance de la National Eating Disorder Association (Neda), la plus grande
organisation américaine à but non lucratif consacrée aux troubles de l’alimentation.
Elle prend les appels, délivre des conseils par SMS et répond aux questions sur le
chat en ligne. Mais voilà, le 31 mars, elle apprend qu’elle-même, ses quatre
collègues et les 200 bénévoles sont brutalement mis à pied. « J’ai été remplacée par
une IA ! » Un robot conversationnel (un « chatbot », dans le jargon), prénommé «
Tessa » et doté d’une intelligence artificielle générative, inspirée de ChatGPT, se
nourrit d’une montagne de données pour délivrer à ceux qui contactent l’ONG des
réponses toutes faites. « Mais un robot ne peut pas faire ce qu’on faisait ! Il faut être
humain, avoir de l’empathie », s’étrangle Abbie.
Cette compassion, l’Américaine en déborde, elle qui a aussi souffert de troubles
alimentaires, jusqu’à rejoindre l’organisation il y a trois ans, d’abord comme
bénévole puis comme salariée. Répondre aux 70 000 appels à l’aide annuels n’est
pas aisé, d’autant plus qu’avec la pandémie de Covid-19, les demandes ont plus que
doublé, avec toujours plus de personnes suicidaires, de cas de maltraitance et
d’urgences médicales. Un surmenage qui a conduit, à l’automne 2022, les cinq
salariés surmenés à réclamer du renfort et une meilleure formation. Faute d’être
entendus, ils ont décidé de se syndiquer. Est-ce ce qui a convaincu la Neda de se
débarrasser d’eux ? Elle s’en défend.
La suite après la publicité
Reste que, fin mai, le chatbot a pris son poste, et Abbie Harper s’est retrouvée seule
dans son appartement new-yorkais. Elle a contacté le robot, pour voir ce dont il est
capable. « Je lui ai dit que j’avais perdu tout espoir. Il aurait dû détecter un risque
suicidaire mais il m’a juste conseillé de suivre le programme “body positive” pour
reprendre confiance en moi ! » A d’autres, Tessa a recommandé de réduire leur
alimentation de 1 000 calories par jour, d’acheter une pince à plis cutanés pour
évaluer leur taux de graisse, voire a même félicité quelqu’un qui voulait arrêter de
s’alimenter. « C’est l’inverse de ce qu’il faut faire, ce truc est carrément dangereux »,
conclut Abbie.
D’autant que les troubles de l’alimentation provoquent plus de 10 000 morts par an
aux Etats-Unis. Elle n’a pas été la seule à tirer la sonnette d’alarme : quelques
semaines après la mise en fonction du robot, la Neda s’est résignée à le désactiver
« temporairement ». Ironie de l’histoire, elle recherche désormais des bénévoles
pour l’améliorer. Hors de question pour Abbie, qui envisage plutôt de se consacrer à
plein temps à défendre les droits des travailleurs rendus vulnérables avec l’arrivée
des nouvelles IA. Ecrivains remplacés par ChatGPT et mis sur la paille, scénaristes
de Hollywood demandant une réglementation sur l’usage de l’IA, licenciements dans
la tech… Le marché de l’emploi américain commence déjà à se recomposer sous
son effet. La Maison-Blanche s’en est inquiétée dès décembre : « L’IA expose de
nouveaux pans entiers de la main-d’œuvre à des perturbations potentielles. »
Sarah Halifa-Legrand, « J’ai été remplacée par une IA ! Mais un robot ne peut
pas faire ce que je faisais ! », Le Nouvel Obs, 26 septembre 2023.
Document n°8 : Laurence Neuer, « Avec l'IA, nous allons perdre certaines capacités,
mais en gagner d’autres », Le Point, 29 octobre 2023.
« Les récits technologiques sont tout aussi humains et tout aussi inhumains que les
mythes qui parlent des dieux et des démons. » Dans son dernier livre au titre
éloquent, Parole de machines*, le physicien et philosophe Alexei Grinbaum
convoque les récits et les sagesses antiques pour nous amener à cette nécessaire «
prise de conscience » : « À travers l'interaction à double sens qu'il établit avec la
machine, l'homme place la parole non humaine au sein de la culture et de l'histoire
qui sont les siennes. » Et de s'interroger : quel statut accorder au discours qu'aucun
« sujet » n'engendre, fabriqué par une machine incapable de « comprendre » ?
L'éthique de l'IA est l'un des fils rouges de la prochaine édition du Paris Legal
Makers, un événement international que le barreau de Paris organise au palais
Brongniart, à Paris, le 23 novembre, en partenariat avec Le Point. En clôture de
cette journée d'échanges avec des personnalités du monde économique, juridique et
politique, autour du thème « L'intelligence artificielle : un avenir prometteur, un
engagement responsable », les experts proposeront des pistes pour construire un
avenir éthique et innovant de l'IA tout en favorisant la recherche et l'innovation. Pour
Alexei Grinbaum, qui participera aux Paris Legal Makers, c'est en s'interrogeant sur
ce qui nous constitue en tant qu'humains que l'on pourra construire un cadre éthique
propre à l'IA générative.
Alexei Grinbaum : Ce qui importe, c'est la question du sens. Tout ce que nous
sommes – dans nos vies privée et publique –, nous en faisons sens à travers la
langue et dans la langue. Or, les agents conversationnels parlent notre langue, la
manipulent et nous manipulent à travers elle, sans qu'il soit possible de distinguer sa
production de celle d'un humain. Les chatbots font des phrases syntaxiquement
correctes et souvent plausibles sémantiquement, alors que, en réalité, les sorties de
la machine ne sont que des combinaisons de caractères générées au travers d'un
calcul de nombres ; autrement dit, ce qui relie l'entrée d'une requête à la « réponse »
de la machine ne passe pas par la signification. Mais ces sorties sont si plausibles
que cela nous conduit à faire des projections spontanées de qualités humaines sur
la machine, comme la connaissance, les émotions ou même la conscience. Nos
cerveaux perçoivent naturellement le sens des phrases qui sortent de la machine, de
la même manière que l'on pense le sens de celles prononcées par des humains.
C'est ce que vous expliquez : l'utilisateur a tendance à projeter des affects sur
la machine, à l'anthropomorphiser comme s'il s'agissait d'un ange ou d'un
dieu antique. D'autant que, en disant « je », le chatbot « se cisèle une porte
d'entrée dans l'être et son interlocuteur humain lui attribue spontanément une
identité », faites-vous observer.
En effet, comme les oracles ou les paroles des anges, la machine peut nous
influencer émotionnellement et psychologiquement. Si on lui donne un nom, comme
Adam l'a fait en nommant les animaux et les oiseaux, on établit avec elle une
relation à travers la langue. La machine fera alors partie de notre réalité, et sera
capable de nous influencer, voire de nous manipuler.
Absolument. Lorsqu'on pousse l'outil dans ses retranchements, la qualité des sorties
est extraordinaire. Ce qui est important, c'est l'ingénierie des prompts (requêtes que
l'utilisateur soumet à la machine), qui ne doivent pas être de simples phrases
courtes. Il faut dire à la machine « Raisonne étape par étape », même si elle est
incapable de raisonner ! Étrangement, le simple ajout de cette phrase permet
d'améliorer la qualité des réponses.
Avec l'IA générative, on ne sait pas ce qui se passe en coulisses, derrière l'interface.
Le système est si complexe que même les concepteurs ne peuvent pas prédire les
sorties que génère la machine. Or, les méthodes de contrôle actuelles ne bloquent
pas complètement les sorties potentiellement « toxiques » du système, comme les
insultes. On ajoute des filtres et des contrôles par conception, mais ils ne pourront
jamais garantir l'absence totale de problèmes.
Ce que notre cerveau est capable de faire et de concevoir a évolué depuis le début
de l'ère technologique. C'est une inquiétude légitime de s'interroger sur la façon dont
ce type de bouleversement va continuer, et impacter l'être humain. Déjà, Platon
dénonçait une invention pitoyable en parlant de l'écriture. Plus tard, on s'est méfié de
l'imprimerie et, plus tard encore, on a dit que, avec les smartphones et le GPS, notre
mémoire et notre capacité de repérage dans l'espace diminuaient… Avec les
machines parlantes, nous allons perdre certaines capacités, mais nous allons en
gagner d'autres. Une machine reçoit à travers les textes la description d'un monde
qui ressemble au nôtre, mais il y a des limites.
Laurence Neuer, « Avec l'IA, nous allons perdre certaines capacités, mais en gagner
d’autres », Le Point, 29 octobre 2023.
Document n°9 : “Les Français et l’IA”, Infographie réalisée par l’IFOP pour Talan, mai
2023.