Vous êtes sur la page 1sur 5

 

Ne croyez surtout pas qu'il s'agisse de science-fiction : 18 avril 2015, une équipe de généticiens chinois entreprenait d'"améliorer' le génome de quatre-vingt-trois
embryons humains.
Jusqu'où ira-t-on dans cette voie ? Sera-t-il possible un jour (bientôt ? déjà ?) d'"augmenter' à volonté tel ou tel trait de caractère de ses enfants, d'éradiquer dans
l'embryon les maladies génétiques, voire d'enrayer la vieillesse et la mort en façonnant une nouvelle espèce d'humains "augmentés' ? Nous n'en sommes pas (tout
à fait) là, mais de nombreux centres de recherche "transhumanistes' y travaillent partout dans le monde, avec des financements colossaux en provenance de
géants du Web tel Google. Les progrès des technosciences sont d'une rapidité inimaginable, ils échappent encore à toute régulation. En parallèle, cette
"infrastructure du monde' qu'est le Web a permis l'apparition d'une économie dite "collaborative', celle que symbolisent des applications comme Uber, Airbnb ou
BlaBlaCar. Selon l'idéologue Jeremy Rifkin, elles annoncent la fin du capitalisme au profit d'un monde de gratuité et de souci de l'autre. N'est-ce pas, tout à
l'inverse, vers un hyperlibéralisme, vénal et dérégulateur, que nous nous dirigeons ? Certaines perspectives ouvertes par les innovations technoscientifiques sont
enthousiasmantes, d'autres effrayantes. Ce livre cherche d'abord à les faire comprendre, et à réhabiliter l'idéal philosophique de la régulation, une notion
désormais vitale, tant du côté de la médecine que de l'économie. "

Résumé :

Elle a émergé avec la vie, s'est développée au fil de l'évolution, s'est magnifiée avec l'espèce humaine... Grâce à cette mystérieuse intelligence, nous avons tout
inventé : l'outil, le langage, l'écriture, l'éducation, la science, et la faculté de nous interroger sur le monde. Aujourd'hui, cette belle histoire connaît une révolution
sans précédent. Pour la première fois, le cerveau humain peut visualiser son propre fonctionnement. Pour la première fois, il transfère une partie de son
intelligence dans des machines capables d'apprentissage.
Au fil d'un dialogue fascinant, le grand spécialiste du cerveau Stanislas Dehaene et celui des neurones artificiels Yann Le Cun racontent, avec Jacques Girardon,
cette longue aventure, des origines animales à nos jours, et s'interrogent sur notre futur. Les ordinateurs vont-ils bientôt éprouver des émotions, se doter d'une
morale ? L'art, la beauté, la capacité d'improviser, d'anticiper, sont-ils à la portée de cerveaux immatériels ?
Ce que les auteurs esquissent ici, ce n'est rien moins que la prochaine étape de notre évolution. À l'évidence, la lecture d'un tel livre change déjà radicalement le
regard que nous portons sur nous-mêmes.

Résumé :

Elle a émergé avec la vie, s'est développée au fil de l'évolution, s'est magnifiée avec l'espèce humaine... Grâce à cette mystérieuse intelligence, nous avons tout
inventé : l'outil, le langage, l'écriture, l'éducation, la science, et la faculté de nous interroger sur le monde. Aujourd'hui, cette belle histoire connaît une révolution
sans précédent. Pour la première fois, le cerveau humain peut visualiser son propre fonctionnement. Pour la première fois, il transfère une partie de son
intelligence dans des machines capables d'apprentissage.
Au fil d'un dialogue fascinant, le grand spécialiste du cerveau Stanislas Dehaene et celui des neurones artificiels Yann Le Cun racontent, avec Jacques Girardon,
cette longue aventure, des origines animales à nos jours, et s'interrogent sur notre futur. Les ordinateurs vont-ils bientôt éprouver des émotions, se doter d'une
morale ? L'art, la beauté, la capacité d'improviser, d'anticiper, sont-ils à la portée de cerveaux immatériels ?
Ce que les auteurs esquissent ici, ce n'est rien moins que la prochaine étape de notre évolution. À l'évidence, la lecture d'un tel livre change déjà radicalement le
regard que nous portons sur nous-mêmes.

Résumé :

Elle a émergé avec la vie, s'est développée au fil de l'évolution, s'est magnifiée avec l'espèce
humaine... Grâce à cette mystérieuse intelligence, nous avons tout inventé : l'outil, le langage,
l'écriture, l'éducation, la science, et la faculté de nous interroger sur le monde. Aujourd'hui, cette belle
histoire connaît une révolution sans précédent. Pour la première fois, le cerveau humain peut visualiser
son propre fonctionnement. Pour la première fois, il transfère une partie de son intelligence dans des
machines capables d'apprentissage.
Au fil d'un dialogue fascinant, le grand spécialiste du cerveau Stanislas Dehaene et celui des neurones
artificiels Yann Le Cun racontent, avec Jacques Girardon, cette longue aventure, des origines animales
à nos jours, et s'interrogent sur notre futur. Les ordinateurs vont-ils bientôt éprouver des émotions, se
doter d'une morale ? L'art, la beauté, la capacité d'improviser, d'anticiper, sont-ils à la portée de
cerveaux immatériels ?
Ce que les auteurs esquissent ici, ce n'est rien moins que la prochaine étape de notre évolution. À
l'évidence, la lecture d'un tel livre change déjà radicalement le regard que nous portons sur nous-
mêmes.

Résumé :

Elle a émergé avec la vie, s'est développée au fil de l'évolution, s'est magnifiée avec l'espèce
humaine... Grâce à cette mystérieuse intelligence, nous avons tout inventé : l'outil, le langage,
l'écriture, l'éducation, la science, et la faculté de nous interroger sur le monde. Aujourd'hui, cette belle
histoire connaît une révolution sans précédent. Pour la première fois, le cerveau humain peut visualiser
son propre fonctionnement. Pour la première fois, il transfère une partie de son intelligence dans des
machines capables d'apprentissage.
Au fil d'un dialogue fascinant, le grand spécialiste du cerveau Stanislas Dehaene et celui des neurones
artificiels Yann Le Cun racontent, avec Jacques Girardon, cette longue aventure, des origines animales
à nos jours, et s'interrogent sur notre futur. Les ordinateurs vont-ils bientôt éprouver des émotions, se
doter d'une morale ? L'art, la beauté, la capacité d'improviser, d'anticiper, sont-ils à la portée de
cerveaux immatériels ?Ce que les auteurs esquissent ici, ce n'est rien moins que la prochaine étape de
notre évolution. À l'évidence, la lecture d'un tel livre change déjà radicalement le regard que nous
portons sur nous-mêmes.
Cet article est issu du Hors-série de Sciences et Avenir n°199 daté octobre-novembre 2019.
Jean-Gabriel Ganascia est professeur d’informatique à la faculté des sciences de Sorbonne Université. Il a accordé une interview
à Sciences et Avenir.
Sciences et Avenir : Doit-on craindre l’intelligence artificielle ?
Jean-Gabriel Ganascia : Non, il n’y a ni démon, ni puissance maléfique cachée derrière les machines, qui agirait pour soi-même. La
peur irrationnelle est mauvaise conseillère ! En revanche, il faut savoir rester inquiet - au sens étymologique : ne pas être en repos.
Pourquoi ? Parce que l’IA va bouleverser notre existence, créer de nouvelles conditions de vie dans la société… Mais aussi parce
qu’elle est faite par des humains, et que certains d’entre eux peuvent être tentés de l’utiliser de façon plus ou moins malveillante.
Dès lors, il faut se montrer très vigilant. D’une part, vis-à-vis des pouvoirs publics. Voyez, en Chine : la mise en place d’une
surveillance généralisée avec reconnaissance faciale, aboutissant à un "score de réputation", aura un impact très fort sur la vie.
Dans ce cas extrême mais bien réel, l’intelligence artificielle est une arme contre les libertés individuelles, au service d’un contrôle
social total. Mais les démocraties ne sont pas à l’abri. Plus près de nous, en effet, le maire de Nice, Christian Estrosi, entendait doter
sa ville de portiques à reconnaissance faciale dans le but de repérer les "fichés S", les personnes recherchées notamment pour
terrorisme, aux abords des stades. Reste que la reconnaissance faciale a - pour le moment - ses limites, car on peut facilement
tromper le logiciel. Il faut être très attentif et s’assurer que le principe - républicain - de liberté soit respecté. Ce sont des choix de
société.
Qu’en est-il des acteurs privés ? Quelles menaces font-ils peser sur les libertés individuelles ?
La puissance publique est plus ou moins contrôlée, du moins en démocratie. On peut se doter de règles, de lois qui garantiront une
certaine liberté. On peut même trouver des compromis, des arbitrages, pour tenter par exemple de concilier l’exigence de
transparence - ou de sécurité - avec le respect de la vie privée. En revanche, d’autres acteurs sont extrêmement pernicieux. Aux
États-Unis, des compagnies d’assurances utilisent l’IA pour calculer leurs tarifs en fonction des zones géographiques où,
statistiquement, il y a le plus de chauffards. Un système inégal qui majore votre cotisation si vos voisins - manque de chance ! - se
sont mal comportés au volant. Quant aux grands acteurs de l’internet, ils peuvent s’appuyer sur leur extraterritorialité pour faire
quasiment ce qu’ils veulent…

Que font-ils de nos données ?


Cet article est issu du Hors-série de Sciences et Avenir n°199 daté octobre-novembre 2019.
Jean-Gabriel Ganascia est professeur d’informatique à la faculté des sciences de
Sorbonne Université. Il a accordé une interview à Sciences et Avenir.
Sciences et Avenir : Doit-on craindre l’intelligence artificielle ?
Jean-Gabriel Ganascia : Non, il n’y a ni démon, ni puissance maléfique cachée
derrière les machines, qui agirait pour soi-même. La peur irrationnelle est
mauvaise conseillère ! En revanche, il faut savoir rester inquiet - au sens
étymologique : ne pas être en repos. Pourquoi ? Parce que l’IA va bouleverser
notre existence, créer de nouvelles conditions de vie dans la société… Mais aussi
parce qu’elle est faite par des humains, et que certains d’entre eux peuvent être
tentés de l’utiliser de façon plus ou moins malveillante. Dès lors, il faut se
montrer très vigilant. D’une part, vis-à-vis des pouvoirs publics. Voyez, en Chine :
la mise en place d’une surveillance généralisée avec reconnaissance faciale,
aboutissant à un "score de réputation", aura un impact très fort sur la vie. Dans
ce cas extrême mais bien réel, l’intelligence artificielle est une arme contre les
libertés individuelles, au service d’un contrôle social total. Mais les démocraties
ne sont pas à l’abri. Plus près de nous, en effet, le maire de Nice, Christian
Estrosi, entendait doter sa ville de portiques à reconnaissance faciale dans le but
de repérer les "fichés S", les personnes recherchées notamment pour terrorisme,
aux abords des stades. Reste que la reconnaissance faciale a - pour le moment -
ses limites, car on peut facilement tromper le logiciel. Il faut être très attentif et
s’assurer que le principe - républicain - de liberté soit respecté. Ce sont des choix
de société.
Qu’en est-il des acteurs privés ? Quelles menaces font-ils peser sur les libertés
individuelles ?
La puissance publique est plus ou moins contrôlée, du moins en démocratie. On
peut se doter de règles, de lois qui garantiront une certaine liberté. On peut
même trouver des compromis, des arbitrages, pour tenter par exemple de
concilier l’exigence de transparence - ou de sécurité - avec le respect de la vie
privée. En revanche, d’autres acteurs sont extrêmement pernicieux. Aux États-
Unis, des compagnies d’assurances utilisent l’IA pour calculer leurs tarifs en
fonction des zones géographiques où, statistiquement, il y a le plus de chauffards.
Un système inégal qui majore votre cotisation si vos voisins - manque de chance !
- se sont mal comportés au volant. Quant aux grands acteurs de l’internet, ils
peuvent s’appuyer sur leur extraterritorialité pour faire quasiment ce qu’ils
veulent…

Que font-ils de nos données ?


L'intelligence artificielle est le fruit d'une réflexion qui commence bien avant la création des
ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée
se réduit à un calcul. (Crédits : Wikimedia Commons)
Comment définir, de façon simple, l'intelligence artificielle [IA] ?
Jean-Gabriel Ganascia - L'intelligence artificielle consiste à faire exécuter par une machine des opérations que nous faisons avec
notre intelligence. De façon encore plus simple, cela veut dire calculer, démontrer des théorèmes, résoudre des problèmes, jouer,
traduire, parler, reconnaître une voix, la liste serait longue. La création officielle de l'IA date de 1955, avec le projet d'école d'été de
John McCarthy, au cours de laquelle il propose de jeter les fondements d'une nouvelle discipline qui partirait de  « la conjecture
selon laquelle chaque aspect de l'apprentissage ainsi que n'importe quel trait de l'intelligence pourrait, en principe, être décomposé
en modules si élémentaires qu'une machine pourrait les simuler ».
Mais l'IA est le fruit d'une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz
et Hobbes qui affirment que la pensée se réduit à un calcul. Elle devient tangible dès la première moitié du xixe  siècle avec Charles
Babbage, qui conçoit les plans du premier ordinateur avec sa jeune assistante, l'énigmatique Ada Lovelace, fille du poète Byron,
selon laquelle une telle machine ne se limiterait pas à effectuer des calculs mathématiques, mais serait en mesure d'opérer sur des
mots ou de la musique. Quelques années plus tard, dans les années 1869, un économiste, William Stanley Jevons, réalise, avec
des moyens purement mécaniques, un « piano logique » qui simule des raisonnements en ayant recours à l'algèbre de Boole.
RETROUVEZ NOS VIDEOS#TLFRegions -Interview de Didier BOULOGNE, Directeur général délégué à l'export chez Business
FranceKeep Watching
NOW
PLAYING#TLFRegions - Interview de Sylvain PANAS, Directeur régional Occitanie de TotalEnergiesNOW
PLAYINGNOW
PLAYING#TLFRegions - Interview de Marc PENA, groupe PENA et Sonia LADROIT, Banque PalatineNOW
PLAYING#TLFRegions -HdF - Guillaume BASSET, Directeur du Département Attractivité des Terr, Business FranceNOW
PLAYING#TLFRégions - Focus sur le sondage IFOP pour l'UIMM sur l'attachement des français à l'industrieNOW
PLAYING#EYTDAY - Patrick Artus - Transformer la France pour ancrer sa place dans l'échiquier mondialNOW
PLAYING#EYTDAY Frédéric Oudéa - Transformer la France pour ancrer sa place dans l'échiquier mondialNOW
PLAYING#REAix2022 Intervention de Olivier DUSSOPT, Ministre du Travail, du Plein emploi et de l'insertionNOW
PLAYING#REAix2022 - Valérie RABAULT, Député PS, première circonscription de Tarn-et-GaronneNOW
PLAYING#REAix2022 - Intervention de Bertrand DUMAZY
L'idée prend de l'ampleur au xxe siècle, dans les années 1940, avant même la construction des premiers ordinateurs électroniques,
au moment de la création de la cybernétique qui étudie, avec des automates, la régulation des systèmes complexes. Cette approche
aborde de multiples domaines et dépasse la seule question de la régulation des machines. Elle va notamment influencer la
psychologie et l'anthropologie : ainsi, l'école de Palo Alto, fondée par Gregory Bateson, s'appuie beaucoup sur la cybernétique.
Alan Turing va aller plus loin encore. Après avoir posé les fondements de ce qui deviendra l'informatique en 1936, il invente,
pendant la guerre, le dispositif permettant de décrypter les messages émis par la machine à coder allemande Enigma. Après cette
découverte, Turing se pose la question de savoir ce que penser veut dire, pour une machine. Il imagine alors le test d'intelligence
des machines qualifié, depuis, comme étant le « test de Turing » : une machine est dite « intelligente » si elle peut faire illusion en
se faisant passer pour un être humain au cours d'un chat, c'est-à-dire d'un échange écrit, par l'intermédiaire de machines.
Après que de grandes espérances, comme celle de la traduction automatique ou du jeu d'échecs, ont été un peu «  refroidies », l'IA
ne se développe réellement qu'au cours des années 1970, lorsque l'on comprend qu'il ne suffit pas de faire de la logique, mais qu'il
faut relier la psychologie, la linguistique et l'informatique. Elle accroît sa popularité ensuite avec l'apparition des «  systèmes
experts », c'est-à-dire des logiciels visant à simuler le raisonnement dans un champ du savoir restreint, en ayant recours à la
connaissance d'hommes de métier pour résoudre des problèmes précis. Ces derniers rencontrent un succès énorme dans les
années 1980 avant que l'IA necroise sa course avec le développement du Web.
Aujourd'hui l'IA, c'est quoi ?
L'intelligence artificielle est partout dans nos vies : dans la reconnaissance de la parole, des visages ou des empreintes digitales,
dans les apprentissages machines, dans l'hypertexte, les moteurs de recherche, la traduction automatique, les logiciels de
recommandation, etc. Tout ce qui est Web comporte de l'IA. Mais il y a aussi de l'IA dans votre téléphone portable, dans la voiture
autonome, dans les drones...

close
volume_off
Aujourd'hui, quels sont les pays ou les organisations le plus en pointe dans ce domaine ?
Les États-Unis en premier lieu, parce que la discipline s'y est développée beaucoup plus rapidement qu'ailleurs. Pour une simple
raison, c'est que les Américains se posent surtout la question du comment, moins du pourquoi, leur côté plus pragmatique les fait
avancer plus vite. Au Royaume-Uni aussi, parce qu'ils avaient une tradition logique et informatique forte  : n'oublions pas que
Charles Babbage, l'inventeur du premier ordinateur, est anglais et qu'il en va de même d'Alan Turing, le précurseur de l'intelligence
artificielle.
Au Japon, l'IA s'est développée sous l'impulsion du projet d'ordinateur de cinquième génération, dans lequel les ingénieurs japonais
ont souhaité intégrer de l'IA. Ils voulaient concevoir une nouvelle génération de machines intégrant des langages capables d'opérer
des déductions logiques. À cette fin, ils ont opté pour le langage Prolog, PROgrammation en LOGique, inventé par un Français,
Alain Colmerauer. En France, précisément, malgré de vraies compétences, l'IA a longtemps été méprisée. En Chine, il n'y a rien eu
pendant des années, mais les Chinois ont ensuite beaucoup investi en se concentrant notamment sur les questions d'apprentissage
machine et sur les applications pour le traitement des masses de données, les mégadonnées.
Connaît-on vraiment les avancées de la recherche dans ces différentes régions ? Des programmes de recherche cachés
pourraient-ils exister ?
La recherche a beaucoup changé. Elle avait un côté invisible, caché, restreinte à des cercles d'initiés. Puis des organisations plus
étatiques, ont pris le relais, surtout après la Seconde Guerre mondiale. Aujourd'hui, la recherche est financée au plan international.
Les communautés de chercheurs sont interdisciplinaires, multinationales. Les financements sont multipartites, privés et publics. On
sait donc ce qui se passe. Il y aura toujours des petits groupes construisant des virus informatiques, mais on ne fait pas d'avancées
majeures en restant tout seul dans son coin.
Les risques liés à l'IA relèvent-ils alors du fantasme ?
Il faut, je crois, avant tout faire attention aux applications, à la dépendance qu'elles engendrent dans la vie de tous les jours et aux
changements sociaux qu'elles induisent. La délégation de certaines tâches aux machines a nécessairement des effets secondaires.
Les systèmes informatiques offrent de nouvelles opportunités, tout en en condamnant d'autres. Ainsi, Uber permet de trouver un taxi
à proximité, de suivre le parcours de la voiture avant qu'il arrive, puis après, de le noter... De même, on peut craindre que la nature
mutualiste des assurances disparaisse progressivement avec le traitement de grandes masses de données qui permettent
d'anticiper le risque avec une très grande précision ; en effet, des acteurs promettant des polices d'assurance beaucoup moins
coûteuses feront alors leur apparition sur le marché...
Et le débat récent autour des robots tueurs ?
Les questions autour des « robots tueurs », qui reviennent sans cesse, constituent à mes yeux un faux débat. Le but d'une guerre
est avant tout de résoudre un conflit. Or, je ne crois pas que les drones, qui engendrent déjà et engendreront immanquablement des
bavures, seront en mesure de les résoudre. Une série d'articles parus aux États-Unis en montrent les limites en décrivant toutes les
erreurs et les méprises auxquelles l'emploi de drones militaires a conduit. De même, les robots autonomes qui sélectionneront eux-
mêmes leurs cibles et commanderont le tir vont générer trop d'hostilité pour s'imposer. À cela, il faut ajouter que ces armes
autonomes requièrent des critères objectivables. Or, comment définir formellement un « ennemi » de façon à construire un
algorithme qui l'identifie ? C'est là une question d'autant plus délicate que nous avons de plus en plus affaire à des guerres
asymétriques où les combattants ne portent pas d'uniforme.
Plus prosaïquement, pourquoi faire compliqué, s'embêter avec des armes autonomes, alors que l'objectif peut être atteint plus
simplement avec un drone commandé à distance ?
Et n'y a-t-il pas un lien entre l'IA et la construction d'un homme augmenté ?
Ce qu'on appelle « homme augmenté » recouvre plusieurs aspects. L'augmentation physique, l'augmentation de la perception, par
exemple la capacité de voir l'infrarouge, et puis l'augmentation intellectuelle avec les réalités augmentées qui projettent des
informations dans notre champ de vision. L'IA peut prendre part dans chacun de ces registres. En revanche, la question des
implants et de leur effet sur notre intelligence en général et sur notre mémoire en particulier reste très spéculative.
Et le risque de l'autonomisation d'un programme ?
Cela dépend de ce qu'on entend par autonomie. Un système déjà programmé va se réadapter en fonction des informations données
par ses capteurs. En cela, il y a bien autonomie, puisque le programme ne se comporte pas de façon prévisible, et s'adapte au
contexte, mais le danger de dérive reste limité.
Avec l'IA et les systèmes d'apprentissage embarqués, le programme va se modifier en fonction de l'expérience du robot. Du coup,
on entre dans l'imprévisible. La machine va en effet être capable de s'améliorer et son efficience peut aller contre nos valeurs.
Comment faire pour que cela n'outrepasse jamais des limites morales ou éthiques ? Comment et à quels niveaux placer des
barrières ?
C'est de ces interrogations qu'émane la lettre publiée par certains spécialistes de l'IA, cosignée par Stephen Hawking et Elon Musk,
en janvier 2015, alertant sur la conception de systèmes autonomes avec des techniques d'apprentissage machine. Le programme
de recherche qu'ils préconisent apparaît légitime : il s'agit de s'assurer de la sûreté de fonctionnement de systèmes informatiques
qui se programment eux-mêmes, à partir de leur propre expérience. Toutefois, derrière cet appel qui se justifie parfaitement d'un
point de vue scientifique, se glissent d'autres craintes : celles de voir une machine nous échapper totalement et agir pour son propre
compte. Or, rien, pour l'heure, ne légitime de telles inquiétudes.
Bien sûr, des personnes malveillantes pourront toujours essayer de prendre le contrôle de machines. Mais que des machines
prennent leur autonomie au sens moral, avec une volonté propre, reste de la pure spéculation.
Que penser justement de ce scénario dit de la « singularité » : le moment 
où la machine dépassera l'homme. Des chercheurs comme Ray Kurzweil, qui bénéficient de moyens importants, le
présentent comme une réalité scientifique.
C'est un scénario qui n'a justement aucun fondement scientifique. Notons d'abord que ceux qui l'énoncent le font en utilisant des
arguments d'autorité : ils se présentent toujours avec leurs titres prestigieux, mais ne s'appuient sur aucun fait tangible. De plus, ils
n'autorisent pas le débat. Or la science exige que l'on s'appuie sur des observations tout en acceptant le débat et l'échange.
Pour comprendre qu'il n'y a en réalité aucun fondement scientifique, il est bon de revenir à la fameuse expérience de pensée de
John Searle dite de la « Chambre chinoise ». Un homme qui ne connaît pas le chinois est enfermé dans une prison. Il voit par la
lucarne des caractères chinois, et on lui fait comprendre que, s'il veut manger, il doit présenter à cette même lucarne des panneaux
sur lesquels sont écrits des caractères chinois. S'il réagit à ce qu'il voit en présentant les caractères conformes à ce qui est
recommandé dans le catalogue de règles syntaxiques qu'on a mis à sa disposition, il aura à manger. Au bout d'un certain nombre
d'années, on peut supposer qu'il devient très performant et que, de l'extérieur, les Chinois ont l'impression qu'il réagit comme un
Chinois qui comprend le chinois... Mais, d'après Searle, cela ne signifie pas qu'il comprend effectivement le chinois. Il y a en effet
une différence radicale entre la syntaxe, qui est de l'ordre de la manipulation des symboles, par exemple des panneaux sur lesquels
sont inscrits des caractères, et la sémantique, qui est de l'ordre de la signification.
Searle distingue ainsi l'IA « faible », celle qui reproduit certaines facultés intellectuelles pour les automatiser, de l'IA «  forte », qui fait
entrer l'intégralité des phénomènes conscients dans une machine. Jusqu'à présent, les progrès impressionnants enregistrés par
l'intelligence artificielle relèvent uniquement de l'IA « faible ». Seule une minorité de la communauté scientifique prétend relever ce
défi de l'IA « forte ». Mais il n'y a rien pour mesurer ce type d'ambition.
Pourtant, de grandes organisations privées investissent des sommes considérables sur ce type de programmes... Kurzweil
lui-même a été embauché chez Google en 2012 comme directeur de la recherche.
Je crains que ces sociétés aient une confiance absolue dans le pouvoir de la technologie. Google, Facebook sont des empires qui
se sont montés à toute vitesse. Ils ont réussi au-delà de ce que quiconque aurait pu imaginer, ont changé le monde en quelques
années. Leurs dirigeants ne perçoivent plus de limites. Beaucoup ont le sentiment que tout est possible, que la vie peut se
transformer, que même la mort peut être « tuée ». Les technologies leur ont conféré un sentiment de toute-puissance. Ils sont aussi
persuadés que la technologie a ses propres lois. L'industrie 2.0 fait en effet appel en permanence aux « retours d'usage ». Ces
dirigeants ne décident finalement plus de rien. Certes, ils ont une position importante, mais ne se conçoivent pas comme les
capitalistes décideurs de l'époque précédente. Ils essayent des choses dans tous les sens. Ils sont en permanence à l'écoute. Ils
ont le sentiment d'une deuxième dimension, d'une autodétermination, d'un déploiement autonome de la technologie, hors de toute
maîtrise humaine.
Personnellement, je ne pense pas que la technologie soit autonome en ce sens qu'elle ne se déploie pas d'elle-même. J'ai fait le
choix de travailler sur l'IA non pas dans le but qu'elle augmente sa propre «  conscience », ce qui, à mon sens, n'a pas grand sens,
mais afin qu'elle permette d'accroître la conscience de l'homme : que l'on puisse par exemple, grâce à l'IA, mieux apprécier des
textes littéraires, mieux saisir les influences mutuelles, mieux en comprendre la genèse... Cela accroît notre propre intelligence, pas
celle de la machine.
___

Vous aimerez peut-être aussi