Vous êtes sur la page 1sur 106

Intelligence artificielle : Microsoft développe le

« Machine Teaching »
Microsoft veut aider les humains à transmettre leur savoir-faire aux robots en développant des
outils « d'enseignement à la machine » suffisamment intuitifs pour pouvoir être utilisés par des
personnes ne connaissant rien à l'informatique.
Vous aimez nos Actualités ?
Inscrivez-vous à la lettre d'information La quotidienne pour recevoir nos toutes dernières Actualités
une fois par jour.

Pour Microsoft, le perfectionnement de l’intelligence artificielle des robots ne passe plus seulement
par des algorithmes plus performants, mais aussi par la création d’outils d’enseignement de
l’apprentissage automatique qui soient accessibles à un public de non-spécialiste. © Dalle Molle
Institute for Artificial Intelligence Research, CC BY-SA 3.0 
Vous serez peut-être un jour recruté pour enseigner à des robots à apprendre ce que vous savez faire
afin qu'ils le fassent mieux et plus vite. Alors que l'apprentissage-machine est au cœur des progrès
de l'intelligence artificielle aujourd'hui, Microsoft explique que la prochaine révolution n'est peut-
être pas dans le perfectionnement des algorithmiques déjà de plus en plus sophistiquées, ou dans la
montée en puissance des superordinateurs qui effectuent les calculs statistiques permettant aux
machines d'apprendre, mais dans les outils qui permettront aux humains d'enseigner aux robots.
Ainsi alors que l'on parle aujourd'hui essentiellement de « Machine Learning » (apprentissage par la
machine), Microsoft s'est doté d'un département de « Machine Teaching » (enseignement à la
machine), dont le but est de concevoir des outils intuitifs qui permettront aux hommes et aux
femmes d'enseigner aux ordinateurs des tâches qu'ils pourront reproduire et perfectionner, sans rien
y connaître en informatique.

Microsoft s’est doté d’un département de « Machine Teaching » qui permettra « à quiconque
d’enseigner à un ordinateur comment réaliser des tâches de machine-learning, même si cette
personne n’a aucune expertise en analyse de données ou en sciences informatiques ». © A Health
Blog, Flickr, CC by-sa 2.0 

Pas assez d’experts en apprentissage automatique


«  Le "machine learning" s'est montré si utile qu'il a créé un problème d'offre et de demande »,
constate Microsoft. « Il n'y a tout simplement pas assez de gens avec l'expertise en
"machine  learning" pour réaliser tous les projets que les entreprises et les organisations veulent. »
La firme de Redmond souhaite concevoir « des outils qui permettront à quiconque d'enseigner à un
ordinateur comment réaliser des tâches de "machine learning", même si cette personne n'a aucune
expertise en analyse de données ou en sciences informatiques ».
Par exemple, un chercheur en médecine pourra décrire simplement à l'ordinateur ce qu'il veut
comme travaux de recherche dans son domaine, montrer comment il procède, et l'IA devrait être
capable de comprendre la demande, d'apprendre les rudiments de la recherche médicale appliquée à
l'objectif, et de réaliser les tâches demandées.
Pour le québécois Patrice Simard, qui dirige le département Machine Teaching de Microsoft, c'est
désormais le nombre de personnes capables d'enseigner leur savoir-faire aux robots qui sera
déterminant pour les progrès à venir, plus que le perfectionnement des algorithmes existants.
Microsoft a déjà mis cette optique en œuvre avec Azure Machine Learning (Azure ML), qui
nécessite toutefois encore des connaissances en traitement de données, ou avec Luis (Language
Understanding Intelligent Service), une API proche du SDK SkyPhrase révélé la semaine dernière
par Yahoo, qui doit permettre aux développeurs d'intégrer du langage naturel dans leurs
applications.

https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-intelligence-artificielle-
peut-apprendre-langue-aide-humaine-69402/

Une intelligence artificielle peut apprendre une


langue sans aide humain
Des chercheurs travaillant sur des projets indépendants ont créé des intelligences artificielles
bilingues qui peuvent apprendre une nouvelle langue sans piocher dans un dictionnaire existant, et
même sans intervention humaine. Une avancée remarquable.
Vous aimez nos Actualités ?
Inscrivez-vous à la lettre d'information La quotidienne pour recevoir nos toutes dernières Actualités
une fois par jour.
« Imaginez que vous donniez à une personne de nombreux livres en chinois et en arabe, tous
différents, et que vous lui demandiez de traduire du chinois en arabe. Cela semble impossible, n'est-
pas ? Eh bien un ordinateur peut le faire. » Voici ce qu'annonce Mikel Artetxe, ingénieur
informaticien à l'université du Pays Basque (UPV) de San Sebastiàn en Espagne. Il est l'auteur de
l'un des deux articles scientifiques publiés sur arXiv et décrivent une méthode d'apprentissage
automatique (machine learning) non supervisée capable de réaliser des traductions sans recourir à
un dictionnaire. Le système fonctionne également sans texte parallèle ou identique existant dans une
autre langue.
Le second article (Unsupervised Machine Translation Using Monolingual Corpora Only),
totalement indépendant mais qui utilise la même technique, est l'œuvre de Guillaume Lample, un
ingénieur en informatique français travaillant pour le département d'intelligence artificielle de
Facebook. Dans les deux cas, les chercheurs démontrent qu'un réseau neuronal peut apprendre à
traduire une langue sans aller piocher dans un dictionnaire.
Ces dernières années, la traduction automatique a fait d'immenses progrès grâce aux réseaux
neuronaux qui ont dopé les performances de l'apprentissage automatique. Cependant, ce type d'IA
nécessite de gros volumes de contenus traduits préalablement par des humains. La traduction est le
fruit d'un apprentissage supervisé au cours duquel la machine fait une supposition puis reçoit la
réponse correcte d'un humain, ce qui lui permet ensuite d'ajuster son traitement en conséquence.
Cette méthode est efficace pour les langues très répandues, l'anglais ou le français par exemple,
pour lesquelles il existe de nombreux documents parallèles. Mais elle fonctionne nettement moins
bien pour des langues rares qui n'offrent pas d'un tel corpus.

Object 1

L’IA fait de la géographie pour apprendre les mots


Dans le cas des deux nouvelles méthodes dont il est question, les experts ont développé un
apprentissage automatique non supervisé. Pour cela, ils se sont appuyés sur les associations
identiques qui existent entre des mots quelle que soit la langue. Par exemple, le mot table est
souvent employé avec le mot chaise. Partant de là, la machine va cartographier ces connexions pour
chaque langue, un peu comme un atlas routier où les mots remplaceraient les noms des villes. L'IA
rapproche ensuite ces cartes et repère les connexions similaires mais avec des noms différents. C'est
ainsi qu'on obtient un dictionnaire bilingue sans données préalables. Une sacrée prouesse
technique !
Les deux systèmes d'IA sont capables de traduire non seulement des mots individuels, mais aussi
des phrases complètes. Pour ce faire, deux techniques d'entraînement sont utilisées. La première,
nommée back translation ou « traduction inversée », consiste à traduire grossièrement une phrase
d'une langue vers une autre puis à la traduire à nouveau dans sa langue d'origine. Si la traduction de
retour n'est pas identique à l'originale, le réseau neuronal ajustera son fonctionnement en
conséquence.
La seconde technique d'entraînement nommée denoising, que l'on peut traduire par « réduction du
bruit », est similaire à la traduction inversée dans son principe. Elle consiste à ajouter ou retirer des
mots à une phrase puis à la traduire. C'est en combinant ces deux techniques que les chercheurs ont
obtenu les meilleurs résultats. Au cœur des deux systèmes, celui de Mikel Artetxe et celui de
Guillaume Lample, se trouve une étape qui crée une représentation plus abstraite d'une phrase avant
de la traduire dans un autre langage. Cette capacité d'abstraction est un élément clé dans la
perspective de la création d'une intelligence artificielle généraliste. Interrogés, les deux chercheurs
ont estimé qu'ils pourraient progresser en intégrant les variantes de leurs techniques respectives.

La capacité d’abstraction que les chercheurs ont réussi à intégrer dans leur système d’apprentissage
automatique non supervisé est déterminante. © Anoyo, Fotolia 

Le machine learning non supervisé est un élément clé de l’IA


de demain
Les deux systèmes ont été comparés sur des tests de traductions anglais-français tirés d'une base
commune de 30 millions de phrases. Ils ont chacun obtenu un score de 15 dans un sens (anglais-
français) et dans l'autre (français-anglais). Sur le même exercice, Google Traduction obtient un
score de 40, mais le service utilise de l'apprentissage supervisé. Les traducteurs humains sont en tête
avec un score de 50. Si la méthode non supervisée est encore loin de ces niveaux de performance,
elle s'e révèle déjà meilleure que la traduction mot à mot.
De plus, les auteurs précisent que leurs IA pourraient progresser si l'on introduisait une part
d'apprentissage supervisé avec quelques milliers de phrases traduites en parallèle. Le système est
encore balbutiant mais il va assurément progresser. Et le simple fait qu'une machine soit capable
d'apprendre à traduire sans intervention humaine est déjà un immense progrès.
Ce qu'il faut retenir
• Actuellement, la traduction automatique la plus performante est le fruit d’un apprentissage
automatique supervisé.
• Deux équipes de chercheurs, indépendamment, ont développé des méthodes très proches
pour entraîner des IA de façon non supervisées qui sont capables de traduire des phrases
sans connaissances préalables de la langue.
https://www.futura-sciences.com/tech/actualites/technologie-intelligence-artificielle-7-innovations-
majeures-selon-joel-rosnay-68331/

Intelligence artificielle : les 7 innovations


majeures selon Joël de Rosnay
Nous avons demandé à Joël de Rosnay, parrain de Futura, docteur ès sciences, grand vulgarisateur
et fin observateur de l'évolution des connaissances, quels sont pour lui les exemples les plus
frappants de l'intelligence artificielle et des réseaux neuronaux.
Vous aimez nos Actualités ?
Inscrivez-vous à la lettre d'information La quotidienne pour recevoir nos toutes dernières Actualités
une fois par jour.
L'intelligence artificielle se répand dans à peu près tous les domaines. Joël de Rosnay, observateur
des sciences et de la technologie et depuis longtemps parrain de Futura, a repéré pour nous plusieurs
applications qui lui semblent exemplaires de cette évolution. Elles couvrent un large spectre, de la
musique à la médecine en passant par la zoologie. Nous avons complété chacune avec un lien vers
la source de l'information.
Biographie de Joël de Rosnay
1. Une intelligence artificielle, Magenta, compose de la musique d'assez bonne qualité chez
Google.
2. Grâce à Deep Mind, Google a réduit la consommation électrique de ses centres de données.
3. Intel lance une intelligence artificielle sur clé USB, Movidius, pour moins de 100 euros.
4. Parler avec les dauphins, bientôt possible grâce à l'intelligence artificielle ?
5. Une intelligence artificielle prédit le risque d'autisme chez les enfants de 6 mois.
6. Une intelligence artificielle auto-apprenante se révèle meilleure que les médecins pour
prédire des crises cardiaques.
7. Évaluer un livre par sa couverture : cela devient possible avec l'intelligence artificielle et les
réseaux neuronaux.

À suivre : la page Facebook de Joël de Rosnay. © DR 
Voir aussiLe carrefour du futur

Object 2

L'intelligence artificielle apprend et absorbe des milliards de


données
Ces applications montrent bien l'expansion tous azimuts de cette évolution technologique. Elle se
singularise sur deux points : l'auto-apprentissage et l'exploitation de quantités de données qui
peuvent être énormes, hors de portée de méthodes d'analyse classiques. Le premier point est illustré
dans l'utilisation de Deep Mind, l'intelligence artificielle de Google, qui s'est montrée capable, pour
chacun des centres de données de l'entreprise, d'étudier le bilan énergétique et de trouver le moyen
de réduire de 40 % la consommation électrique dédiée au refroidissement des serveurs (le service le
plus gourmand).
Le second point est assez bien décrit dans les prédictions d'IBM (voir notre article dans la liste ci-
dessous). L'une des pistes présentées est celle de l'utilisation, pour des applications variées, de
milliards d'informations venant de capteurs dispersés sur la planète, d'ordinateurs ou d'autres objets
connectés. Il faudra un instrument capable en quelque sorte d'avoir une vue large, que le
communiqué d'IBM appelle un « macroscope ». Le terme devrait plaire à Joël de Rosnay, lui qui l'a
forgé et en a fait le titre d'un livre célèbre présentant la systémique, ce principe qui permet de
décrire un système complexe (la vie terrestre, la société humaine...).
L'addition de ces deux capacités peut donner le vertige et a de quoi faire peur. Dans la liste de nos
articles, on pourra par exemple découvrir DeepText, l'IA de Facebook qui décrypte le sens de
milliers de posts à grande vitesse. Les applications médicales, dans le diagnostic ou le repérage
d'une épidémie sont sûrement mieux acceptées.

Des articles pour en savoir plus sur l'IA


Futura suit depuis longtemps le thème de l'intelligence artificielle et nos sélections recoupent les
choix de Joël de Rosnay. Retrouvez quelques-uns de nos articles d'actualité sur le sujet, illustrant
cette tendance lourde de l'informatique actuelle :
• Projet Magenta : Google veut créer une IArtiste
• Intel lance une intelligence artificielle sur clé USB pour moins de 100 euros
• Avec DeepText, Facebook veut lire et comprendre tout ce que vous écrivez
• DeepMind, l'IA de Google, déclare la guerre sur StarCraft II
• Intelligence artificielle : cette IA peut détecter les rêves
• Google veut humaniser l'intelligence artificielle
• IBM : les 5 innovations qui changeront nos vies dans les 5 prochaines années
• L'intelligence artificielle remplacera-t-elle les bruiteurs au cinéma ?
https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-ia-google-deepmind-lit-
levres-mieux-quun-humain-65325/

L'IA de Google DeepMind lit sur les lèvres


mieux qu'un humain
Nouvel exploit pour DeepMind, la filiale de Google, dont l'intelligence artificielle co-développée
avec l'université d'Oxford surpasse de très loin l'Homme quand il s'agit de lire sur les lèvres. Une
technologie qui pourrait aider les personnes malentendantes ou bien permettre de contrôler un
assistant virtuel comme Siri ou Cortana. Mais la question d'un usage à des fins de surveillance ou
d'espionnage est sur toutes les lèvres…
Inscrivez-vous à la lettre d'information La quotidienne pour recevoir nos toutes dernières Actualités
une fois par jour.

Une équipe composée de chercheurs de l'université d'Oxford et de DeepMind, la filiale de Google


spécialisée dans l'intelligence artificielle (IA), a mis au point une application de lecture sur les
lèvres présentée comme beaucoup plus performante que les humains. Ils ont entrainé leur réseau
neuronal à partir de 5.000 heures de programmes télévisés de la BBC (Newsnight, Question Time,
The World Today). L'échantillon contenait 118.000 phrases et 17.500 mots uniques.
Résultat, l'IA est parvenue à un taux de réussite de 46,8 %. Cela peut paraître faible, mais il faut
savoir que des professionnels à qui l'on a demandé d'annoter les mêmes séquences vidéo en lisant
sur les lèvres des personnages à l'écran n'ont atteint que 12,4 % de réussite. Il y a une quinzaine de
jours de cela, une autre équipe de l'université d'Oxford avait fait l'actualité en présentant un autre
programme de lecture sur les lèvres nommé LipNet qui affichait 93,4 % de réussite contre 52,3 %
pour les humains. Mais il y a une grande différence par rapport aux travaux menés par DeepMind.
En effet, LipNet a été testé sur un échantillon spécialement créé pour l'occasion totalisant seulement
51 mots uniques.

Pour entrainer son IA, l’équipe de l’université d’Oxford et de DeepMind a travaillé sur un
échantillon de vidéos issues de programmes télévisés de la BBC. © Oxford university, DeepMind 

L’IA de DeepMind est parvenue à gérer les homophones


Dans l'article scientifique consacré à cette innovation publié sur arXiv, l'équipe de l'université
d'Oxford/DeepMind explique que l'une des principales difficultés de la lecture sur les lèvres tient
aux homophones, des mots ayant un sens différent mais une même prononciation, comme par
exemple « mer », « maire » et « mère ». Le mouvement des lèvres pour prononcer ces trois mots est
identique, d'où la difficulté de saisir le sens exact.
Pour les spécialistes à l'origine de cette avancée, une intelligence artificielle capable de lire sur les
lèvres aurait de nombreuses applications potentielles : dicter un message ou commander l'assistant
virtuel d'un smartphone dans un environnement bruyant en parlant en face de la caméra frontale ;
doubler des films d'archives muets ; transcrire des dialogues impliquant plusieurs orateurs ;
améliorer les performances de la reconnaissance vocale.
Mais évidemment, on ne peut s'empêcher d'imaginer qu'une telle technologie pourrait aussi servir à
surveiller ou espionner. Certes, les microphones longue portée font déjà le bonheur des grandes
oreilles, mais un tel dispositif aurait l'avantage d'être totalement invisible et utilisable en toute
circonstance, pourvu qu'un flux vidéo soit accessible. De leur côté, les chercheurs assurent que l'IA
a besoin d'images de très bonne qualité pour lire correctement sur les lèvres et qu'elle ne pourrait
pas travailler à partir de vidéos de caméras de surveillance par exemple. Mais l’analyse
d’images par les intelligences artificielles est elle-même en progrès constant...
https://www.futura-sciences.com/tech/actualites/smartphone-google-parle-presque-comme-humain-
64282/

Quand Google parle presque comme un


humain
DeepMind, la filiale de Google spécialisée en intelligence artificielle, a développé un programme de
synthèse vocale qui reproduit la parole humaine avec un naturel inédit. Baptisé WaveNet, ce
système s'avère nettement plus performant que les technologies de synthèse vocale existantes.
Un jour, il est assez probable que vous puissiez converser au téléphone avec un robot sans même
vous en apercevoir. C'est ce que laisse entrevoir la dernière innovation de la firme britannique
DeepMind. Après avoir battu un champion du monde de jeu de Go grâce à son programme
d’intelligence artificielle (IA) AlphaGo, cette filiale de Google s'est attaquée à un autre domaine,
celui de la synthèse vocale.
WaveNet, sa nouvelle IA, est capable d'imiter la parole humaine avec une efficacité 50 % supérieure
aux technologies existantes. Le système fonctionne en apprenant à former les ondes sonores que
produit la voix humaine. Lors de tests à l'aveugle, des auditeurs ont classé WaveNet largement
devant les solutions de synthèse vocale par concaténation et par modélisation paramétrique qui sont
aujourd'hui les plus répandues.
La synthèse vocale par concaténation est celle utilisée par les assistants virtuels que l'on trouve sur
smartphones, les Siri, Cortana et autres Assistant Google. Leurs voix respectives proviennent de
l'enregistrement de séquences courtes d'une voix humaine qui sont combinées pour former des
phrases. Le résultat est assez naturel, mais le problème est que toute évolution du système nécessite
d'enregistrer de nouvelles séquences (écouter un exemple de synthèse vocale par concaténation créé
par Google).

Ces graphiques illustrent le résultat de 500 tests à l’aveugle menés par DeepMind pour évaluer la
performance de WaveNet. Était noté sur une échelle de 1 à 5 le niveau de réalisme des séquences
audio entendues en anglais et en mandarin. On constate que l’IA se classe juste après la parole
humaine et loin devant les autres systèmes de synthèse vocale existants. © DeepMind 

La synthèse vocale de Google écoute et imite


La synthèse vocale par modélisation paramétrique consiste à générer une voix artificielle par
ordinateur en se basant sur des règles de grammaire et de prononciation. L'avantage est qu'il n'y a
pas besoin d'une source humaine. Mais le résultat manque pour le moins de naturel, comme on peut
en juger dans cet autre extrait de Google.
Object 3

WaveNet se sert d'une voix humaine comme référence, mais au lieu de la sectionner pour composer
ses phrases, l'intelligence artificielle en extrait les ondes sonores dont elle se sert comme modèle
pour créer des voix différentes. En gros, cette IA écoute puis imite. Comme on peut l'entendre dans
cet extrait, WaveNet surclasse effectivement les autres méthodes de synthèse vocale. Et le système
ne se cantonne pas qu'à la voix puisqu'il peut aussi faire de la musique et sait par exemple jouer du
piano.
Toutefois, malgré l'apparente facilité qui se dégage de cette démonstration, il ne faut pas s'attendre à
la voir arriver de sitôt dans les smartphones, ordinateurs et autres robots. En effet, WaveNet
nécessite une puissance de calcul encore trop importante pour une machine individuelle. Mais on
peut faire confiance à Google pour trouver le moyen d'exploiter cette technologie dès que possible.

Smartphone
e smartphone ou « téléphone intelligent » désigne un téléphone mobile doté de fonctionnalités
évoluées qui s'apparentent à celles d'un ordinateur : navigation sur Internet, lecture de vidéos, de
musique, jeux vidéo, courrier électronique, vidéoconférence, bureautique légère...
Muni d'un processeur puissant, souvent multicœur, il embarque une série de capteurs (boussole,
accéléromètre, gyroscope, GPS) qui lui permettent de faire fonctionner des applications dédiées à
l'activité physique, de navigation assistée ainsi que des jeux que l'on peut contrôler d'un simple
mouvement. Les smartphones sont généralement dotés d'un appareil photo-vidéo et d'une caméra
frontale dont les performances ne cessent de progresser.

L’arrivée de l’iPhone d'Apple a tout changé


Le Simon d'IBM sorti en 1994 peut être considéré comme le premier smartphone. Les années 1990-
2000 voient la domination de plusieurs constructeurs historiques comme Nokia, Ericsson, LG,
Samsung ainsi que le canadien Research In Motion avec le BlackBerry et son clavier azerty/qwerty
miniature. À cette époque, les smartphones sont considérés et perçus comme des outils
professionnels.
L'année 2007 marque un tournant avec le lancement de l'iPhone par Apple. Équipé d'un écran tactile
multipoints et du système d'exploitation iOS avec ses applications téléchargeables sur un magasin
en ligne (App Store), il fait entrer le smartphone dans la sphère grand public.

Ventes de smartphones et Samsung


Interface tactile intuitive, usages ludiques et communication (messagerie instantanée type
WhatsApp, Snapchat plus réseaux sociaux tels Facebook, Instagram, Twitter...) ont rapidement
imposé le smartphone auprès d'un public toujours plus large.
En 2015, il s'est vendu 1,4 milliard de smartphones dans le monde (source : IDC). Samsung
occupait la tête des ventes suivi d'Apple et de plusieurs marques chinoises (Huawei, Lenovo,
Xiaomi).

Les phablettes montent en puissance


Les phablettes, ces smartphones à grand écran (entre 5 et 6,9 pouces de diagonale) occupent une
part de plus en plus importante sur le marché. Cette tendance s'accompagne également d'une
surenchère technologique avec l'introduction de lecteurs biométriques (empreintes digitales,
reconnaissance faciale), de systèmes de paiement sans contact, de capteurs photo-vidéo Ultra HD et
même de caméras 3D. 

https://www.futura-sciences.com/tech/actualites/internet-web09-square-transforme-telephones-
lecteurs-carte-bancaire-21779/

Web'09 : Square transforme les téléphones en


lecteurs de carte bancaire
Le cofondateur de Twitter, Jack Dorsey, a ouvert la sixième édition de la conférence LeWeb,
alias Web'09, en présentant un micro-terminal de paiement à brancher sur un téléphone
portable. A terme, peut-être une nouvelle façon d'échanger de l'argent…

Un mobile avec une prise jack, un petit cube gratuitement distribué et voilà un lecteur de
carte bancaire utilisable partout, même sur un marché ou dans une brocante. © Square 
Pour sa sixième édition, la conférence LeWeb, organisée par Loïc Le Meur et ouverte ce
mercredi 8 décembre, est consacrée au Real Time Web, le Web en temps réel. Logiquement,
l'invité d'honneur était Jack Dorsey, un des cofondateurs de Twitter. L'homme n'était pas
venu parler du site de microblogging mais de sa nouvelle société Square, qui veut
commercialiser un minuscule boîtier à connecter à un téléphone portable, pour l'instant un
iPhone.
Après l'installation d'un logiciel, cet appendice de quelques centimètres de côté, que l'on branche
sur la prise jack, devient un lecteur de carte bancaire. A la main, on la fait glisser dans un fente et
l'appareil lit ainsi la bande magnétique, mais pas la carte à puce.

Micro-paiement pour tous ?


Présenté comme une évolution majeure du commerce futur, ce gadget est destiné dans un premier
temps aux commerçants, qui pourront l'utiliser en tout lieu et pour remplacer les lourds et coûteux
terminaux actuels. Dix secondes suffisent pour effectuer la transaction (mais comme souvent en
informatique, la démonstration de Jack Dorsey au Web'09 s'est soldée par plusieurs plantages mais
tout a fini par fonctionner).
La société Square étudie des améliorations, comme la lecture de la puce ou celle du numéro de la
carte bancaire... à l'aide de l'appareil photo du téléphone. Au-delà du dispositif technique, l'idée est
celle d'un service complet de paiement, limité à des transactions de 60 dollars (à peu près 40 euros).
Le titulaire de la carte devra s'être inscrit chez Square et avoir envoyé sa photo, qui apparaîtra sur
l'écran du téléphone au moment de la transaction.
L'acheteur pourra aussi signer sur l'écran tactile. Au besoin, un reçu pourra être envoyé à l'acheteur
par courriel. Le lecteur lui-même serait gratuit pour le commerçant et, en plus de la dîme prélevée
par Square, une petite somme (de l'ordre du centime d'euro) serait reversée à une organisation
caritative.
Le système est actuellement en test aux Etats-Unis et vise le marché du-paiement par mobile,ou au
moyen d'un ordinateur portable. Il pourrait intéresser les petites entreprises mais aussi, affirme Jack
Dorsey, les particuliers.
https://www.futura-sciences.com/tech/comparatifs/meilleure-montre-connectee-comparatif/

Les 7 meilleures montres connectées 2020 -


montre connectée test & comparatif
De nombreuses personnes s'intéressent de près à la technologie actuelle et s'équipent d'une montre
connectée pour être à la mode ou pour bénéficier du meilleur produit présenté dans les portails de
consommateurs. Cependant, la majorité des utilisateurs ne connaissent pas en détail les différences
entre les modèles proposés sur le marché ou la spécificité des options de chaque produit. Parcourez
notre comparatif de tests relatifs aux montres connectées et choisissez le meilleur modèle qui
possède des fonctionnalités adaptées à vos besoins !

montre connectée liste des meilleurs produits 2020


https://www.futura-sciences.com/tech/actualites/technologie-pirater-mobile-mode-emploi-
ligne-20076/

Comment pirater un mobile : mode d'emploi


en ligne !
Deux experts exposent une méthode pour prendre le contrôle complet d'un iPhone grâce à
l'envoi d'une série de SMS. La méthode peut aussi être utilisée sur des téléphones utilisant
Windows Mobile et Android. La démonstration en public aura lieu aujourd'hui pendant le
salon Black Hat USA, réunion des spécialistes de la sécurité informatique.
e salon Black Hat, rendez-vous des experts qui cherchent à améliorer la sécurité
informatique... ou à en percer les défenses. 
Charlie Miller et Collin Mulliner sont sûrs de leur méthode et l'ont d'ailleurs déjà publiée en
ligne (au format PDF). « Si nous n'en parlons pas, quelqu'un l'utilisera discrètement » explique
le second à l'agence Reuters. Le procédé s'appuie sur le mode de gestion des SMS (Short
Message Service), qui servent à bien d'autres usages que l'envoi de textes. De nombreuses
applications, en effet, font transiter des données sous forme de SMS. C'est le cas par exemple
du Wap (Wireless Application Protocol) et des messages multimédia MMS (Multimedia
Messaging Service). La réception de ces messages peut même passer inaperçue de l'utilisateur
du téléphone.
Les SMS sont donc prévus pour transporter des codes binaires que les téléphones mobiles savent
extraire. Ils peuvent même agréger une série de codes installés dans une succession de SMS. C'est
cette propriété qu'utilisent Miller et Mulliner. Leur technique consiste à expédier plusieurs centaines
de messages dépassant 140 caractères. Seul le premier sera visible et pourra afficher un message
anodin, tandis que les suivants seront seulement engrangés dans le mobile. Chaque SMS contient un
petit morceau de code binaire et, à la fin de l'envoi, le mobile les assemblera tous pour obtenir un
petit programme, immédiatement exécuté.

La seule méthode pour éviter le piratage : éteindre le


téléphone...
Voilà le principe de cette technique, expérimentée avec succès, selon les deux auteurs, sur des
iPhone dont le système d'exploitation est en versions 2.1 et 2.2, alors que les modèles actuels
utilisent la 3.0.
Le programme ainsi transféré dans l'iPhone peut bloquer complètement le téléphone ou empêcher
tout appel, ce qui a été démontré, mais aussi, affirment les auteurs, effectuer n'importe quelle
opération, comme scruter le carnet d'adresses ou effectuer des appels.
Une seule parade serait possible : éteindre puis rallumer le mobile, ce qui efface le code temporaire
du programme injecté. Mais une nouvelle attaque l'installerait de nouveau...
La méthode sera démontrée publiquement aujourd'hui, lors du fameux salon Black Hat USA, où les
experts en sécurité informatique viennent discuter et présenter leurs exploits. Ce genre de show est
d'ailleurs une spécialité de ce salon. Au printemps, d'autres spécialistes, italiens cette fois, avaient
eux aussi montré comment prendre le contrôle d'un mobile lors de l'édition de Black Hat à
Amsterdam.
En 2007, Charles Miller, encore lui, avait présenté au Black Hat USA une méthode pour prendre à
distance le contrôle d'un iPhone, avec un système d'exploitation en version 1.0.1. A l'époque, Apple
avait réagi assez vite, ce qui n'a pas encore été fait après la découverte de cette nouvelle faille.

https://www.futura-
sciences.com/tech/actualites/internet-mobiles-
technique-piratage-imaginee-experts-securite-
18991/
Mobiles : une technique de piratage imaginée
par des experts en sécurité
En utilisant les procédures de configuration à distance, utilisables par les opérateurs, il est
possible de prendre le contrôle d'un téléphone mobile et de récupérer toutes les informations
transmises, comme un code confidentiel ou un numéro de carte bancaire. C'est ce
qu'affirment trois experts en sécurité, qui expliquent la méthode.
Un mobile multimédia : un petit ordinateur à tout faire qui peut donner des idées à certains.
© Johnmuk / Flickr - Licence Creative Common (by-nc-sa 2.0) 
Devenus de véritables ordinateur et utilisés aussi pour transmettre des données ou pour des
transactions financières, les téléphones mobiles sont des proies potentielles pour les escrocs
branchés. Plusieurs méthodes ont été mises au point... par des experts en sécurité. Pour
l'instant, il ne semble pas que les virus, vers et autres espèces invasives du vivier informatique
aient significativement envahi le territoire de la téléphonie mobile.
Mais les experts poursuivent leur quête. Trois d'entre eux viennent de présenter un concept original
à la conférence Black Hat Europe, qui vient de se tenir à Amsterdam. Roberto Gassira, Cristofaro
Mune et Roberto Piccirillo, de l'entreprise italienne Mobile Security Lab, ont cherché comment
exploiter une porte presque dérobée ouvrant sur le logiciel système d'un téléphone mobile. Via un
fichier texte, un opérateur peut en effet modifier des paramèt

L'utilisateur doit donner son consentement


Envoyé par un pirate, un tel fichier pourrait installer quelques modules logiciels maison. Les trois
conférenciers ont démontré qu'il est ainsi possible de rerouter les données émises par le mobile vers
un serveur autre que celui de l'opérateur. Plusieurs applications sont alors envisageables. Cette porte
ouverte pourrait devenir un bon canal pour des publicités intempestives qui s'afficheraient dans des
fenêtres superposées à celle du site visité par l'utilisateur du téléphone.
Le logiciel malveillant pourrait aussi enregistrer les signes tapés au clavier lors d'une transaction et
récupérer ainsi les codes confidentiels ou même un numéro de carte bancaire.
La fraude reste tout de même difficile car cette fameuse porte est maintenue fermée. Pour
l'emprunter, l'opérateur doit demander à l'utilisateur d'indiquer le code PIN de l'appareil pour
autoriser la configuration. Les trois Italiens n'y voient cependant pas un obstacle insurmontable. Un
message truqué reprenant le logo de l'opérateur et parlant de « mise à jour du système » pourrait
tromper plus d'un utilisateur.
Voilà donc une possibilité supplémentaire de piratage qui attend encore les indélicats susceptibles
de l'exploiter.
John McCarthy, pionnier de l’intelligence
artificielle, disparaît
L'inventeur du Lisp, John MacCarthy, considéré comme le père de l'IA, vient de décéder
aujourd'hui à 84 ans. Ses travaux novateurs ont commencé dans les années 1950 et sont
toujours poursuivis aujourd'hui.

John McCarthy, pionnier de l'intelligence artificielle, a pris sa retraite en 2001. © Stanford


University 
Après Steve Jobs, qu'on ne présente plus, et Dennis Ritchie, créateur du langage C et d'Unix,
l'informatique vient de perdre un autre de ses pionniers : John McCarthy, considéré comme l'un des
pères fondateurs de l'intelligence artificielle, au côté de Marvin Minsky, et perçu à la hauteur d'un
John von Neumann ou d'un Alan Turing. C'est ce sujet de travail, explicitement nommé « artificial
intelligence », qu'il propose au collège Dartmouth en 1955 avec une équipe de dix personnes. Il est
ensuite l'un des créateurs au MIT (Massachusetts Institue of Technology) du premier laboratoire
portant ce nom.
Pour l'auteur, en 1960, d'un article intitulé Des programmes dotés du sens commun (Programs with
common sense), il est possible de formaliser le raisonnement sous forme d'un programme
d'instructions que peut exécuter un ordinateur. À l'époque, on écrit des programmes en langage
machine (les instructions connues du processeur) ou bien en Fortran, un langage de programmation
adapté aux calculs arithmétiques (Fortran signifie Formula translator, traducteur de formules).
Alors, en 1958, il invente un nouveau langage, Lisp, pour List Processing... encore connu
aujourd'hui.

John McCarthy aux prises avec des ordinateurs joueurs d'échecs russes, en 1966. Les travaux de cet
Américain, qui a étudié les notions d'arbres des cas possibles et de leur élagage (c'est le terme)
ont beaucoup contribué à l'efficacité des logiciels capables de jouer à ce jeu. © Chuck
Paintner/ Stanford University 

Les ordinateurs d’après-demain lui doivent déjà beaucoup


Au début des années 1970, les travaux en informatique théorique concernant l'intelligence
artificielle s'appuient presque tous sur le Lisp.  En France, l'Inria (Institut national en informatique
et en automatique) en développera une variante, LeLisp. Depuis, et aujourd'hui encore, des versions
évoluées de cet ancêtre sont toujours utilisées.
Entré à l'université Stanford en 1962, il y restera jusqu'à sa retraite en 2001 et multipliera les
contributions à l'informatique théorique, par exemple le premier système muni d'une caméra et
capable de repérer des objets en trois dimensions. En 1971, il obtient le prix Turing (A. M. Turing
Award), que beaucoup considèrent comme l'équivalent d'un prix Nobel d'informatique, lequel
n'existe pas. Leslie Vailiant l'a reçu en 2011 pour avoir conçu le logiciel de l'ordinateur Watson,
vainqueur du jeu télévisé Jeopardy. En 2007, il a récompensé le Français Joseph Sifakis pour ses
travaux sur la vérification des systèmes informatiques, côté logiciel et côté matériel.
John McCarthy reçoit en 1988 le prix de Kyoto (récompense de travaux importants dans différents
domaines) en sciences de l'information, puis, en 1990 aux États-Unis, la médaille des sciences (plus
haute récompense du pays pour un scientifique).
Indécrottable optimiste qui pensait que les voyages interstellaires sont possibles moyennant
« quelques améliorations aux technologies actuelles », il laisse une voie de recherche ouverte sur
les ordinateurs de demain et même d'après-demain...

En plein essor, l'intelligence artificielle (IA) fait beaucoup parler d'elle. Pour certains, elle est
inquiétante et pour d'autres, elle ouvre la voie à de nombreuses applications positives. Mais qui sont
les pionniers de l'IA ?
Vous aimez nos Questions/Réponses ?
Inscrivez-vous à la lettre d'information Le weekend pour recevoir nos meilleures publications les
samedis et dimanches.
Object 4

Interview : comment est née l'intelligence artificielle ?  L’intelligence artificielle vise à mimer le
fonctionnement du cerveau humain, ou du moins sa logique lorsqu’il s’agit de prendre des
décisions. Jean-Claude Heudin, directeur du laboratoire de recherche de l’IIM (Institut de l’Internet
et du multimédia), nous explique l'origine de ces recherches. 
Crée par John McCarthy, le terme « intelligence artificielle » (artificial intelligence ou AI, en
anglais) caractérise l'élaboration de programmes informatiques capables de prendre en charge des
tâches habituellement effectuées par des humains car demandant un apprentissage, une organisation
de la mémoire et un raisonnement. L'objectif est de parvenir à transmettre à une machine des
fonctions propres au vivant : rationalité, raisonnement, mémoire et perception.
Voir aussiIntelligence artificielle : les 7 innovations majeures selon Joël de Rosnay
L'un de ses créateurs, Marvin Lee Minsky, définit l'intelligence artificielle de la façon suivante : «
la construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant,
accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus
mentaux de haut niveau tels que  : l'apprentissage perceptuel, l'organisation de la mémoire et le
raisonnement critique ».
On évoque le côté artificiel car il est obtenu au moyen d'un robot ou d'une machine. On emploie le
terme « intelligence » car l'objectif est de se rapprocher du comportement humain.

John McCarthy (ici en 2006), l'un des pères fondateurs de l'intelligence artificielle. © GeeJo,
Wikipédia, cc by sa 2.0 

John McCarthy, l'un des pères de l'intelligence artificielle


John McCarthy est né le 4 septembre 1927, à Boston, et décédé le 24 octobre 2011. Il est l'un des
deux pionniers de l'intelligence artificielle. Il incarne le courant mettant l'accent sur la logique
symbolique.
Object 5

Marvin Lee Minsky, un des pionniers de l'intelligence


artificielle
Quant à Marvin Lee Minsky, il est né juste avant, le 9 août 1927 et décédé le 24 janvier 2016. Il est
le cofondateur, avec John McCarthy du Groupe d'intelligence artificielle du Massachusetts Institute
of Technology (MIT). Il travaille dans le domaine des sciences cognitives et de l'intelligence
artificielle. 
Intéressé par ce que vous venez de lire ?
Abonnez-vous à la lettre d'information La question de la semaine : notre réponse à une question
que vous vous posez, forcément.
Toutes les lettres d’information Futura

---------------
A l'occasion de la Semaine du cerveau, Futura-Sciences en partenariat avec les éditions De Boeck,
vous a proposé de vous tester à travers un quiz sur cet organe qui centralise et coordonne la plupart
de nos activités Pour en savoir plus, vous pouvez aussi découvrir la collection De Boeck dédiée aux
neurosciences (deux principaux ouvrages : Introduction aux neurosciences comportementales,
cognitives et cliniques et Neurosciences).
Vous avez aimé cet article ? N'hésitez pas à le partager avec vos ami(e)s et aidez-nous à faire
connaître Futura :) ! La Rédaction vous remercie.
• Facebook
• Twitter
• Linkedin
• Pinterest
À voir aussi : 
• intelligence artificielle |
• ia intelligence artificielle |
• vie artificielle |
• feuille artificielle |
• bronche artificielle |
• tpe intelligence artificielle |
• cerveau intelligence |
• radioactivite artificielle |
• pluie artificielle |
• nacre artificielle

https://www.lemagit.fr/definition/AI

L'intelligence artificielle ou IA (Artificial Intelligence -AI- en anglais) vise à permettre à des


machines, et plus particulièrement à des systèmes informatiques, de simuler les processus cognitifs
humains.

Intelligence artificielle (IA, AI)


Ces processus comprennent l'apprentissage (acquisition d'informations et de règles liées à leur
utilisation), le raisonnement (application des règles pour parvenir à des conclusions approximatives
ou précises) et l'autocorrection. Les applications spécifiques de l'IA sont notamment les systèmes
experts, la reconnaissance vocale et la vision artificielle.
On doit la première occurrence du terme d'IA à John McCarthy, chercheur américain en
informatique, à la Dartmouth Conference de 1956 qui vit naître la discipline. Aujourd'hui, le terme
recouvre aussi bien l'automatisation robotisée des processus (Robotic Process Automation, RPA)
que la robotique proprement dite. Il a récemment gagné en visibilité en partie à cause des Big Data,
c'est-à-dire de la vitesse, du volume et de la diversité des données collectées par les entreprises. Plus
apte que l'homme à faire ressortir des tendances des données, l'IA permet aux entreprises d'exploiter
un maximum d'informations.

Types d'intelligence artificielle


Il y a plusieurs façons de classer les systèmes d'IA. En voici deux exemples.
Le premier est que l'intelligence artificielle peut être considérée comme faible ou forte.
L'IA faible est un système d'intelligence artificielle conçu pour reproduire une tâche précise à
laquelle il est formé. Les assistants personnels virtuels comme Siri d'Apple en sont une forme.L'IA
forte, dite aussi intelligence artificielle générale, est un système doté de capacités cognitives
humaines générales qui, lorsqu'on lui présente une tâche inhabituelle, est assez intelligent pour
trouver une solution. Bien que controversé, le test de Turing, élaboré par le mathématicien du même
nom en 1950, est une méthode qui sert à déterminer si un ordinateur pense comme un humain.

This is a modal window.


This video is either unavailable or not supported in this
browser
Error Code: MEDIA_ERR_SRC_NOT_SUPPORTED
Session ID: 2020-03-23:bdf77a38f055a294550a6411 Player Element ID: singlePlayer

Alec Ross à propos de l'IA et de la robotisation


Le deuxième exemple nous vient d'Arend Hintze, professeur en biologie intégrative et ingénierie
informatique à la Michigan State University. Il classe l'IA en quatre types allant de celui des
systèmes actuels aux systèmes sensibles à venir. Ses catégories sont :
• Type 1 : machines réactives. Chacun se souvient de Deep Blue, le programme d'IBM qui a
battu Garry Kasparov aux échecs dans les années 1990. Deep Blue identifie les pièces sur
l'échiquier et émet des prédictions, mais il n'a aucune mémoire et n'utilise pas ses
expériences passées pour formuler les prédictions futures. Il analyse les coups possibles, les
siens et ceux de son adversaire, et choisit le plus stratégique. Deep Blue et AlphaGO de
Google ont été conçus à des fins précises : ils ne sont pas facilement transposables à une
autre situation.
• Type 2 : machines à mémoire restreinte. Ces systèmes d'IA s'appuient sur leurs
expériences passées pour prendre les décisions suivantes. Certaines fonctions décisionnelles
des véhicules autonomes suivent ce modèle. Les observations servent à contextualiser les
actions du futur proche, par exemple une voiture qui change de file. Ces observations ne
sont pas stockées de manière permanente.
• Type 3 : théorie de l'esprit. Il s'agit d'un concept de psychologie qui se rapporte à la
compréhension des gens en tant qu'êtres ayant des pensées, désirs et raisons propres qui les
poussent à prendre leurs décisions. Ce type d'IA n'existe pas encore.
• Type 4 : conscience de soi. Dans cette catégorie, les systèmes d'IA ont une identité, une
conscience. Ces machines douées de conscience connaissent leur état actuel et utilisent ces
informations pour inférer ce que les autres ressentent. Ce type d'IA n'existe pas encore.
Quelle est la difference entre l’IA et l’informatique cognitive ?

Exemples de technologie d'IA


• L'automatisation est le processus qui consiste à faire fonctionner automatiquement un
système ou un processus. On peut par exemple programmer une automatisation robotisée
des processus (RPA) pour exécuter des tâches volumineuses et répétitives habituellement
réalisées par des personnes. A la différence de l'automatisation informatique, la RPA s'adapte
aux changements. 
• L'apprentissage automatique met en œuvre les techniques qui permettent à un ordinateur
d'agir sans programmation préalable. L'apprentissage profond est un sous-ensemble de
l'apprentissage automatique qui, en termes simples, peut s'envisager comme l'automatisation
de l'analyse prédictive. Il existe trois types d'algorithmes d'apprentissage automatique :
l'apprentissage supervisé, dans lequel les ensembles de données sont annotés de manière à
faciliter la détection de modèles, utilisés à leur tour pour étiqueter de nouveaux ensembles
de données ; l'apprentissage non supervisé, dans lequel les ensembles de données ne sont pas
annotés et sont triés selon leurs ressemblances ou leurs différences ; et l'apprentissage par
renforcement, dans lequel les ensembles de données ne sont pas étiquetés, mais où, après
une ou plusieurs actions, le système d'IA reçoit un retour.
• La vision artificielle permet aux ordinateurs d'analyser, de traiter et de comprendre une ou
plusieurs images. Elle capture et analyse des informations visuelles à l'aide d'une caméra, de
la conversion du signal analogique en numérique et du traitement des signaux numériques.
Souvent comparée à celle de l'oeil, la vision artificielle n'est pas contrainte par la biologie :
on peut par exemple la programmer pour voir au travers des murs. Elle sert dans de
nombreuses applications, de l'identification des signatures à l'analyse d'imagerie médicale.
La vision par ordinateur, dédiée au traitement informatique de l'image est souvent assimilée
à la vision artificielle.
• Le traitement automatique des langues (TAL ou NLP pour « natural language processing »)
concerne l'application de programmes informatiques au langage humain. Un des meilleurs et
des plus anciens exemples de TAL est la détection des courriers indésirables qui analyse
l'objet et le corps d'un e-mail pour le classer ou non en indésirable. Les approches actuelles
du TAL s'appuient sur l'apprentissage automatique. Les tâches du TAL incluent la traduction
de textes, l'analyse des opinions et la reconnaissance vocale.
• La reconnaissance de modèles est une branche de l'apprentissage automatique qui consiste à
repérer des schémas dans les données. Le terme est de nos jours daté.
• La robotique est le domaine de l'ingénierie consacré à la conception et à la fabrication de
robots. Ces robots servent souvent à exécuter des tâches que les humains ont du mal à
réaliser ou à réaliser à la pareille. On en trouve sur les chaînes de montage de l'industrie
automobile ou à la NASA, pour déplacer de gros objets dans l'espace. Depuis peu, les
chercheurs utilisent l'apprentissage automatique pour construire des robots capables
d'interactions sociales.
• Véhicules autonomes : ceux-ci utilisent une combinaison de vision assistée par ordinateur,
de reconnaissance d’image et d’apprentissage profond, afin d’acquérir des aptitudes
automatiques de pilotage d’un véhicule tout en restant sur une voie donnée et en évitant des
obstacles sur son passage tels que des piétons.

Applications de l'IA
• L'IA dans la santé. Les perspectives les plus intéressantes concernent l'amélioration de la
prise en charge des patients et la réduction des coûts. Des sociétés utilisent l'apprentissage
automatique pour accélérer et affiner les diagnostics. IBM Watson est l'une des technologies
les plus connues dans le domaine de la santé. Capable de comprendre le langage naturel, le
système répond aux questions qu'on lui pose. Il analyse les données des patients, ainsi que
d'autres sources de données, pour formuler une hypothèse qu'il présente avec un score de
fiabilité. Les autres applications de l'IA comprennent d’une part les chatbots, ces logiciels
utilisés sur Internet pour répondre aux questions des patients, les aider à prendre des rendez-
vous de suivi ou les guider dans le processus de facturation, et d’autre part les auxiliaires
médicaux virtuels qui donnent des avis médicaux élémentaires.
• L'IA dans l'entreprise. L'automatisation robotisée des processus s'applique aux tâches
extrêmement répétitives habituellement réalisées par des personnes. On intègre actuellement
des algorithmes d'apprentissage automatique dans les plateformes d'analyse et de CRM pour
dénicher des informations qui serviront à mieux servir les clients. Les chatbots désormais
intégrés aux sites Web apportent une aide immédiate aux clients. L'automatisation de
certains emplois est en discussion dans les cercles universitaires et les sociétés de conseil en
informatique comme Gartner et Forrester.
• L'IA dans l'enseignement. L'IA peut automatiser la notation et faire gagner du temps aux
enseignants. Elle peut évaluer les élèves et étudiants et s'adapter à leurs besoins pour qu'ils
travaillent à leur propre rythme. Des mentors artificiels peuvent apporter une aide
supplémentaire aux étudiants pour qu'ils gardent le cap. L'IA est susceptible de changer les
lieux et les modes d'apprentissage des étudiants, elle pourrait même remplacer certains
enseignants.
• L'IA dans la finance. L'IA appliquée à la gestion de comptes personnels comme dans les
logiciels Mint ou Turbo Tax bouscule le secteur financier. De telles applications pourraient
collecter des données personnelles et fournir des conseils financiers. D'autre programmes,
notamment IBM Watson, s'appliquent à l'achat immobilier. De nos jours, les échanges à Wall
Street sont pour la plupart informatisés.
• L'IA appliquée au droit. La procédure juridique américaine de demande de pièces dites de
discovery, qui implique de passer au crible des documents, peut se révéler écrasante pour les
personnes. Son automatisation fait meilleur usage du temps et s'avère plus efficace. Des
start-ups élaborent aussi des assistants informatiques de questions-réponses capables
d'examiner les questions auxquelles ils sont censés répondre en étudiant la taxonomie et
l'ontologie associées à une base de données.
• L'IA dans l'industrie. Ce secteur est à la pointe de l'intégration des robots aux chaînes de
travail. Les robots industriels servaient à réaliser des tâches simples, à l'écart des ouvriers,
mais les avancées technologiques ont changé la donne.

Comment l’IA affecte les opérations marketing


Cette définition a été mise à jour en mai 2016
https://www.futura-sciences.com/tech/definitions/informatique-intelligence-artificielle-555/

Interview : comment est née l'intelligence artificielle ?  L’intelligence artificielle vise à mimer le
fonctionnement du cerveau humain, ou du moins sa logique lorsqu’il s’agit de prendre des
décisions. Jean-Claude Heudin, directeur du laboratoire de recherche de l’IIM (Institut de l’Internet
et du multimédia), nous explique l'origine de ces recherches. 
L'intelligence artificielle (IA, ou AI en anglais pour Artificial Intelligence) consiste à mettre en
œuvre un certain nombre de techniques visant à permettre aux machines d'imiter une forme
d'intelligence réelle. L'IA se retrouve implémentée dans un nombre grandissant de domaines
d'application.

La notion voit le jour dans les années 1950 grâce au mathématicien Alan Turing. Dans son
livre Computing Machinery and Intelligence, ce dernier soulève la question d'apporter aux
machines une forme d'intelligence. Il décrit alors un test aujourd'hui connu sous le nom « Test de
Turing » dans lequel un sujet interagit à l'aveugle avec un autre humain, puis avec une machine
programmée pour formuler des réponses sensées. Si le sujet n'est pas capable de faire la différence,
alors la machine a réussi le test et, selon l'auteur, peut véritablement être considérée comme «
intelligente ».

De Google à Microsoft en passant par Apple, IBM ou Facebook, toutes les grandes entreprises dans
le monde de l'informatique planchent aujourd'hui sur les problématiques de l'intelligence artificielle
en tentant de l'appliquer à quelques domaines précis. Chacun a ainsi mis en place des réseaux de
neurones artificiels constitués de serveurs et permettant de traiter de lourds calculs au sein de
gigantesques bases de données.

L’intelligence artificielle au service des humains. ©Blurredculture.com 

L'IA, quelques exemples d’usage


La vision artificielle, par exemple, permet à la machine de déterminer précisément le contenu d'une
image pour ensuite la classer automatiquement selon l'objet, la couleur ou le visage repéré.

Les algorithmes sont en mesure d'optimiser leurs calculs au fur et à mesure qu'ils effectuent des
traitements. C'est ainsi que les filtres antispam deviennent de plus en plus efficaces au fur et à
mesure que l'utilisateur identifie un message indésirable ou au contraire traite les faux-positifs.
La reconnaissance vocale a le vent en poupe avec des assistants virtuels capables de transcrire les
propos formulés en langage naturel puis de traiter les requêtes soit en répondant directement via une
synthèse vocale, soit avec une traduction instantanée ou encore en effectuant une requête relative à
la commande.

Object 6

L'intelligence artificielle, un potentiel infini


Au fur et à mesure de l'évolution de ces travaux, l'intelligence artificielle passe du simple chabot
générique à un système de gestion de fonds automatique en finance, une aide au diagnostic en
médecine, une évaluation des risques dans le domaine des prêts bancaires ou des assurances ou
encore un allié décisionnel sur le terrain militaire.

Alors qu'en 2015 le marché de l'intelligence artificielle pesait 200 millions de dollars, on estime
qu'en 2025, il s'élèvera à près de 90 milliards de dollars.
 
Intéressé par ce que vous venez de lire ?
Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour.
Toutes les lettres d’information Futura

Envie d'une réduction sur votre prochain ordinateur ? Profitez d'une promotion ou code promo
Razer !

https://fr.wikipedia.org/wiki/Intelligence_artificielle
Intelligence artificielle

Les assistants personnels intelligents sont l'une des applications concrètes de l'intelligence
artificielle dans les années 2010.

L'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en
vue de réaliser des machines capables de simuler l'intelligence »1. Elle correspond donc à un
ensemble de concepts et de technologies plus qu'à une discipline autonome constituée2. D'autres,
remarquant la définition peu précise de l'IA, notamment la CNIL, introduisent ce sujet comme « le
grand mythe de notre temps »3.
Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie
computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (partie des
mathématiques et de la philosophie) et à l'informatique. Elle recherche des méthodes de résolution
de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le
langage courant, les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de ses
fonctions cognitives4.
Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations,
fantasmes ou inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les
essais philosophiques5. La réalité semble encore tenir l'intelligence artificielle loin des
performances du vivant ; ainsi, l'IA reste encore bien inférieure au chat dans toutes ses aptitudes
naturelles6.

Sommaire
• 1 Définition
• 2 Historique
• 2.1 Création et développement
• 2.2 Précurseurs
• 2.2.1 Automates
• 2.2.2 Pensée automatique
• 2.3 Faits marquants depuis les années 2000
• 2.4 En France
• 3 Intelligence artificielle forte
• 3.1 Définition
• 3.2 Estimation de faisabilité
• 3.3 Diversité des opinions
• 3.4 Travaux complémentaires
• 4 Intelligence artificielle faible
• 4.1 Distinction entre intelligence artificielle, machine learning et deep learning
• 4.2 Estimation de faisabilité
• 5 Test de Turing
• 6 Personnalités de l'intelligence artificielle
• 6.1 Prix Turing
• 6.2 Autres personnalités
• 7 Courants de pensée
• 7.1 Cognitivisme
• 7.2 Connexionnisme
• 7.3 Synthèse
• 8 Différentes facettes
• 9 Conception de systèmes
• 10 Domaines d’application
• 10.1 Finance et banques
• 10.2 Militaire
• 10.3 Médecine
• 10.4 Renseignement policier
• 10.5 Droit
• 10.6 Logistique et transports
• 10.7 Robotique
• 10.8 Jeux vidéo
• 10.9 Art
• 10.10 Autres domaines
• 11 Règlementation
• 12 Questionnements
• 12.1 Espoirs et enthousiasme
• 12.2 Critiques et inquiétudes
• 12.3 Critique de la technique et de la technologie
• 12.4 Questionnements éthiques
• 13 L'intelligence artificielle et la fin du travail ?
• 13.1 L'intelligence artificielle et le travail numérique
• 14 Perspectives et projections dans le futur
• 15 Dans la science-fiction
• 15.1 Quelques IA célèbres dans la science-fiction
• 16 L'intelligence artificielle et les jeux
• 16.1 Othello
• 16.2 Échecs
• 16.3 Go
• 16.4 Bridge
• 16.5 Jeopardy!
• 16.6 Poker
• 16.7 Quake III
• 16.8 Starcraft II
• 17 Notes et références
• 17.1 Notes
• 17.2 Références
• 18 Annexes
• 18.1 Bibliographie
• 18.2 Articles connexes
• 18.3 Liens externes

Définition
Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA »
(ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee
Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui
sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles
demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel,
l’organisation de la mémoire et le raisonnement critique »a,7. On y trouve donc le côté « artificiel »
atteint par l'usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence »
associé à son but d'imiter le comportement. Cette imitation peut se faire dans le raisonnement, par
exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues
naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive
(compréhension du langage parlé) ou par d'autres capteurs, dans la commande d'un robot dans un
milieu inconnu ou hostile.
Même si elles respectent globalement la définition de Minsky, certaines définitions de l'IA varient
sur deux points fondamentaux8 :
• les définitions qui lient l'IA à un aspect humain de l'intelligence, et celles qui la lient à un
modèle idéal d'intelligence, non forcément humaine, nommée rationalité ;
• les définitions qui insistent sur le fait que l'IA a pour but d'avoir toutes les apparences de
l'intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le
fonctionnement interne du système d'IA doit ressembler également à celui de l'être humain et
être au moins aussi rationnel.

Historique
Création et développement
Article détaillé : Histoire de l'intelligence artificielle.

Cette section ne cite pas suffisamment ses sources (mai 2019). 


Historiquement, l'idée d'intelligence artificielle semble émerger dans les années 1950 quand Alan
Turing se demande si une machine peut « penser ». Dans un article « Computing Machinery and
Intelligence » (Mind, )9 Turing explore ce problème et propose une expérience (maintenant dite test
de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ». Il développe
ensuite cette idée dans plusieurs forums, dans la conférence « L'intelligence de la machine, une idée
hérétique »10, dans la conférence qu'il donne à la BBC e programme le « Les calculateurs
numériques peuvent-ils penser ? »11 ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson
et R.B. Braithwaite les 14 et sur le thème « Les ordinateurs peuvent-ils penser ? »12.
Une autre origine probable est la publication, en 1949, par Warren Weaver d'un mémorandum sur la
traduction automatique des langues13 qui suggère qu'une machine puisse faire une tâche qui relève
typiquement de l'intelligence humaine.
Le développement des technologies informatiques (puissance de calcul) aboutit ensuite à plusieurs
avancées :
• dans les années 1980, l'apprentissage automatique (« Machine Learning ») se développe.
L'ordinateur commence à déduire des « règles à suivre » rien qu'en analysant des données ;
• parallèlement, des algorithmes « apprenants » sont créés qui préfigurent les futurs réseaux de
neurones, l'apprentissage par renforcement, les machines à vecteurs de support, etc.). Ceci
permet par exemple en mai 1997 à l’ordinateur Deep Blue de battre Garry Kasparov au jeu
d'échecs ;
• l'intelligence artificielle devient un domaine de recherche international, marquée par une
conférence au Dartmouth College à l’été 195614 à laquelle assistaient ceux qui vont
marquer la discipline ;
• depuis les années 1980, la recherche se fait principalement aux États-Unis, notamment à
l'université Stanford sous l'impulsion de John McCarthy, au MIT sous celle de Marvin
Minsky, à l'université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon et à
l'université d'Édimbourg sous celle de Donald Michie, en Europe et en Chine. En France,
l'un des pionniers est Jacques Pitrat ;
• dans les années 2000, le Web 2.0, le big data et de nouvelles puissances et infrastructures de
calcul, permettent à certains ordinateurs d'explorer des masses de données sans précédent ;
c'est l'apprentissage profond (« deep learning »).
Les bornes de ce domaine varient, ainsi optimiser un itinéraire était considéré comme un problème
d'intelligence artificielle dans les années 1950, et n'est plus considéré aujourd’hui que comme un
simple problème d'algorithme15.
Vers 2015, le secteur de l'intelligence artificielle cherche à relever trois défis : la perception de
l'environnement, la compréhension d’une situation et la prise de décision par une IA16. Produire et
organiser des données massives et de qualité, c'est-à-dire corrélées, complètes, qualifiées (sourcées,
datées, géoréférencées...), historisées est un autre enjeu. Et la capacité déductive et de généralisation
pertinente d'un ordinateur, à partir de peu de données ou d'un faible nombre d'évènements, est un
autre objectif, plus lointain16.
Entre 2010 et 2017, les investissements auraient été décuplés, dépassant de 5 milliards d’euros en
201717.

Précurseurs
Si les progrès de l’intelligence artificielle sont récents, ce thème de réflexion est tout à fait ancien,
et il apparaît régulièrement au cours de l’histoire. Les premiers signes d’intérêt pour une
intelligence artificielle et les principaux précurseurs de cette discipline sont les suivants.
Automates
Article connexe : Automate.
Une des plus anciennes traces du thème de « l’homme dans la machine » date de 800 avant notre
ère, en Égypte. La statue du dieu Amon levait le bras pour désigner le nouveau pharaon parmi les
prétendants qui défilaient devant lui, puis elle « prononçait » un discours de consécration. Les
Égyptiens étaient probablement conscients de la présence d’un prêtre actionnant un mécanisme et
déclarant les paroles sacrées derrière la statue, mais cela ne semblait pas être pour eux
contradictoire avec l’incarnation de la divinité. Vers la même époque, Homère, dans L'Iliade
(XVIII, 370–421), décrit les automates réalisés par le dieu forgeron Héphaïstos : des trépieds munis
de roues en or, capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans la demeure
du dieu ; ou encore, deux servantes forgées en or qui l’assistent dans sa tâche. De même, le Géant
de bronze Talos, gardien des rivages de la Crète, était parfois considéré comme une œuvre du dieu.
Vitruve, architecte romain, décrit l’existence entre le IIIe et le Ier siècle avant notre ère, d’une école
d’ingénieurs fondée par Ctesibius à Alexandrie, et concevant des mécanismes destinés à
l’amusement tels des corbeaux qui chantaient. Héron L'Ancien décrit dans son traité « Automates »,
un carrousel animé grâce à la vapeur et considéré comme anticipant les machines à vapeur. Les
automates disparaissent ensuite jusqu’à la fin du Moyen Âge. On a prêté à Roger Bacon la
conception d'automates doués de la parole; en fait, probablement de mécanismes simulant la
prononciation de certains mots simples.
Léonard de Vinci a construit en 1515 un automate en forme de lion pour amuser le roi de France,
François I18. Gio Battista Aleotti et Salomon de Caus, eux, ont construit des oiseaux artificiels et
chantants, des flûtistes mécaniques, des nymphes, des dragons et des satyres animés pour égayer
des fêtes aristocratiques, des jardins et des grottes. René Descartes, lui, aurait conçu en 1649 un
automate qu’il appelait « ma fille Francine ». Il conduit par ailleurs une réflexion d’un modernisme
étonnant sur les différences entre la nature des automates, et celles d’une part des animaux (pas de
différence) et d’autre part celle des hommes (pas d’assimilation). Ces analyses en font le précurseur
méconnu d’un des principaux thèmes de la science-fiction : l'indistinction entre le vivant et
l’artificiel, entre les hommes et les robots, les androïdes ou les intelligences artificielles.

Le canard artificiel de Vaucanson (1738).


Jacques de Vaucanson a construit en 1738 un « canard artificiel de cuivre doré, qui boit, mange,
cancane, barbote et digère comme un vrai canard ». Il était possible de programmer les mouvements
de cet automate, grâce à des pignons placés sur un cylindre gravé, qui contrôlaient des baguettes
traversant les pattes du canard. L’automate a été exposé pendant plusieurs années en France, en
Italie et en Angleterre, et la transparence de l’abdomen permettait d’observer le mécanisme interne.
Le dispositif permettant de simuler la digestion et d’expulser une sorte de bouillie verte fait l’objet
d’une controverse. Certains commentateurs estiment que cette bouillie verte n’était pas fabriquée à
partir des aliments ingérés, mais préparée à l’avance. D’autres estiment que cet avis n’est fondé que
sur des imitations du canard de Vaucanson. Malheureusement, l’incendie du musée de Nijni
Novgorod en Russie vers 1879 détruisit cet automate19.
Les artisans Pierre et Louis Jaquet-Droz fabriquèrent parmi les meilleurs automates fondés sur un
système purement mécanique, avant le développement des dispositifs électromécaniques. Certains
de ces automates, par un système de cames multiples, étaient capables d'écrire un petit billet
(toujours le même). Enfin, Les Contes d'Hoffmann (et ballet) L'Homme au sable décrit une poupée
mécanique dont s'éprend le héros.

Pensée automatique
Parmi les premiers essais de formalisation de la pensée, les tentatives suivantes peuvent être citées :
• Raymond Lulle, missionnaire, philosophe, et théologien espagnol du XIIIe siècle, a fait la
première tentative pour engendrer des idées par un système mécanique. Il combinait
aléatoirement des concepts grâce à une sorte de règle à calcul, un zairja, sur laquelle
pivotaient des disques concentriques gravés de lettres et de symboles philosophiques. Il
baptisa sa méthode Grand Art (Ars Magna), fondée sur l’identification de concepts de base,
puis leur combinaison mécanique soit entre eux, soit avec des idées connexes. Raymond
Lulle appliqua sa méthode à la métaphysique, puis à la morale, à la médecine et à
l’astrologie. Mais il n’utilisait que la logique déductive, ce qui ne permettait pas à son
système d’acquérir un apprentissage, ni davantage de remettre en cause ses principes de
départ : seule la logique inductive le permet.
• Gottfried Wilhelm Leibniz, au XVIIe siècle, a imaginé un calcul pensant (calculus
rationator), en assignant un nombre à chaque concept. La manipulation de ces nombres
aurait permis de résoudre les questions les plus difficiles, et même d’aboutir à un langage
universel. Leibniz a toutefois démontré que l’une des principales difficultés de cette
méthode, également rencontrée dans les travaux modernes sur l’intelligence artificielle, est
l’interconnexion de tous les concepts, ce qui ne permet pas d’isoler une idée de toutes les
autres pour simplifier les problèmes liés à la pensée.
• George Boole a inventé la formulation mathématique des processus fondamentaux du
raisonnement, connue sous le nom d’algèbre de Boole. Il était conscient des liens de ses
travaux avec les mécanismes de l’intelligence, comme le montre le titre de son principal
ouvrage paru en 1854 : Les Lois de la pensée (The laws of thought), sur l’algèbre booléenne.
• Gottlob Frege perfectionna le système de Boole en formalisant le concept de prédicat, qui
est une entité logique soit vraie, soit fausse (toute maison a un propriétaire), mais contenant
des variables non logiques, n’ayant en soi aucun degré de vérité (maison, propriétaire). Cette
formalisation eut une grande importance puisqu'elle permit de démontrer des théorèmes
généraux, simplement en appliquant des règles typographiques à des ensembles de
symboles. La réflexion en langage courant ne portait plus que sur le choix des règles à
appliquer. Par ailleurs, l’utilisateur joue un rôle important puisqu'il connaît le sens des
symboles qu’il a inventés et ce sensb n'est pas toujours formalisé, ce qui ramène au
problème de la signification en intelligence artificielle, et de la subjectivité des utilisateurs.
• Bertrand Russell et Alfred North Whitehead publièrent au début du XXe siècle un ouvrage
intitulé Principia mathematica, dans lequel ils résolvent des contradictions internes à la
théorie de Gottlob Frege. Ces travaux laissaient espérer d’aboutir à une formalisation
complète des mathématiques.
• Kurt Gödel démontre au contraire que les mathématiques resteront une construction ouverte,
en publiant en 1931 un article intitulé « Des propositions formellement indécidables
contenues dans les Principia mathematica et autres systèmes similaires ». Sa démonstration
est qu’à partir d’une certaine complexité d’un système, on peut y créer plus de propositions
logiques qu’on ne peut en démontrer vraies ou fausses. L’arithmétique, par exemple, ne peut
trancher par ses axiomes si on doit accepter des nombres dont le carré soit -1. Ce choix reste
arbitraire et n’est en rien lié aux axiomes de base. Le travail de Gödel suggère qu’on pourra
créer ainsi un nombre arbitraire de nouveaux axiomes, compatibles avec les précédents, au
fur et à mesure qu’on en aura besoin. Si l'arithmétique est démontrée incomplète, le calcul
des prédicats (logique formelle) est au contraire démontré par Gödel comme complet.
• Alan Turing invente des machines abstraites et universelles (rebaptisées les machines de
Turing), dont les ordinateurs modernes sont considérés comme des concrétisations. Il
démontre l’existence de calculs qu’aucune machine ne peut faire (un humain pas davantage,
dans les cas qu'il cite), sans pour autant que cela constitue pour Turing un motif pour douter
de la faisabilité de machines pensantes répondant aux critères du test de Turing.
• Irving John Good20, Myron Tribus et E.T. Jaynes ont décrit de façon très claire les principes
assez simples d’un robot à logique inductive utilisant les principes de l’inférence bayésienne
pour enrichir sa base de connaissances sur la base du Théorème de Cox-Jaynes. Ils n’ont
malheureusement pas traité la question de la façon dont on pourrait stocker ces
connaissances sans que le mode de stockage entraîne un biais cognitif. Le projet est voisin
de celui de Raymond Lulle, mais fondé cette fois-ci sur une logique inductive, et donc
propre à résoudre quelques problèmes ouverts.
• Robot à logique inductive21.
• Des chercheurs comme Alonzo Church ont posé des limites pratiques aux ambitions de la
raison, en orientant la recherche (Herbert Simon, Michael Rabin, Stephen Cook) vers
l’obtention des solutions en temps fini, ou avec des ressources limitées, ainsi que vers la
catégorisation des problèmes selon des classes de difficulté (en rapport avec les travaux de
Cantor sur l’infini)[ souhaitée].

Faits marquants depuis les années 2000


L'intelligence artificielle est un sujet d'actualité au XXIe siècle. En 2004, l'Institut Singularity a
lancé une campagne Internet appelée « Trois lois dangereuses » : « Three Laws Unsafe » (en lien
avec les trois lois d'Asimov) pour sensibiliser aux questions de la problématique de l'intelligence
artificielle et l'insuffisance des lois d'Asimov en particulier. (Singularity Institute for Artificial
Intelligence 2004)22.
En 2005, le projet Blue Brain est lancé, il vise à simuler le cerveau des mammifères. Il s'agit d'une
des méthodes envisagées pour réaliser une IA. Ils annoncent de plus comme objectif de fabriquer,
dans dix ans, le premier « vrai » cerveau électronique23. En , le gouvernement sud-coréen a
annoncé que plus tard dans l'année, il émettrait une charte sur l'éthique des robots, afin de fixer des
normes pour les utilisateurs et les fabricants. Selon Park Hye-Young, du ministère de l'Information
et de la communication, la Charte reflète les trois lois d'Asimov : la tentative de définition des
règles de base pour le développement futur de la robotique. En , en Californie une conférence
organisée par l'Association for the Advancement of Artificial Intelligence (AAAI), où un groupe
d'informaticiens se demande s'il devrait y avoir des limites sur la recherche qui pourrait conduire à
la perte de l'emprise humaine sur les systèmes informatiques, et où il est également question de
l'explosion de l'intelligence (artificielle) et du danger de la singularité technologique conduisant à
un changement d'ère, ou de paradigme totalement en dehors du contrôle humain24,25.
En 2009, le Massachusetts Institute of Technology (MIT) a lancé un projet visant à repenser la
recherche en intelligence artificielle. Il réunira des scientifiques qui ont eu du succès dans des
domaines distincts de l'IA. Neil Gershenfeld déclare « Nous voulons essentiellement revenir 30 ans
en arrière, et de revoir quelques directions aujourd'hui gelées »26.
En , l'US Air Force cherche à acquérir 2 200 PlayStation 327 pour utiliser le processeur cell à 7 ou
8 cœurs qu'elle contient dans le but d'augmenter les capacités de leur superordinateur constitué de
336 PlayStation 3 (total théorique 52,8 FLOPS en double précision). Le nombre sera réduit à
1 700 unités le 28. Le projet vise le traitement vidéo haute-définition, et l'« informatique
neuromorphique », ou la création de calculateurs avec des propriétés/fonctions similaires au cerveau
humain27.
Le , l'US Air Force demande l'aide de l'industrie pour développer une intelligence avancée de
collecte d'information et avec la capacité de décision rapide pour aider les forces américaines pour
attaquer ses ennemis rapidement à leurs points les plus vulnérables. L'US Air Force utilisera une
intelligence artificielle, le raisonnement ontologique, et les procédures informatique basées sur la
connaissance, ainsi que d'autres traitements de données avancés afin de frapper l'ennemi au meilleur
point29. D'autre part, d’ici 2020, plus de mille bombardiers et chasseurs F-22 et F-35 de dernière
génération, parmi plus de 2 500 avions militaires, commenceront à être équipés de sorte que, d’ici
2040, tous les avions de guerre américains soient pilotés par intelligence artificielle, en plus des
10 000 véhicules terrestres et des 7 000 dispositifs aériens commandés d'ores et déjà à distance30.
Le , Watson, le superordinateur conçu par IBM, remporte deux des trois manches du jeu télévisé
Jeopardy! en battant largement ses deux concurrents humains en gains cumulés. Pour cette IA, la
performance a résidé dans le fait de répondre à des questions de culture générale (et non un
domaine technique précis) dans des délais très courts. En , l'artiste et designer Aaron Siegel propose
de faire de Watson un candidat à l'élection présidentielle américaine afin de lancer le débat sur « le
potentiel de l’intelligence artificielle dans la politique »31.
En , Google ouvre un laboratoire de recherches dans les locaux de la NASA. Grâce à un super
calculateur quantique conçu par D-Wave Systems et qui serait d'après cette société 11 000 fois plus
performant qu'un ordinateur actuel (de 2013)32, ils espèrent ainsi faire progresser l'intelligence
artificielle, notamment l'apprentissage automatique. Raymond Kurzweil est engagé en par Google
afin de participer et d'améliorer l'apprentissage automatique des machines et des IA33.
Entre 2014 et 2015, à la suite du développement rapide du deep learning, et à l'encontre des
penseurs transhumanistes, quelques scientifiques et membres de la communauté high tech craignent
que l'intelligence artificielle ne vienne à terme dépasser les performances de l'intelligence humaine.
Parmi eux, l'astrophysicien britannique Stephen Hawking34, le fondateur de Microsoft Bill Gates35
et le PDG de Tesla Elon Musk36.
Les géants de l'Internet s'intéressent de plus en plus à l'IA37. Le , le patron de Facebook, Mark
Zuckerberg, s’est donné pour objectif de l’année de « construire une intelligence artificielle simple
pour piloter ma maison ou m’aider dans mon travail »38. Il avait déjà créé en 2013 le laboratoire
Facebook Artifical Intelligence Research (FAIR) dirigé par le chercheur français Yann Le Cun et
ouvert un laboratoire de recherche permanente dans le domaine à Paris39.
Apple a de son côté récemment acquis plusieurs start-up du secteur (Perceptio, VocalIQ, Emotient
et Turi)40.
En , des modèles d'intelligence artificielle développés par Microsoft et Alibaba réussissent chacun
de leur côté à battre les humains dans un test de lecture et de compréhension de l'université
Stanford. Le traitement du langage naturel imite la compréhension humaine des mots et des phrases
et permet maintenant aux modèles d'apprentissage automatique de traiter de grandes quantités
d'informations avant de fournir des réponses précises aux questions qui leur sont posées41.
En , l'institut de recherche OpenAI annonce avoir créé un programme d’intelligence artificielle
capable de générer des textes tellement réalistes que cette technologie pourrait être
dangereuse42,43. Si le logiciel est utilisé avec une intention malveillante, il peut générer facilement
des fausses nouvelles très crédibles. Inquiet par l'utilisation qui pourrait en être faite, OpenAI
préfère ne pas rendre public le code source du programme44.

En France
En France, les pionniers sont Alain Colmerauer, Gérard Huet, Jean-Louis Laurière, Claude-François
Picard, Jacques Pitrat et Jean-Claude Simon45. Un congrès national annuel, « Reconnaissance de
formes et intelligence artificielle », est créé en 1979 à Toulouse46. En lien avec l'organisation de la
conférence International Joint Conference on Artificial Intelligence à Chambéry en 1993, et la
création d'un GRECO-PRC47 « intelligence artificielle », en 1983, il donne naissance à une société
savante, l'Association française pour l'intelligence artificielle (AFIA) en 1989, qui, entre autres,
organise des conférences nationales en intelligence artificielle48.

Logo de la conférence « AI for Humanity » organisée le au Collège de France.


Le , le fonds de capital risque Serena Capital lance un fonds de 80 millions d’euros destiné à
l’investissement dans les start-ups européennes du big data et de l'intelligence artificielle49. Le ,
une audition se tient au Sénat : « L'intelligence Artificielle menace-t-elle nos emplois ? »50. Le ,
Axelle Lemaire entend valoriser les potentiels scientifiques et industriels français grâce au projet
« France IA »51.
En janvier 2017, dans le cadre de sa mission de réflexion sur les enjeux éthiques et les questions de
société soulevés par les technologies numériques, la Commission nationale de l'informatique et des
libertés (CNIL) annonce l'organisation d'un débat public sur les algorithmes et l'intelligence
artificielle52. Le 15 décembre 2017, à l'issue d'un débat ayant mobilisé 60 partenaires (institutions
publiques, associations, entreprises, acteurs du monde de la recherche, société civile)53, elle publie
son rapport « Comment permettre à l'Homme de garder la main ? »54 comprenant des
recommandations pour la construction d'un modèle éthique d'intelligence artificielle.
En septembre 2017, Cédric Villani, premier vice-président de l'Office parlementaire d'évaluation
des choix scientifiques et technologiques (OPECST)55, est chargé de mener une consultation
publique sur l'intelligence artificielle56. Il rend son rapport le 28 mars 201857, à la veille d'une
intervention du président de la République Emmanuel Macron au Collège de France pour annoncer
la stratégie de la France dans ce domaine58. Il y dévoile un plan de 1,5 milliard d'euros sur
l'ensemble du quinquennat, ainsi qu'une évolution de la législation française pour permettre la mise
en application de l'intelligence artificielle, en particulier concernant la circulation des véhicules
autonomes59. Parallèlement à ces annonces, il est interviewé par Wired, magazine de référence pour
la communauté mondiale des nouvelles technologies, et y exprime sa vision de l'intelligence
artificielle, à savoir que les algorithmes utilisés par l'État doivent être ouverts, que l'intelligence
artificielle doit être encadrée par des règles philosophiques et éthiques et qu'il faut s'opposer à
l'usage d'armes automatiques ou de dispositifs prenant des décisions sans consulter un humain60,61.
En mars 2018, Microsoft France lance l'École IA Microsoft, inaugurée par son président Carlo
Purassanta, une formation ouverte aux décrocheurs scolaires et aux personnes éloignées de l'emploi,
en partenariat avec Simplon.co62. Dix écoles sont lancées en un an à partir de septembre 201863.
Microsoft France mise sur le développement de l'intelligence artificielle comme nouveau vecteur
d'inclusion professionnelle64
En octobre 2019, le site ActuIA annonce le lancement du premier magazine papier consacré à
l'intelligence artificielle65.

Intelligence artificielle forte


Article détaillé : Philosophie de l'intelligence artificielle.

Définition
Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de
produire un comportement intelligent, notamment de modéliser des idées abstraites, mais aussi
d’éprouver une impression d'une réelle conscience, de « vrais sentiments » (quoi qu’on puisse
mettre derrière ces mots), et « une compréhension de ses propres raisonnements »66.
L’intelligence artificielle forte a servi de moteur à la discipline, mais a également suscité de
nombreux débats. En se fondant sur l'hypothèse, que tendent à confirmer les neurosciences et que
des chercheurs n'hésitent pas à affirmer67, que la conscience a un support biologique et donc
matériel, les scientifiques ne voient généralement pas d’obstacle de principe à créer un jour une
intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte,
si à l'heure actuelle il n'y a pas d'ordinateurs ou de robots aussi intelligents que l'être humain, ce
n'est pas un problème d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un
ordinateur est une machine de Turing universelle avec pour seules limites les limites de la
calculabilité), il n'y aurait que des limites liées à l'aptitude humaine à concevoir les logiciels
appropriés (programme, base de données...).

Estimation de faisabilité
Comparer la capacité de traitement de l'information d'un cerveau humain à celle d'un ordinateur
peut aider à comprendre les ordres de grandeur pour estimer la possibilité pratique ou non d'une
intelligence artificielle forte, de même qu'un simple calcul de puissance en kW permet grosso modo
de dire qu'un camion donné pourra espérer transporter commodément telle ou telle charge ou si cela
lui sera impossible. Voici quelques exemples d'ordres de grandeur en traitement de l'information :
• Balance Roberval : 1 bit par seconde (comparaison de deux poids) ;
• mainframe typique des années 1970 : 1 million d'opérations par seconde sur 32 bits ;
• Intel Paragon XP/S, 4 000 processeurs i860 à 50  (1992) : 160 milliards d'opérations par
seconde ;
• Summit, 9216 processeurs POWER9 (2018) : 200 pétaflops, soit 200 millions de milliards
d'opérations par seconde.
Cette puissance n'est pas à prendre au pied de la lettre. Elle précise surtout les ordres de grandeur en
présence et leur évolution relativement rapide (jusqu'en 2018).
L'intelligence artificielle n'avait donné que des résultats mitigés sur les ordinateurs typiques de 1970
effectuant 107 opérations logiques par secondec,68. Le cerveau humain, formé de 1011 neurones ne
pouvant chacun commuter plus de 100 fois par seconde en raison de leur temps de relaxation
permettait beaucoup plus de traitements logiques par unité de temps (1013 opérations logiques par
seconde)68. Ce handicap technique précis n'existe plus sur les ordinateurs depuis les années 2000,
travaillant en 64 bits et avec des horloges cadencées à 4  environ, pour des processeurs destinés aux
particuliers. Concernant des supercalculateurs comme Summit, le rapport du nombre de
comparaisons par seconde entre ordinateur et cerveau a même complètement changé de sens.
Le matériel serait donc maintenant disponible, toutefois l'IA souligne la difficulté à expliciter toutes
les connaissances utiles à la résolution d'un problème complexe. Certaines connaissances dites
implicites sont acquises par l'expérience et mal formalisables. Par exemple, qu'est-ce qui distingue
un visage familier de deux cents autres ? Nous ne savons pas toujours clairement l'exprimerd.
[Passage à actualiser] L'apprentissage de ces connaissances implicites par l'expérience est exploitée
depuis les années 1980 (voir Réseau de neurones). Néanmoins, un autre type de complexité
apparaît : la complexité structurelle. Comment mettre en relation des modules spécialisés pour
traiter un certain type d'informations, par exemple un système de reconnaissance des formes
visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la
coordination motrice, au langage, etc. En revanche, une fois un système cognitif conçu et son
apprentissage par l'expérience réalisé, l'« intelligence » correspondante peut être distribuée en un
grand nombre d'exemplaires, par exemple sur les portables d'actuaires ou de banquiers pouvant
ainsi, comme le rappelle un slogan, dire oui ou non, mais le dire tout de suite grâce à des
applications dites de credit scoring.

Diversité des opinions


Les principales opinions soutenues pour répondre à la question d’une intelligence artificielle forte
(c'est-à-dire douée d'une sorte de conscience) sont les suivantes :
• Impossible : la conscience serait le propre des organismes vivants (supérieurs), et elle serait
liée à la nature des systèmes biologiques. Cette position est défendue principalement par des
religieux[ souhaitée].
• Problème : Elle rappelle toutefois toutes les controverses passées entre vitalistes et
matérialistes.
• Impossible avec des machines manipulant des symboles comme les ordinateurs actuels,
mais possible avec des systèmes dont l’organisation matérielle serait fondée sur des
processus quantiques. Cette position est défendue notamment par Roger Penrose. Des
algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de
l'atteinte pratique des calculateurs conventionnels (complexité en au lieu de , par exemple,
sous réserve d'existence du calculateur approprié). Au-delà de la rapidité, le fait que l'on
puisse envisager des systèmes quantiques en mesure de calculer des fonctions non-Turing-
calculables (voir Hypercalcul) ouvre des possibilités qui - selon Jack Copeland - sont
fondamentalement interdites aux machines de Turing ; cette dernière possibilité est
cependant généralement niée par les spécialistes du calcul quantique[ souhaitée].
• Problème : On ne dispose pas encore pour le moment d'algorithmes d'IA à mettre en
œuvre dans ce domaine. Tout cela reste donc spéculatif. Par ailleurs, il n'est
nullement clair que cela ait quoi que ce soit à voir avec la conscience.
• Impossible car la pensée n'est pas un phénomène calculable par des processus discrets et
finis. Pour passer d'un état de pensée au suivant, il y a une continuité d'états transitoires.
Cette idée est réfutée par Alain Cardon (Modéliser et concevoir une Machine pensante).
• Possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à
prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l'apprentissage
symbolique basé sur la logique des prédicats, mais aussi les techniques connexionnistes
telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette
dernière opinion constitue la position la plus engagée en faveur de l'intelligence artificielle
forte.
Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing ; voir
le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une
intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait
exactement ce comportement. Après tout, nous ne pouvons même pas être certains que d’autres
consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce
n'est par une pétition de principe qui spécule que chaque humain se retrouve à l'identique chez tous
les autres. On retrouve là le problème connu du solipsisme en philosophie.

Travaux complémentaires
Le mathématicien de la physique Roger Penrose69 pense que la conscience viendrait de
l'exploitation de phénomènes quantiques dans le cerveau (voir microtubules), empêchant la
simulation réaliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’où les
résultats encore très partiels de l’IA. Il restait jusqu’à présent isolé sur cette question. Un autre
chercheur, Andrei Kirilyuk, a présenté depuis une thèse de même esprit quoique moins radicale70.

Intelligence artificielle faible


Article détaillé : Intelligence artificielle faible.
La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur :
chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur
supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais,
cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en
voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de
Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement
d'humains face à d'autres humains lors d'un dialogue.
Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage
Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont
pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du
père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en
temps « Je comprends. », mais son auteur rappelle qu'il s'agit d'une simple mystification : le
programme ne comprend en réalité rien.
Les tenants de l'IA forte admettent que s'il y a bien dans ce cas simple simulation de comportements
intelligents, il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut
différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un
humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme
même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé
par « reproduction de l'intelligence ».
Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle
sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son
projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA
forte qui contestent cette interprétation.
Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la
droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, la supervision
(en anglais : process control) dans les années 1970, l’aide à la décision dans les années 1980 et
l’exploration de données dans les années 1990. Et, qui plus est, avec une certaine continuité.
Il s'agit surtout d'intelligence humaine reconstituée, et de programmation ad hoc d'un apprentissage,
sans qu'une théorie unificatrice n'existe pour le moment (2011). Le théorème de Cox-Jaynes indique
toutefois, ce qui est un résultat fort, que sous cinq contraintes raisonnables, tout procédé
d'apprentissage devra être soit conforme à l'inférence bayésienne, soit incohérent à terme, donc
inefficace71.

Distinction entre intelligence artificielle, machine learning et deep learning

Schéma montrant le positionnement des notions d'IA, machine learning et deep learning imbriquées
les unes aux autres.
Il y a une confusion fréquente dans le débat public entre « intelligence artificielle », apprentissage
automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne
sont pas équivalentes, mais sont imbriquées :
• l'intelligence artificielle englobe le machine learning, qui lui-même englobe le deep
learning72 ;
• l'intelligence artificielle peut aussi englober plusieurs autres types de briques logicielles,
comme les moteurs de règles73.

Estimation de faisabilité
Le sémanticien François Rastier, après avoir rappelé les positions de Turing et de Grice à ce sujet,
propose74 six « préceptes » conditionnant un système de dialogue évolué, en précisant qu'elles sont
déjà mises en œuvre par des systèmes existants :
• objectivité (utilisation d'une base de connaissance par le système) ;
• textualité (prise en compte d'interventions de plus d'une phrase, qu'elles émanent du système
ou de l'utilisateur) ;
• apprentissage (intégration au moins temporaire d'informations issues des propos de
l'utilisateur) ;
• questionnement (demande de précisions de la part du système) ;
• rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ;
• explicitation (explicitation par le système d'une réponse qu'il a apportée précédemment).
Il suggère aussi que le système devrait être en mesure de se faire par lui-même une représentation
de l'utilisateur auquel il a affaire, pour s'adapter à lui. De son côté, l'utilisateur a tendance à s'adapter
au système à partir du moment où il a bien compris qu'il s'adresse à une machine : il ne conversera
pas de la même manière avec un système automatisé qu'avec un interlocuteur humain, ce qui
présente pour le concepteur l'avantage pragmatique de simplifier certains aspects du dialogue.

Test de Turing

Schéma du test de Turing.


Article détaillé : Test de Turing.
À l’orée des années 1950, entre la naissance de la cybernétique et l’émergence quelques années plus
tard de l’intelligence artificielle, alors que les meilleurs esprits du temps s’interrogent sur la
possibilité de construire des machines pensantes, Alan Turing propose, dès le début d’un article
demeuré célèbre, un test pour déterminer si une machine peut être définie comme « consciente »75.
Définir l’intelligence est un défi et il n’est pas certain qu’on puisse y arriver un jour d’une façon
satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, en 1950, à
proposer « le jeu de l’imitation » qui fixait un objectif précis à la science naissante des ordinateurs
que l'on n'appelait pas encore informatique en francophonie. Ce « jeu de l'imitation » suggérait
qu'un juge fictif puisse dialoguer d'une part avec une machine et d'autre part avec un humain à l'aide
d'un terminal sans pouvoir les discriminer76.
Jusqu'à ce jour, aucun logiciel n'a encore réussi ce test, à savoir se comporter de façon à ne pas être
discriminé d'un humain, malgré de nombreuses tentatives. Devant la persistance de ces échecs
certains informaticiens[Lesquels ?] pensent que mettre au point un programme aussi complexe ne
démontrera pas l'intelligence des programmes ni leur capacité à penser.
De nos jours, une machine peut certes réviser et faire évoluer des objectifs qu’on lui a attribués.
Une machine peut même être programmée pour pouvoir restructurer sa connaissance initiale à partir
d’informations reçues ou perçues. Mais la machine d’aujourd’hui ne pense pas à proprement parler,
car elle n’a pas conscience d’elle-même (et en particulier de ses limites), elle ne peut pas
ultimement décider de ses buts ni imaginer de nouvelles formes de représentations du monde75.

Personnalités de l'intelligence artificielle


Prix Turing
Plusieurs prix Turing (ACM Turing Award) ont été attribués à des pionniers de l'intelligence
artificielle, notamment :
• Marvin Minsky (1969)
• John McCarthy (1971)
• Allen Newell et Herbert Simon (1975)
• Edward Feigenbaum et Raj Reddy (1994)
• Judea Pearl (2011)
• Yann Le Cun, Geoffrey Hinton et Yoshua Bengio (2019).

Autres personnalités
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue !
Comment faire ?
• Ian Goodfellow (en), inventeur des réseaux antagonistes génératifs.

Courants de pensée
La cybernétique naissante des années 1940 revendiquait très clairement son caractère
pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie,
psychologie, logique, sciences sociales… Et c’est tout naturellement qu’elle envisagea deux
approches des systèmes, deux approches reprises par les sciences cognitives et de ce fait
l’intelligence artificielle : une approche par la décomposition (du haut vers le bas) et une approche
contraire par construction progressive du bas vers le haut.
Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l'aise pour
décomposer rapidement ce que l'on connaît bien, et une approche pragmatique à partir des seuls
éléments que l'on connaît afin de se familiariser avec les concepts émergents est plus utile pour les
domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que constituent le
cognitivisme et le connexionnisme, qui tentent aujourd'hui (2005) d'opérer progressivement leur
fusion.
Le guide pratique de Linux sur l'intelligence artificielle v3.077, révisé le 15 décembre 2012, adopte
pour la commodité du lecteur la taxinomie suivante :
• systèmes symboliques ;
• connexionnisme ;
• calcul évolutif (algorithmes génétiques, par exemple) ;
• alife (vie artificielle) et complexité ;
• agents et robotique.

Cognitivisme
Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés évidemment
très différents), manipule essentiellement des symboles élémentaires. Dans son livre La société de
l’esprit, Marvin Minsky, s’appuyant sur des observations du psychologue Jean Piaget, envisage le
processus cognitif comme une compétition d’agents fournissant des réponses partielles et dont les
avis sont arbitrés par d’autres agents. Il cite les exemples suivants de Piaget :
• L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a d’eau dans
ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion
de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et
arbitre de son mieux entre les deux.
• Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de
plusieurs objets temporairement représentés à une même boule de pâte l’incite à dégager un
concept de conservation de la quantité de matière.
Au bout du compte, ces jeux d’enfants se révèlent essentiels à la formation de l’esprit, qui dégagent
quelques règles pour arbitrer les différents éléments d’appréciation qu’il rencontre, par essais et
erreurs.

Connexionnisme
Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme
le résultat d’une interaction globale des parties élémentaires d’un système. On ne peut nier que le
chien dispose d'une sorte de connaissance des équations différentielles du mouvement, puisqu’il
arrive à attraper un bâton au vol. Et pas davantage qu’un chat ait aussi une sorte de connaissance de
la loi de chute des corps, puisqu’il se comporte comme s’il savait à partir de quelle hauteur il ne doit
plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque un peu
l’intuition des philosophes se caractériserait par la prise en compte et la consolidation d’éléments
perceptifs dont aucun pris isolément n’atteint le seuil de la conscience, ou en tout cas n’y déclenche
d’interprétation particulière.
Synthèse
Trois concepts reviennent de façon récurrente dans la plupart des travaux :
• la redondance (le système est peu sensible à des pannes ponctuelles) ;
• la réentrance (les composants s'informent en permanence entre eux ; cette notion diffère de
la réentrance en programmation) ;
• la sélection (au fil du temps, les comportements efficaces sont dégagés et renforcés).

Différentes facettes
On peut considérer différents dispositifs intervenant, ensemble ou séparément, dans un système
d’intelligence artificielle tels que :
• le dialogue automatique : se faire comprendre en lui parlant ;
• la traduction automatique, si possible en temps réel ou très légèrement différé ;
• le traitement automatique du langage naturel ;
• le raisonnement automatique (voir systèmes experts) ;
• le partitionnement et la classification automatique ;
• la composition musicale automatique (voir les travaux de René-Louis Baron et de l'Ircam ;
plus récemment les recherches de François Pachet, ainsi que le développement de
flowmachines telles que Deepbach78,79) ;
• la reconnaissance de formes, des visages et la vision en général, etc. ;
• l'intégration automatique d’informations provenant de sources hétérogènes, (fusion de
données) ;
• l'émotion artificielle (voir les travaux de Rosalind Picard sur l'émotion) et l'éventualité d'une
subjectivité artificielle ;
• etc.
Les réalisations actuelles de l’intelligence artificielle peuvent intervenir dans les fonctions
suivantes :
• l'aide aux diagnostics ;
• l'aide à la décision ;
• la résolution de problèmes complexes, tels que les problèmes d'allocation de ressources ;
• l'assistance par des machines dans les tâches dangereuses, ou demandant une grande
précision ;
• l'automatisation de tâches ;
• etc.

Conception de systèmes
Au fil du temps, certains langages de programmation se sont avérés plus commodes que d’autres
pour écrire des applications d’intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent sans
doute les plus médiatisés. ELIZA (le premier agent conversationnel, donc pas de la « véritable »
intelligence artificielle) tenait en trois pages de SNOBOL. On utilise aussi, plus pour des raisons de
disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp
a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme et
les langages typés de la programmation fonctionnelle comme Haskell ou OCaml.
Aujourd'hui, ce sont Python et R qui fournissent les outils les plus riches dans ce domaine. Des
plateformes comme TensorFlow et ses bibliothèques haut niveau ont démocratisé et accéléré le
développement d'intelligences artificielles.

Domaines d’application

Un robot NAO en 2014.

Un assistant personnel intelligent fournissant un service client sur une page d'un site web, l'une des
nombreuses applications très primitives de l'intelligence artificielle.
Article détaillé : Applications de l'intelligence artificielle.
L'intelligence artificielle a été utilisée (ou intervient) dans une variété de domaines.

Finance et banques
• la banque, avec des systèmes experts d'évaluation de risque lié à l'octroi d'un crédit (credit-
scoring)[ souhaitée] ;
• la finance avec des projets comme ceux de Bridgewater Associates où une intelligence
artificielle va gérer entièrement un fonds80 ou encore la plateforme d'analyse prédictive
Sidetrade.
Militaire
Le domaine militaire utilise des systèmes tels que les drones, les systèmes de commandement et
d'aide à la décision.
L’utilisation des intelligences artificielles dans le domaine militaire est devenu de plus en plus
important. Les États-Unis ont dépensé 18 milliards de dollars pour trois années de recherches dans
tous les domaines requis à l’automatisation de l’armement militaire81.
Une course aux armements à base d'IA est en cours, tel qu'illustré par le projet Maven aux États-
Unis82.
Jean-Christophe Noël, expert de l'Institut français des relations internationales (IFRI), rapporte
qu'une IA, surnommée ALPHA, fit ses premières classes en octobre 2015. En « affrontant des
programmes informatiques de combats aériens de l’Air Force Research Lab », elle triompha
systématiquement face à un pilote de chasse chevronné83.

Médecine
Article détaillé : Intelligence artificielle dans la santé.
• la médecine, avec les systèmes experts d'aide au diagnostic[ souhaitée].
En 2018, Google DeepMind, filiale de Google spécialisée dans la recherche avancée en intelligence
artificielle, a publié les résultats d'une expérimentation d'intelligence artificielle pouvant détecter les
maladies oculaires. Les résultats indiquent que l'IA le fait avec une marge d'erreur plus faible que
les ophtalmologues84.

Renseignement policier
Article connexe : Police intelligence.
Un usage de l'IA se développe dans le domaine de la prévention des crimes et délits. La police
britannique, par exemple, développe une IA de ce genre, qui pourrait être opérationnelle dès mars
201985. Baptisée National Data Analytics Solution (Solution nationale d'analyse de données ou
NDAS), elle repose sur l'IA et des statistiques et vise à estimer le risque qu'une personne commette
un crime ou en soit ele-même victime, pour orienter les services sociaux et médicaux qui peuvent la
conseiller.
L'usage d'outils de prédiction des crimes à partir des données préalablement existantes est toutefois
l'objet de controverses, compte tenu des biais sociaux (notamment raciaux) qu'il comporte86. En
effet, la logique d'identification de schémas propre à ces technologies joue un rôle de renforcement
des préjugés déjà existants.

Droit
• Le droit, dans la perspective de prédire les décisions de justice, d'aider à la décision et de
trancher les cas simples87.

Logistique et transports
• la logistique, au travers d'approches heuristiques de type résolution de problème de
satisfaction de contraintes[ souhaitée].
• L'intelligence artificielle est également fortement utilisée dans le domaine des transports en
commun, car elle permet de faciliter la régulation et la gestion du trafic au sein de réseaux de
plus en plus complexes, comme le système UrbanLoop actuellement en cours de
développement dans la ville de Nancy[réf. nécessaire].

Robotique
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue !
Comment faire ?
Article connexe : Robotique.
La robotique a recours à l'inteligence artificielle à plusieurs égards. Notamment pour la perception
de l'environnement (objets et visages), l'apprentissage et l'intelligence artificielle
développementale88,89.
L'interaction homme-robot manque encore souvent de naturel et est un enjeux de la robotique. Il
s'agit de permettre aux robots d'évoluer dans le monde dynamique et social des humains et
d'échanger avec eux de façon satisfaisante88. L'échange nécessite également, à l'inverse, une
évolution du regard que les humains portent sur les robots ; selon Véronique Aubergé, chercheuse à
l’Université Grenoble-Alpes « la vraie révolution n’est pas technologique, elle est culturelle ».
D'ores et déjà, travers les robots dotés d'intelligence artificielle, tel Google Home, les utilisateurs
combleraient un isolement social88.

Jeux vidéo
Article détaillé : Intelligence artificielle dans les jeux vidéo.
L'intelligence artificielle a par exemple été utilisée pour les bots de jeux vidéo, qui sont conçus pour
servir d'opposants lorsque les humains ne sont pas disponibles ou désirés.

Art
Dès la fin des années 1980, des artistes s'emparent de l'intelligence artificielle pour donner un
comportement autonome à leurs œuvres. Les Français Michel Bret, Edmond Couchot et Marie-
Hélène Tramus sont des pionniers, ainsi qu'en témoignent des œuvres comme La Plume et Le
Pissenlit (1988)90, puis La Funambule (2000), animée par un réseau de neurones. L’Américain
Karl Sims, en partenariat avec la société Thingking Machines, crée en 1993 Genetic Images,
machines incorporant[Comment ?] des algorithmes génétiques. Le couple franco-autrichien Christa
Sommerer et Laurent Mignonneauau crée depuis le début des années 1990 de nombreuses œuvres
dans le champ de la vie artificielle, parmi lesquelles Interactive plant growing (1992) ou A-Volve
(1994)[réf. nécessaire]. Le Français Florent Aziosmanoff propose quant à lui de considérer que
l’emploi de l’intelligence artificielle dans l’art conduit à l’émergence d’une nouvelle discipline
d’expression, qu’il nomme le Living art91.
En , l'artiste Joseph Ayerle publie la vidéo d’art intitulée Un'emozione per sempre 2.0, dans laquelle
il met en scène une Ornella Muti virtuelle, créée par une intelligence artificielle. Après seulement
quelques jours d’entraînement, l’intelligence artificielle est capable de d'animer le visage de
l’actrice italienne pour réaliser des scènes qu’elle n’a jamais jouées92.
Le , la société de vente aux enchères Christie's met en vente le tableau Portrait d'Edmond de
Belamy réalisé par une intelligence artificielle à l'aide de réseaux antagonistes génératifs. La
peinture est signée par la formule mathématique à l'origine de sa création (« Min (G) max (D) Ex
[log (D(x))] + Ez [log(1-D(G(z)))] »)93. Cette vente soulève de nombreux débats sur son statut de
création artistique et sur l'auteur de l'œuvre : il peut être l'intelligence artificielle elle-même ou les
trois créateurs qui l'ont programmée94. L'œuvre est achetée pour 350 000 dollars95. Cette vente
peut être considérée comme une reconnaissance du GAN-isme (l'abréviation de Generative
Adversarial Networks, « réseaux antagonistes génératifs » en français), un mouvement artistique qui
utilise l’intelligence artificielle dans la création d'une œuvre picturale95.

Autres domaines
• Robot employé de maison96.
• En programmation informatique97.
• En journalisme : des « robots journalistes » pourraient à terme aider les journalistes en les
débarrassant de tâches ingrates, notamment la veille ou la vérification des fake news98.
• En design : la conception assistée par ordinateur fait depuis longtemps appel à des
algorithmes d'optimisation. En 2019, le créateur Philippe Starck lance une chaise développée
en collabortion avec la société Autodesk, la « A.I.chair »99.

Règlementation
Jusqu'à présent, l'intelligence artificielle n'est pas officiellement réglementée en Occident.
Toutefois, tant les algorithmes que les données personnelles utilisées sont soumis aux règles du
RGPD100.
Le , le groupe d'expert de haut niveau sur l'intelligence artificielle de l'Union européenne publie un
document contenant des lignes directrices en matière d'éthique de l'intelligence artificielle101.

Questionnements
Article connexe : Éthique de l'intelligence artificielle.
Les succès en IA encouragent les spéculations. Dans les milieux technophiles, on verse en général
dans l'enthousiasme, le mouvement transhumaniste en est la meilleure expression. Au contraire,
d'autres s’inquiètent et sont portées par des interrogations, parfois alarmistes, y compris dans la
sphère de la haute technologie. Ainsi, des figures réputées telles que Bill Gates — ancien PDG de
Microsoft et « figure emblématique de la révolution informatique de la fin du XXe siècle »102 —
pensent qu'il faut rester très prudent quant aux développements futurs de ces technologies, qui
pourraient devenir liberticides ou dangereuses.
Le développement de l'intelligence artificielle suscite un grand nombre de questions, notamment
celle relative à la possibilité pour les robots ou cyborgs d'accéder un jour à la conscience, d'éprouver
des émotions et finalement se substituer aux humains. Certaines de ces réactions sont ouvertement
optimistes, d'autres sont au contraire pessimistes. En 2016, l'INRIA publie un premier Livre blanc
consacré à l'IA103.

Espoirs et enthousiasme
Une description spectaculaire d’un possible avenir de l’intelligence artificielle a été faite par le
statisticien anglais Irving John Good : « supposons qu’existe une machine surpassant en intelligence
tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant
partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures
qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne de développement de
l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la
machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition
que ladite machine soit assez docile pour constamment lui obéir »104.

Pour l'Américain Ray Kurzweil, l'intelligence artificielle dépassera bientôt l'intelligence naturelle.
La mutation qu'évoque Good correspond à un changement « qualitatif » du principe même de
progrès, et certains la nomment « singularité »105 qui est un concept central pour de nombreux
transhumanistes, qui s'interrogent très sérieusement sur les dangers ou les espoirs d'un tel scénario,
certains allant jusqu'à envisager l'émergence d'un « dieu » numérique appelé à prendre le contrôle
du destin de l'humanité, ou à fusionner avec elle.
Good estimait à un peu plus d'une chance sur deux la mise au point d'une telle machine avant la fin
du XXe siècle. La prédiction ne s’est toujours pas réalisée, en 2012, mais elle avait imprégné le
public à l'époque : le cours de l’action d'IBM quadrupla[réf. nécessaire] (bien que les dividendes
trimestriels versés restèrent à peu de près constants) dans les mois qui suivirent la victoire de Deep
Blue sur Garry Kasparov. Une partie du grand public était en effet persuadée qu’IBM venait de
mettre au point le vecteur d’une telle explosion de l’intelligence et que cette compagnie en tirerait
profit. L’espoir fut déçu : une fois sa victoire acquise, Deep Blue, simple calculateur évaluant
200 millions de positions à la seconde, sans conscience du jeu lui-même, fut reconverti en machine
classique utilisée pour l'exploration de données.
Le développement de l'intelligence artificielle suscite l'enthousiasme des transhumanistes,
notamment celui de l'ingénieur américain Ray Kurzweill, selon qui il est évident qu'à plus ou moins
long terme, l'intelligence - jusqu'alors confinée dans son support biologique, le cerveau - deviendra
progressivement non-biologique et considérablement plus puissante au point que des cyborgs
remplaceront les humains, ceci en vertu de ce qu'il appelle le principe de singularité106.
Critiques et inquiétudes

Le développement de l'intelligence artificielle suscite des craintes, y compris au sein de la sphère


high tech. En 2015, Bill Gates, ex-PDG de Microsoft, s'inquiète à ce sujet107.
Le développement de l'intelligence artificielle génère de l'enthousiasme, mais aussi de vives
inquiétudes. Certains auteurs de science-fiction, tels Isaac Asimov, William Gibson ou Arthur C.
Clarke, sur le modèle du récit de L'Apprenti sorcier, décrivent le risque d'une perte de contrôle des
humains sur le processus technique. Tout récemment, différents intellectuels ont également pris
position.
Ainsi l'astrophysicien Stephen Hawking, selon qui le risque est réel que des machines deviennent un
jour plus intelligentes que les humains et finissent par les dominer, voire se substituer à eux, de la
même façon que les humains ont exterminé certaines espèces animales108. Il pose en novembre
2017 au salon technologique Web Summit de Lisbonne la question suivante « Serons-nous aidés par
l’intelligence artificielle ou mis de côté, ou encore détruits par elle ? »109
D'autres personnalités reconnues, notamment dans le milieu de la high tech, expriment
publiquement des craintes similaires. C'est ainsi le cas, en 2015, de Bill Gates, Elon Musk et Bill
Joy110. Selon le spécialiste américain de l'informatique Moshe Vardi, l'intelligence artificielle
pourrait mettre 50 % de l'humanité au chômage. « Nous approchons d'une époque où les machines
pourront surpasser les hommes dans presque toutes les tâches ». Son avènement poserait, à terme, la
question de l'utilité même de l'espèce humaine111.
Certains industriels prennent ces risques au sérieux. Ainsi, en 2016, Google pose la question du
manque de contrôle potentiel d'agents apprenants qui pourraient apprendre à empêcher leur
interruption dans une tâche. C'est dans ce sens que la firme développe un « bouton rouge » intégré
en bas niveau dans les IA permettant de désactiver les intelligences artificielles, sans possibilité de
contournement par celle ci (au-delà de simplement « tuer » l'IA, l'objectif de ce « bouton rouge » est
aussi de la geler dans son process, en évitant de l'arrêter, et éviter ainsi une remise à zéro des
apprentissages ou des calculs en cours)112.
Ce risque est aussi pris au sérieux sur le plan juridique. Ainsi, le parlement européen a demandé à
une commission d'étudier la possibilité qu'un robot doté d'une intelligence artificielle puisse être
considéré comme une personne juridique113. Advenant un dommage causé à un tiers par une
intelligence artificielle, celle-ci pourrait être condamnée à réparer ce dommage. Il serait
envisageable de conférer une personnalité électronique à tout robot prenant des décisions
autonomes ou interagissant de manière indépendante avec des tiers. Au même titre qu'une personne
morale et physique.
Aux États-Unis, Anthony Levandowski, le père de la voiture autonome, a fondé une organisation
religieuse qui fait la promotion d’une « divinité » basée sur une intelligence artificielle. Cette
organisation, appelée « Way of the Future » (La voie de l’avenir) existerait depuis septembre
2015114.
Un autre problème est l'énorme quantité de ressources rares, de serveurs et d'énergie consommée
par l'informatique sous-jacente à l'IA.

Critique de la technique et de la technologie


Comme l'explique l'historien François Jarrige, la critique de l'intelligence artificielle trouve son
origine dans celle - plus ancienne et plus générale - des techniques et de la technologie, dont Lewis
Mumford (aux États-Unis)115, Jacques Ellul (en France)116 et Günther Anders (en Allemagne)117
sont au XXe siècle les principaux instigateurs, et qui inspire aujourd'hui différents cercles militants
(en France, par exemple : Pièces et Main d'Œuvre118 et Technologos119)120.
Selon Jarrige, leurs thèses restent peu connues ou controversées du fait que le « progrès » et
l'« État » restent encore largement surestimés. Ainsi, reprenant les analyses d'Ellul121, les
animateurs du groupe Technologos estiment que l'État est de loin le moins qualifié pour enrayer
l'autonomisation du processus technicien122 et qu'il appartient aux individus de briser les mythes de
l'État-providence et du progrès technique : « Ce n'est pas la technique qui nous asservit mais le
sacré transféré à la technique (...). Ce n'est pas l'État qui nous asservit, c'est sa transfiguration
sacrale »123.
Dans un rapport en date de février 2018 intitulé The Malicious Use of Artificial Intelligence 26
experts spécialistes en intelligence artificielle mettent en garde contre les dangers d'un usage
criminel de l'IA : augmentation de la cybercriminalité, conduire à des utilisations de drones ou de
robots à des fins terroristes, etc.124.

Questionnements éthiques
Le , les géants du secteurs de l'intelligence artificielle mettent en place un « partenariat pour
l’intelligence artificielle au bénéfice des citoyens et de la société »125. L'année suivante, Google
DeepMind se dote d'une unité en interne pour aborder les questions éthiques126.
Le , 2 400 chercheurs, ingénieurs et personnalités du secteur de l'intelligence artificielle signent une
lettre ouverte127, s'engageant à « ne jamais participer ou soutenir le développement, la fabrication,
le commerce ou l’usage d’armes létales autonomes ». La lettre précise notamment que « La décision
de prendre une vie humaine ne devrait jamais être déléguée à une machine. ». Parmi les signataires,
se trouvent Elon Musk, les dirigeants de Google DeepMind, Stuart Russell, Yoshua Bengio ou
encore Toby Walsh128.

L'intelligence artificielle et la fin du travail ?


L'inquiétude du remplacement du travail humain par des machines n'est pas nouveau, et cette
question est déjà présente chez certains économistes du XIXe siècle comme Thomas Mortimer (en),
ou David Ricardo dans le premier chapitre Des principes de l'économie politique et de l'impôt. En
1995, c'est Jeremy Rifkin qui publie End of Work: The Decline of the Global Labor Force and the
Dawn of the Post-Market Era (en français : « La fin du travail : Le déclin de la force globale de
travail dans le monde et l'aube de l'ère post-marché »). Les prédictions de la fin du travail sont donc
courantes et accompagnent presque systématiquement les « grappes d'innovations ».
Le , deux chercheurs d'Oxford, Carl Benedikt Frey (en) et Michael A. Osborne publient un rapport
prospectif sur les impacts de l'intelligence artificielle et de la robotisation sur l'emploi : The Future
of Employment: How Susceptible Are Jobs to Computerisation?129. Dans ce rapport les deux
chercheurs prédisent que 47 % des emplois pourraient être automatisés d'ici 2030. Ce rapport eu un
grand retentissement dans le monde académique, et nourrit les inquiétudes autour de l'impact de
l'intelligence artificielle sur l'emploi. Cependant il est possible de dresser certaines critiques de ce
rapport. On peut noter qu'Osborne et Frey raisonnent en emploi constant, or on sait depuis
Schumpeter et son principe de destruction créatrice, que si certaines innovations détruisent des
emplois, elles en créent aussi par ailleurs. Il peut aussi être intéressant de mentionner à ce stade les
travaux de David Autor, qui dans son article « Why Are There Still So Many Jobs? The History and
Future of Workplace Automation » publié en 2015130 nuance les prédictions de Frey et Osborne et
s'interroge plutôt sur les modifications de la structure du marché de l'emploi dû à l'intelligence
artificielle plutôt que d'adopter la thèse plus radicale de la fin du travail.

L'intelligence artificielle et le travail numérique


Malgré les progrès importants de l'intelligence artificielle ces dernières années, nous ne pouvons
pas dire que l'hypothèse de la fin du travail se soit encore réalisée. Il est vrai cependant que la
structure du marché de l'emploi connaît de grands changements à cause de l'intelligence artificielle.
Le sociologue Antonio Casilli, dans son ouvrage En attendant les robots : enquête sur le travail du
clic131 examine les conséquences de la « disruption numérique » liée à l'intelligence artificielle sur
la structure de l'emploi, en enquêtant sur les différentes formes d'activités humaines nécessaire à la
production d'intelligence artificielle. Cette thèse s'inscrit dans une analyse de qu'on appelle le
« travail numérique » (« digital labour »), concept forgé dans les années 2000 pour désigner
l'ensemble des activités en ligne, créatrices de valeurs, le plus souvent captées par les grandes
plateformes numériques. Le travail numérique est consubstantiellement lié à la production des
intelligences artificielles et il peut être analysé en trois catégories[réf. nécessaire] :
Le travail à la demande 
Cette forme a la particularité d'être à la fois en ligne et hors ligne. C'est le travail lié aux
plateformes d'appariement algorithmique comme Uber, Deliveroo, ou même Airbnb, etc.
Dans le cas du travail à la demande, l'intelligence artificielle ne remplace pas le travail
humain mais elle permet plutôt une optimisation de la rencontre de l'offre et de la demande
sur un certain marché. Cette forme de digital labour est moins liée à la production
d'intelligence artificielle que les deux suivantes, en revanche, l'intelligence artificielle et
l’algorithmique bousculent la structure de l'emploi des secteurs d’activités concernés.
L'optimisation algorithmique de la rencontre de l'offre et la demande encourage un système de
rémunération à la tâche et prive les travailleurs du statut de salarié. Dans ce cas-là les
conséquences de l'intelligence artificielle sur l'emploi concernent davantage une modification
du statut des travailleurs, qu'un remplacement de l'homme par la machine. La tâche reste la
même, seules les conditions d'emploi et de rémunération changent.

Le micro-travail 
L'émergence du micro-travail est très étroitement lié à la production d'intelligence artificielle,
notamment dans la phase d’entraînement et de calibrage des algorithmes. En effet tous les
algorithmes d'intelligence artificielle (particulièrement ceux utilisant la technologie du deep-
learning) ont besoin d'une quantité incroyable de données pour réaliser leur apprentissage et
devenir fonctionnels. Or il n'existe pas à ce jour d'autre solution que d'avoir recours à la main
d’œuvre humaine pour fournir ces quantités de données. C'est Amazon, l'un des leader
mondiaux de l'intelligence artificielle qui possède la plus grande plateforme de micro-travail :
Amazon Mechanical Turk créée en 2005. Les autres leaders de l'intelligence artificielle
utilisent également les services de plateformes de micro-travail : Google se sert d'EWOK,
Microsoft d'UHRS et IBM de Mighty IA132. Ces micro-tâches numériques sont en général :
rédiger de courts commentaires, cliquer, regarder des vidéos ou des photos, traduire un texte,
donner de la visibilité à un site Web, créer des playlists musicales, taguer des images ou
reconnaître des visages ou des objets dans les photos. Aux micro-tâches s'appliquent des
micro-paiements : certaines sont payées en centimes de dollars, un ou deux dollars pour les
plus élaborées. L'institut américain Pew Research Center estime que les deux tiers des tâches
proposées sur Amazon Mechanical Turk sont rémunérées moins de 10 centimes et la moyenne
horaire de salaire était évaluée par des chercheurs à 1,38  en 2010133. Selon une étude de la
Banque mondiale de 2013, il avait alors plus d’une centaine de plates-formes de micro-travail
dans le monde, comptabilisant autour d'un million d’inscrits134, mais des enquêtes plus
récentes ont vu ce nombre largement rehaussé, les estimations les plus actuelles allant de
quelques dizaines de millions, à plus de 100 millions de micro-travailleurs dans le monde135.
En France il y aurait environ 250 000 micro-travailleurs136. Le micro-travail peut être
considéré comme le droit héritier du taylorisme qui s'est adapté à l'économie numérique.

Le travail social en réseau 


Certains sociologues, parmi lesquels Antonio Casilli, considèrent que la présence en ligne, sur
les plateformes qui captent nos données personnelles, peut être considéré comme une forme
de travail. En effet cette activité en ligne est essentielle à la production de données qui seront
par la suite utilisées afin de faire progresser les algorithmes. Cette activité pourrait donc être
considérée comme du travail, dans la mesure où elle est créatrice de valeur pour les
plateformes.

Malgré les craintes qui règnent autour de l'hypothèse de la fin du travail, cette idée semble
actuellement relever du fantasme. Le travail humain demeure essentiel à la phase d'apprentissage
des intelligence artificielle. Même entraînée et fonctionnelle, une intelligence artificielle nécessite
souvent des vérifications humaines afin d'assurer son bon fonctionnement. L'exemple le plus notoire
dans le domaine est celui des assistants vocaux, Amazon assume écouter les conversations des
utilisateurs d'Alexa afin « d'améliorer l'expérience utilisateur »137, or ce sont bien des humains qui
sont derrière ces écoutes. De même les voitures dîtes autonomes d'Uber ne peuvent pas fonctionner
sans opérateur de conduite, qui n'est pas au volant, mais qui doit guider le véhicule en participant à
la reconnaissance d'images fournis par les caméras en direct. Uber a d'ailleurs décidé de doubler le
nombre de ces opérateurs de conduite après le premier accident mortel de début 2018138. L'analyse
du digital labour met en lumière toute l'ambivalence actuelle de l'intelligence artificielle. Lorsque
les grandes plateformes du numériques et les ingénieurs annoncent le remplacement de l'homme par
les machines, une étude sociologique concrète nous montre que pour l'instant, le travail humain est
essentiel pour combler les lacunes de l'intelligence artificielle. Il semble donc que derrière les
promesses d'automatisation, se cache finalement un précarisation du statut des travailleurs (dans le
cas du travail à la demande), un parcellisation extrême des tâches (dans le cas du micro-travail) et
une invisibilisation du travail (dans le cas du travail social en réseau)139.

Perspectives et projections dans le futur


Des chercheurs de l’Institut de l’avenir de l’humanité de l’Université d'Oxford, de l’Université Yale
et d’AI Impact ont sondé 352 experts en apprentissage par machine pour prévoir les progrès de l’IA
au cours des prochaines décennies140.
Les experts ont été interrogés sur le calendrier des capacités et des professions spécifiques, ainsi que
leurs prédictions quant à savoir quand l’IA deviendra supérieure aux humains dans toutes les
tâches140. Et quelles en seraient les implications sociales également140. Les chercheurs ont prédit
que les machines seront meilleures que les humains dans le domaine de la traduction de langues
d’ici 2024140. Elles seraient capables de rédiger des essais d’ici 2026140. De conduire des camions
d’ici 2027 et travailler dans le commerce et la vente en 2031140.
D’ici 2050, elles pourront écrire des best-sellers ou exécuter des travaux de chirurgiens140. Selon
les chercheurs, il existe 50 % de chance pour que l’intelligence artificielle dépasse les humains dans
tous les domaines en seulement 45 ans140. Et, selon la même probabilité, ils disent que les
machines pourraient prendre en charge tous les emplois humains en 120 ans140. Certains disent
même que cela pourrait se produire plus tôt140.

Dans la science-fiction

HAL 9000.
Article détaillé : Liste d'ordinateurs de fiction.
  Voir aussi la catégorie :  Intelligence artificielle dans l'art et la culture 

Une machine ayant une conscience et capable d’éprouver des sentiments — ou de faire comme si
c'était le cas — est un grand thème classique de la science-fiction, notamment des romans d’Isaac
Asimov sur les robots.
Ce sujet a toutefois été exploité très tôt, comme dans le récit des aventures de Pinocchio, publié en
1881, où une marionnette capable d’éprouver de l’amour pour son créateur cherche à devenir un
vrai petit garçon, ou dans L'Homme le plus doué du monde, une nouvelle de l'Américain Edward
Page Mitchell où le cerveau d'un simple d'esprit est remplacé par un ordinateur inspiré des
recherches de Charles Babbage. Le roman Le Miroir flexible de Régis Messac propose quant à lui le
principe d'une intelligence artificielle faible, mais évolutive, avec des automates inspirés de formes
de vie simples, réagissant à certains stimuli tels que la lumière. Cette trame a fortement inspiré le
film A.I. Intelligence artificielle réalisé par Steven Spielberg, sur la base d'idées de Stanley Kubrick,
lui-même inspiré de Brian Aldiss. L'œuvre de Dan Simmons, notamment le cycle d'Hypérion,
évoque l'intelligence artificielle. Destination vide de Frank Herbert, met en scène de manière
fascinante l'émergence d'une intelligence artificielle forte. Plus récemment, l'écrivain français
Christian Léourier a placé une intelligence artificielle au cœur de son roman court Helstrid (2018)
dans lequel cette IA laisse un être humain mourir, contrevenant ainsi aux trois lois de la robotique
instaurées par Isaac Asimov près de quatre-vingts ans plus tôt.
Les androïdes faisant preuve d'intelligence artificielle dans la fiction sont nombreux : le personnage
de Data de la série télévisée Star Trek  : The Next Generation est un être cybernétique doué
d'intelligence, avec des capacités importantes d'apprentissage. Il est officier supérieur sur le
vaisseau Enterprise et évolue aux côtés de ses coéquipiers humains qui l'inspirent dans sa quête
d'humanité. Il est la représentation type de l'androïde, tel qu'il était pensé dans les années 1980. Son
pendant cinématographique est Bishop dans les films Aliens (1986) et Alien 3 (1992). Dans le
manga Ghost in the Shell, une androïde s’éveille à la conscience. Dans la saga Terminator avec
Arnold Schwarzenegger, le T-800 reprogrammé, conçu initialement pour tuer, semble dans la
capacité d'éprouver des sentiments humains. Par ailleurs, les Terminators successifs sont envoyés
dans le passé par Skynet, une intelligence artificielle qui a pris conscience d'elle-même, et du
danger que représentent les humains envers elle-même.

Quelques IA célèbres dans la science-fiction


[afficher]
IA dans la science-fiction
 

L'intelligence artificielle et les jeux


Les jeux, notamment les jeux de stratégie, ont marqué l’histoire de l’intelligence artificielle, même
s’ils ne mesurent que des compétences particulières, telles que la capacité de la machine en matière
de calcul de probabilités, de prise de décision mais aussi d’apprentissage.
Hans Berliner (1929-2017), docteur en science informatique à l'université Carnegie-Mellon et fort
joueur d'échecs, fut un des pionniers de la programmation pour les ordinateurs de jeu. Ses travaux
commencèrent par un programme capable de battre un humain professionnel au backgammon, puis,
à partir des années 1960 et avec l'aide d'IBM, il fit des recherches pour créer un programme capable
de rivaliser avec des grands maîtres du jeu d'échecs. Ses travaux contribuèrent quelques décennies
plus tard à la réalisation du supercalculateur Deep Blue142.
Outre la capacité des jeux à permettre de mesurer les performances de l'intelligence artificielle, que
ce soit au travers un score ou un affrontement face à un humain, les jeux offrent un environnement
propice à l'expérimentation pour les chercheurs, notamment dans le domaine de l'apprentissage par
renforcement143.

Othello
Dans le jeu Othello, sur un plateau de 8 cases sur 8, chaque joueur place tour à tour des pions de sa
couleur (noir ou blanc). Le vainqueur est celui qui possède les pions de la couleur dominante.
L'une des premières intelligences artificielles pour l'Othello est IAGO, développée en 1976 par
l'université Caltech de Pasadena (Californie), qui bat sans difficultés le champion japonais Fumio
Fujita.
Le premier tournoi d'Othello hommes contre machines est organisé en 1980. Un an plus tard, un
nouveau tournoi de programmes regroupent 20 systèmes144. C'est entre 1996 et 1997 que le
nombre de programmes explose : Darwersi (1996-1999) par Olivier Arsac, Hannibal (1996) par
Martin Piotte et Louis Geoffroy, Keyano (1997) par Mark Brockington, Logistello (1997) par
Michael Buro, 

Échecs
Article détaillé : Programme d'échecs.

Un supercalculateur IBM similaire à Deep Blue, qui a battu le champion du monde d'échecs en titre
dans un match en 1997.
En 1968, le maître international anglais David Levy lança un défi à des spécialistes en intelligence
artificielle, leur pariant qu'aucun programme informatique ne serait capable de le battre aux échecs
dans les dix années à venir. Il remporta son pari, n'étant finalement battu par Deep Thought qu'en
1989145.
En 1988, l'ordinateur HiTech de Hans Berliner fut le premier programme à battre un grand maître
du jeu d'échecs, Arnold Denker (74 ans) en match (3,5-1,5)146,e. Par la suite, de forts joueurs
furent battus, comme le grand maître Bent Larsen (alors à 2560 points Elo), vaincu en 1988 par
Deep Thought dans un tournoi en Californie147,148.
En mai 1994, à Munich, le programme Fritz 3, tournant sur un ordinateur avec un monoprocesseur
Pentium à 90 , gagna une partie de blitz dans un tournoi contre le champion du monde d'échecs
Garry Kasparov et, en août 1994, lors du premier tour du grand Prix d'Intel à Londres, le champion
du monde affronta Chess Genius 2.9 (tournant sur un Pentium à 100 ) en semi-rapide (30 min la
partie) et perdit 0.5-1.5 (une nulle et une défaite)149.
En 1997, la victoire du supercalculateur conçu par IBM, Deep Blue (surnommé Deeper Blue lors de
ce match revanche), contre Garry Kasparov (3,5–2,5) a marqué un tournant : pour la première fois,
le meilleur joueur humain du jeu d'échecs était battu en match (et non lors d'une partie unique) par
une machine.
Article détaillé : Matchs Deep Blue contre Kasparov.
En juin 2005, le supercalculateur Hydra gagne face au grand maître Michael Adams par 5 victoires,
une nulle, et aucune défaite150.
En novembre 2006, Deep Fritz gagne face au champion du monde Vladimir Kramnik par 2
victoires, 4 nulles et aucune défaite, plaçant notamment dans la deuxième partie un échec et mat
élémentaire (mat en un coup) que Kramnik ne vit pas, fatigué par ses efforts durant le match151.
En 2010, l'ancien champion du monde Veselin Topalov confirme utiliser pour sa préparation au
championnat du monde d'échecs 2010 le superordinateur Blue Gene/P, doté alors de
8 792 processeurs152.
En , une version généraliste d'AlphaGo Zero — successeur du programme AlphaGo de DeepMind,
voir plus bas dans la section Go — nommée AlphaZero, a été développé, pour jouer à n'importe quel jeu
en connaissant seulement les règles, et en apprenant seul à jouer contre lui-même. Ce programme a
été ensuite entraîné pour le Go, le Shogi et les échecs. Après 9 heures d'entrainement, AlphaZero a
battu le programme d'échecs Stockfish, avec 28 victoires, 72 nulles et aucune défaite. Il faut
cependant noter que la puissance de calcul disponible pour AlphaZero (4 TPUv2 pour jouer, soit
720 Teraflops) est infiniment supérieure à la puissance disponible pour Stockfish, qui n'utilise que
64 cœurs Intel153. Il a également réussi à battre après apprentissage le programme de shōgi
Elmo (en)154,155.

Go
Articles détaillés : Go en informatique et Match AlphaGo - Lee Sedol.
En 2015, l'IA réalise des progrès significatifs dans la pratique du go, plus complexe à appréhender
que les échecs (entre autres à cause du plus grand nombre de positions : 10170 au go, contre 1050
pour les échecs, et de parties plausibles : 10600 au go, contre 10120 pour les échecs)156.
En , AlphaGo, un logiciel d'IA conçu par DeepMind, filiale de Google, bat pour la première fois
Fan Hui, le triple champion européen de go157 et ainsi relève ce qu'on considérait comme l'un des
plus grands défis pour l'intelligence artificielle. Cette tendance se confirme en mars 2016 quand
AlphaGo bat par trois fois consécutives le champion du monde de la discipline, Lee Sedol, dans un
duel en cinq parties158. Lee Sedol a déclaré au terme de la seconde partie qu'il n'avait trouvé
« aucune faiblesse » chez l'ordinateur et que sa défaite était « sans équivoque ».

Bridge

Cette section ne cite pas suffisamment ses sources (avril 2019). 


Au bridge, une référence est le logiciel Will-Bridge[réf. nécessaire] créé dans les années 1980
utilisant les systèmes experts, la logique modale et la métaconnaissance pour résoudre l'ensemble de
la problématique du jeu : enchères, entames et jeu de la carte.
Un article de Philippe Pionchon159 explique comment ce logiciel est venu à bout de ce problème,
réputé insoluble à l'époque, et souligne le « paradoxe de la difficulté » qui fait qu'au bridge un
logiciel a en plus une « obligation de résultat »[Quoi ?], justifiant l'absence d'autres logiciels de
bridge atteignant les performances humaines. Ce logiciel, nécessitant d'avoir une compréhension
globale des situations, a apporté des avancées importantes[Lesquelles ?] dans le domaine des
systèmes experts[réf. nécessaire], créant les « systèmes experts hybrides » utilisables en robotique
ou par les véhicules autonomes, et les « systèmes experts bimoteurs »[Quoi ?] très efficaces pour
résoudre le problème de l'explication négative[Quoi ?].
Jeopardy!

Réplique de Watson, lors d'un concours de Jeopardy!


En 2011, l'IA Watson conçue par IBM, bat ses adversaires humains au jeu télévisé américain
Jeopardy!156. Dans ce jeu de questions/réponses, la compréhension du langage est essentielle pour
la machine ; pour ce faire, Watson a pu s'appuyer sur une importante base de données interne lui
fournissant des éléments de culture générale, et avait la capacité d'apprendre par lui-même,
notamment de ses erreurs. Il disposait néanmoins d’un avantage, la capacité d’appuyer
instantanément (et donc avant ses adversaires humains) sur le buzzer pour donner une réponse156.

Poker
Article connexe : Libratus.
Le premier programme informatique à avoir gagné un tournoi de poker significatif face à des
joueurs professionnels humains est Polaris, en 2007160,161 et, depuis, les efforts pour améliorer ce
résultat n'ont pas cessé.
En 2017, lors du tournoi de poker « Brains Vs. Artificial Intelligence : Upping the Ante »
(« Cerveau contre Intelligence Artificielle : on monte la mise ») organisé dans un casino de
Pennsylvanie, l’intelligence artificielle Libratus, développée par des chercheurs de l'université
Carnegie-Mellon de Pittsburgh, est confrontée à des adversaires humains dans le cadre d'une partie
marathon étalée sur 20 jours161. Les joueurs humains opposés à Libratus, tous professionnels de
poker, affrontent successivement la machine dans une partie en face à face (heads up  (en)) selon les
règles du « No Limit Texas hold'em » (no limit = mises non plafonnées), la version actuellement la
plus courante du poker. Les parties étaient retransmises en direct et durant huit heures par jour sur la
plateforme Twitch162.
Au terme de plus de 120 000 mains jouées, Libratus accumule 1 766 250 dollars (virtuels). Le
joueur humain ayant perdu le moins d'argent dans son duel face à la machine, Dong Kim, est tout de
même en déficit de plus de 85 000 dollars. Dans leurs commentaires du jeu de leur adversaire, les
joueurs humains ont admis qu'il était à la fois déconcertant et terriblement efficace. En effet,
Libratus « étudiait » chaque nuit, grâce aux ressources d'un supercalculateur situé à Pittsburgh, ses
mains jouées durant la journée écoulée, utilisant les 15 millions d’heures/processeur de calculs du
supercalculateur162.
La victoire nette et sans bavure de la machine marque une nouvelle étape dans le développement de
l'intelligence artificielle, et illustre les progrès accomplis dans le traitement par l'IA des
« informations imparfaites », où la réflexion doit prendre en compte des données incomplètes ou
dissimulées. Les estimations du nombre de possibilités d'une partie de poker No Limit en face à
face est d'environ de 10160162.
Auparavant en 2015, le joueur professionnel Doug Polk (en) avait remporté la première édition de
cet évènement contre l'IA baptisée Claudico (en)162.

Quake III
En 2018, une équipe de chercheurs de Google DeepMind affirme sur son blog163 avoir conçu un
programme d'intelligence artificielle capable de battre les champions humains du jeu vidéo de tir à
la première personne Quake III, en utilisant les bots (les robots) intégrés au jeu164. Le mode choisit
était le CTF (Capture the flag, « capture du drapeau » en français) : dans ce mode, le but du jeu est
de récupérer le drapeau de la base ennemie pour le ramener dans sa propre base, tout en défendant
son propre drapeau des assauts ennemis165.
N'ayant reçu aucune information avant de commencer à jouer, ces bots (nommés « agents
coopératifs complexes » par Deepmind)165 ont joué des milliers de parties entre eux, apprenant de
leurs erreurs pour perfectionner leurs tactiques164 (« comment voir, agir, coopérer et concourir dans
des environnements invisibles, le tout à partir d’un seul signal de renforcement par match » disant
aux agents s'ils avaient gagné ou non)165. À chaque nouvelle partie, une nouvelle map (zone de
jeu)f était générée automatiquement (de manière procédurale)163, permettant de compliquer la
tâche aux bots. Les trente bots se sont affrontés sur un demi-million de parties (450 000)165, afin de
maîtriser l’environnement et les différentes tactiques et stratégies inhérentes au jeu164,165. Selon
les chercheurs : « Grâce à de nouveaux développements dans l’apprentissage par renforcement, nos
agents ont atteint des performances de niveau humain dans Quake III Arena CTF, un environnement
multi-agents complexe et l’un des jeux multijoueurs cultes en 3D à la première personne. Ces
agents démontrent leur capacité à faire équipe avec d’autres agents artificiels et des joueurs
humains »165. Pour Deepmind, « les agents n’ont jamais été informés des règles du jeu, mais ont
appris ses concepts fondamentaux et [ont] développé efficacement une intuition pour le CTF »165.
Au lieu de former un seul agent, les chercheurs ont entrainé « une population d’agents » qui
apprenaient en jouant les uns avec les autres, fournissant ainsi « une diversité de coéquipiers et
d’adversaires »165. Chaque agent dans la population possède « son propre signal de récompense
interne, ce qui permet aux agents de générer leurs propres objectifs internes, comme la capture d’un
drapeau »165. « Un processus d’optimisation à deux niveaux optimise les récompenses internes des
agents directement pour gagner », en se servant de l’apprentissage par renforcement165. Selon les
chercheurs, « les agents opèrent à deux échelles de temps, rapide et lent, ce qui améliore leur
capacité à utiliser la mémoire et à générer des séquences d’actions cohérentes »165. Selon un
graphique de progression dévoilé par Deepmind163, les agents dépassaient déjà le niveau des
joueurs humains moyens après 150 000 parties165.
Par la suite, un tournoi est organisé entre des binômes de machines contre des binômes humains
(40 joueurs humains)165, ainsi que des duos mixtes humains/machines entre eux164. Selon
DeepMind, les équipes de bots atteignirent un taux de victoire probable de 74 %. En comparaison,
les très bons joueurs humains n’ont atteint que 52 % de taux de victoire164. Les équipes composées
d'agents uniquement sont restées invaincues lors de leurs confrontations avec équipes composées
exclusivement d’humains. Les duo d'agents avaient 95 % de chances de gagner contre des équipes
humains/agent artificiel165.
Par ailleurs, les chercheurs ont observé que la probabilité de victoire par les bots baissait si le
nombre de membres dans l'équipe augmentait. Cela s'explique par le fait que l'intelligence
artificielle apprend à jouer au jeu en solo, mais ne comprend pas encore complètement la notion de
coopération, souvent capitale dans un jeu en équipe. Ce paramètre était l'un des objets de cette
expérience, visant à améliorer la conscience collective des IA, ce qui est un point déterminant dans
le développement d’une espèce164.

Starcraft II
Le , Google DeepMind présente sur son blog AlphaStar166, une intelligence artificielle dédiée au
jeu de stratégie en temps réel StarCraft II qui a affronté deux joueurs humains lors d'un match
retransmis en direct sur Internet. Durant cet évènement, AlphaStar bat deux joueurs professionnels,
dont Grzegorz « MaNa » Komincz, de l'équipe Team Liquid, l'un des meilleurs joueurs
professionnels au monde167. Le développement de cette intelligence artificielle a été permis par un
partenariat entre Google DeepMind et Blizzard Entertainment, l'éditeur du jeu143.
L'une des caractéristiques de cette intelligence artificielle est qu'elle propose une version
implémentant un brouillard de guerre. C'est-à-dire que, contrairement aux personnages contrôlés par
le jeu, l'intelligence artificielle n'a accès qu'aux informations auxquelles aurait accès un joueur
humain. Par ailleurs, le nombre d'actions par minute d'AlphaStar était inférieur au nombre d'actions
par minutes de ses adversaires. Ce n'est donc pas la rapidité de jeu de l'IA, mais l'efficacité de sa
stratégie qui aurait permis à AlphaStar de gagner, bien que cette question soit sujette à
controverses143.

Notes et références
Notes
1.
• « the building of computer programs which perform tasks which are, for the moment,
performed in a more satisfactory way by humans because they require high level mental
processes such as: perception learning, memory organization and critical reasoning ».
• On parle de sémantique.
• Ils occupaient donc, en nombre de comparaisons par seconde, une moyenne géométrique
entre une balance de Roberval (une opération logique par seconde) et le cerveau humain.
• Au début des années 2010, le logiciel Picasa 3.8 y arrive cependant avec un taux de réussite
le rendant tout à fait exploitable[réf. nécessaire].
• Arnold Denker était alors âgé de 74 ans et crédité d'un classement Elo de 2300, ce qui
relativise un peu la performance du programme, un fort grand maitre étant à cette époque
plus vers les 2 650–2 700 points Elo, voire davantage.
6. Une map simplifiée par rapport aux maps traditionnelles du jeu Quake III.

Références
1.
• Définition de l'Encyclopédie Larousse [archive]
• Andreas Kaplan et Michael Haenlein, Siri, Siri in my Hand, who's the Fairest in the Land?
On the Interpretations, Illustrations and Implications of Artificial Intelligence [archive],
Business Horizons,  62, o 1, 2018.
• « Comment permettre à l’Homme de garder la main ? » [archive] , sur CNIL, (consulté le 15 mai
2018),  80
• « Rapport de synthèse - France Intelligence Artificielle » [archive] , sur Ministère de
l'Enseignement supérieur et de la Recherche, .
• « Rulers of the world, unite! The challenges and opportunities of artificial
intelligence » [archive], Business Horizons, janvier, 2020
• « Votre chat est plus intelligent qu'une IA » [archive], sur Slate.fr, (consulté le 19 octobre 2019).
• http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257 [archive].
• Russell, S. et Norvig, P., Artificial Intelligence: A Modern Approach (2nd ed.), Prentice Hall,
, 932  (ISBN 0-13-790395-2) Section 1.1.
• Republié dans Collected Works of A. M. Turing, volume Mechanical Intelligence, éd. Darrel
Ince, (ISBN 978-0-444-88058-1).
• Conférence Intelligent machinery, a heretical theory donnée à la Société 51 à
Manchester [archive].
• « Can digital computers think? » [archive].
• « Can automatic calculating machines be said to think? » [archive].
• La première version de ce memorandum a été publiée à Carlsbad (Nouveau-Mexique) en
juillet 1949. Il a été reproduit dans « Translation », dans W.N. Locke, D.A. Booth, Machine
Translation of Languages, Cambridge (Massachusetts), MIT Press, , 15–23  (ISBN 0-8371-
8434-7, lire en ligne [archive])
• Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York,
NY: BasicBooks, (ISBN 978-0-465-02997-6),  17.
• Le Monde Festival : Yann Le Cun et l’intelligence artificielle [archive]
• « Intelligence Artificielle – État de l’art et perspectives pour la France » [archive], Étude
CGET (2019) [archive] (ISBN 978-2-11-152634-1) (ISSN 2491-0058)
• The State of Artificial Intelligence [archive], cbinsights.com, 2017.
• « Le lion automate de Léonard de Vinci revit » [archive], sur fr.reuters.com, (consulté le 17 avril
2017)
• « TIL PRODUCTION Un peu d'histoire » [archive], sur www.automates-boites-musique.com
(consulté le 27 janvier 2019)
• « Irving John Good »(Archive • Wikiwix • Archive.is • Google • Que faire ?) (consulté le 15
juin 2017).
• Robot à logique inductive [archive] (en anglais, PDF).
• « Singularity Institute for Artificial Intelligence »(Archive • Wikiwix • Archive.is • Google •
Que faire ?) (consulté le 15 juin 2017) (2004), Singularity Institute for Artificial Intelligence, 3
Laws Unsafe sur http://www.asimovlaws.com/ [archive], consulté le 7 août 2007, sauvé sur
web.archive.org [archive].
• « Un cerveau artificiel annoncé dans dix ans » [archive], sur Le Figaro, .
• « Scientists Worry Machines May Outsmart Man » [archive], sur New York Times, .
• « Implications of AI for Society »(Archive • Wikiwix • Archive.is • Google • Que faire ?)
(consulté le 15 juin 2017) - Association for the Advancement of Artificial Intelligence (AAAI).
• « Science goes back to basics on AI » [archive], sur BBC News, .
• « Air Force To Expand PlayStation-Based Supercomputer » [archive], sur InformationWeek,
.
• « Sony PlayStation 3 Game Consoles : Solicitation Number: FA8751-10-R-0003 » [archive],
sur fbo.gov, .
• « Air Force to use artificial intelligence and other advanced data processing to hit the enemy
where it hurts » [archive], sur Mae.Pennnet.com, .
• « Robot stealth fighter jet ready to take off » [archive], sur The Price of Rice« Boeing’s sleek
fighter-size Phantom Ray stealth jet will make its first flight by year’s end. This unmanned
airborne system is designed for a variety of warfighter roles ranging from reconnaissance
and surveillance to aerial refueling, electronic attack and hunter/killer missions. ».
• « Une intelligence artificielle peut-elle devenir présidente des États-Unis ? » [archive], sur Le
Monde, .
• « Google investit dans des recherches sur l'intelligence artificielle quantique » [archive], sur
CNET France.
• « Kurzweul Google AI » [archive], sur Wired, .
• « Hawking : « L'intelligence artificielle pourrait mettre fin à l'humanité » » [archive], sur Le
Monde, .
• « Bill Gates est « préoccupé par la superintelligence » artificielle » [archive], sur Le Monde, .
• « Les 37 projets d’Elon Musk contre les dangers de l’intelligence artificielle » [archive], sur
Le Monde, .
• « Pourquoi les rois du net rêvent d’intelligence artificielle » [archive], sur Les Échos, .
• « Mark Zuckerberg » [archive], sur www.facebook.com (consulté le 31 janvier 2019).
• Facebook ouvre un laboratoire d’intelligence artificielle à Paris [archive].
• Apple rachète la start-up d'intelligence artificielle Turi pour 200 millions de dollars [archive].
• « Alibaba's AI Outguns Humans in Reading Test », Bloomberg.com, (lire en ligne [archive],
consulté le 16 janvier 2018).
• « Fausses informations : un programme d’IA jugé trop dangereux pour être rendu public »,
Le Monde, (lire en ligne [archive], consulté le 20 février 2019).
• Hannah Jane Parkinson, « AI can write just like me. Brace for the robot apocalypse | Hannah
Jane Parkinson », The Guardian, (ISSN 0261-3077, lire en ligne [archive], consulté le 20 février 2019).
• Tom Simonite, « The AI Text Generator That's Too Dangerous to Make Public », Wired,
(ISSN 1059-1028, lire en ligne [archive], consulté le 20 février 2019).
• Jean-Claude Simon sur le Mathematics Genealogy Project [archive]
• Reconnaissance des formes et intelligence artificielle, congrès AFCET-IRIA, Toulouse 12,
13, 14 septembre 1979 [archive]. Il est intitulé « e congrès » [archive] et prend la suite du
congrès AFCET-IRIA Reconnaissance des formes et traitement des images [archive] en 1978
à Châtenay-Malabry.
• Un GRECO est un ancêtre des actuels GDR du CNRS et un PRC est un « programme de
recherche concertée ».
• « AFIA - Association Française pour l'Intelligence Artificielle » [archive], sur AFIA (consulté le
19 décembre 2017)
• Guillaume Bregeras, « Serena Capital crée un fonds big data et intelligence artificielle »,
Les Échos, (lire en ligne [archive])
• « L’Intelligence artificielle menace-t-elle nos emplois ? », Public Sénat, (lire en ligne [archive],
consulté le 22 janvier 2017)
• Vincent Fagot, « La France fait le pari de l’intelligence artificielle », Le Monde.fr,
(ISSN 1950-6244, lire en ligne [archive])
• « Éthique et numérique : les algorithmes en débat » [archive], sur www.cnil.fr (consulté le 4 avril
2018)
• « Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des
algorithmes et de l’intelligence artificielle » [archive], sur www.cnil.fr (consulté le 4 avril 2018)
• « Comment permettre à l'Homme de garder la main? » [archive], sur cnil.fr,
• « Office parlementaire d'évaluation des choix scientifiques et technologiques » [archive], sur
Assemblée nationale.fr (consulté le er février 2018)
• Johanna Diaz, « Lancement d’une consultation publique sur l’intelligence artificielle par
Cédric Villani », Actu IA.com, (lire en ligne [archive])
• Cédric Villani, Donner un sens à l'intelligence artificielle : Pour une stratégie nationale et
européenne, aiforhumanity.fr, (ISBN 978-2-11-145708-9, présentation en ligne [archive], lire en
ligne [archive] ).
• Vincent Fagot et Morgane Tual, « Intelligence artificielle : ce qu'il faut retenir du rapport de
Cédric Villani » [archive], sur Le Monde.fr, .
• « Intelligence artificielle : Macron annonce un plan à 1,5 milliard d'euros » [archive], sur Le
Parisien.fr, .
• « Pour Emmanuel Macron, l’intelligence artificielle est aussi "une révolution
politique" » [archive], sur Le Monde.fr (consulté le er avril 2018)
• « Emmanuel Macron Talks to WIRED About France's AI Strategy », Wired, (lire en
ligne [archive])
• « Microsoft ouvre une école sur l'Intelligence Artificielle en France », ZD Net, (lire en
ligne [archive]).
• Maryse Gros, « Microsoft France renforce son Ecole IA et étend son périmètre », Le Monde
Informatique, (lire en ligne [archive]).
• Julie le Bolzer, « Microsoft voit dans l'IA un vecteur d'inclusion », Les Échos, (lire en
ligne [archive]).
• Stephane Nachez, « ActuIA lance le premier magazine papier dédié à l'intelligence
artificielle » [archive], sur Actu IA, (consulté le 11 novembre 2019)
• André Le Garff, Dictionnaire de l'informatique, 1975, 576 p.
• Michael David Mitchell, « Robotique et neurosciences détectent le siège de la conscience de
soi », Actualités Mediacom, école polytechnique fédérale de Lausanne, (lire en ligne [archive]).
• « Intelligence artificielle : pensée et calcul » [archive], sur L'Internaute.com (consulté le 22 mai
2017)
• Page de Roger Penrose [archive].
• Page d'Andrei Kirilyuk [archive].
• E.T. Jaynes, Probability Theory: the Logic of Science, (ISBN 978-0-521-59271-0), également
consultable ici : http://bayes.wustl.edu/etj/prob/book.pdf [archive].
• « Intelligence artificielle, machine learning, deep learning : kézako ? » [archive], sur
ledigitalab.com,
• « L’Intelligence artificielle : 7 mythes mis à l’épreuve » [archive], sur Nexworld.fr, .
• François Rastier, Sémantique et recherches cognitives, PUF, 2001 (e éd.).
• « Turing et l’Intelligence Artificielle » [archive].
• « L’intelligence artificielle et le test de Turing » [archive].
• http://www.ibiblio.org/pub/Linux/docs/HOWTO/other-formats/pdf/AI-Alife-HOWTO.pdf 
[archive].
• Corentin Durand, « Saurez-vous entendre la différence entre Bach et l'IA musicale
DeepBach ? » [archive], sur Numerama.com,
• « Polyphonic music generation in the style of Bach » [archive], sur flow-machines.com
(consulté le 2 juin 2018)
• « Bientôt un hedge fund contrôlé par intelligence artificielle ? » [archive], BFM TV, 17 mars
2015.
• « The Pentagon’s ‘Terminator Conundrum’: Robots That Could Kill on Their
Own » [archive], Matthew Rosenberg et John Markoffoct, The New York Times.com, 25
octobre 2016.
• « Project Maven to Deploy Computer Algorithms to War Zone by Year’s End » [archive], sur
https://www.defense.gov [archive],
• Par Nathalie Guibert, « Les défis militaires de l’intelligence artificielle » [archive], sur
lemonde.fr,
• « Maladies de l’œil : l'intelligence artificielle meilleure que les médecins ? », Les Echos.fr,
(lire en ligne [archive])
• Alexandre Boero, « La police britannique travaille sur une IA qui sera capable de devancer
votre crime » [archive], sur Clubic, .
• Stephen Buranyi, « The rise of the racist robots » [archive], The Guardian, .
• « Justice Prédictive : de l'idée à la réalité » [archive], sur www.justice-predictive.com (consulté
le 27 janvier 2019)
• « Les enjeux de l’intelligence artificielle dans la robotique », Journal Innovations et
Technologies (JITEC), o 210, ,  I-VI (lire en ligne [archive] , consulté le 3 février 2019).
• Amélie Cordier, Introduction à l’intelligence artificielle développementale (cours),
Laboratoire d'informatique en image et systèmes d'information, 41  (lire en ligne [archive] ).
• Michel Bret, Edmond Couchot et Patrice Besnard (restauration), « Les Pissenlits » [archive],
vidéo de l'installation interactive, durée 1  8 , sur Université Paris-VIII, (consulté le 21 juin
2018)
• Living art : L’art numérique, CNRS Éditions (résumé [archive])
• Katerina Cizek, William Uricchio et Sarah Wolozin, « Part 6: Media co-creation with non-
human systems », dans Collective Wisdom, PubPub, (lire en ligne [archive]).
• « Obvious, les Français derrière la première peinture d’une IA vendue aux
enchères » [archive], sur France 24.fr, .
• « Une peinture, réalisée par une Intelligence artificielle, mise aux enchères » [archive], sur
objetconnecte.net (consulté le 28 novembre 2018).
• « Quand l’intelligence artificielle affole le marché de l’art » [archive], sur Contrepoints, .
• « Comment l’intelligence artificielle va-t-elle changer notre vie quotidienne ? » [archive], sur
Robots & Cie, (consulté le 27 janvier 2019).
• « Quand l’IA aide les développeurs à programmer » [archive], sur Mircrosoft (consulté le 27
janvier 2019).
• Ivan Capecchi, « Médias, faites GAFA à l’IA ! », L’ADN.eu, (lire en ligne [archive])
• « The A.I. Chair » [archive], sur Gessato (consulté le 27 février 2020).
• Francis Donnat, L'intelligence artificielle, une menace pour la vie privée ?, Revue Pouvoirs
n°170, Seuil, , 210  (ISBN 978-2-02-140678-8), p. 95
• Thomas Lalaurie, « Intelligence artificielle : la Commission franchit une étape dans ses
travaux sur les lignes directrices en matière d'éthique » [archive], sur ec.europa.eu, .
• « Bill Gates » [archive], sur Universalis.fr (consulté le 16 octobre 2016)
• Inria, « Intelligence artificielle, les défis actuels et l'action d'Inria - Inria », Inria, (lire en
ligne [archive], consulté le 15 décembre 2016)
• Irving J. Good, « Speculations Concerning the First Ultraintelligent Machine », in
Advances in Computers,  6, 1966,  31-88.
• Eliezer Yudkowsky, Scruter la Singularité, mai 2004 [lire en ligne [archive]] (trad. de Staring into
the Singularity , 1996).
• Ray Kurzweil, Humanité 2.0 : La Bible du changement, 2007 (édition originale, The
Singularity is Near: When Humans Transcend Biology, 2007).
• « Intelligence artificielle : pourquoi Musk, Hawking et Gates s'inquiètent ? » [archive], Les
Échos.fr, 30 janvier 2015.
• « Selon Stephen Hawking, l’intelligence artificielle est un danger pour l’humanité - Web
Développement Durable » [archive], sur Web Développement Durable (consulté le 28 février
2016).
• « Intelligence Artificielle Web Summit » [archive]
• L'intelligence artificielle inquiète les grands cerveaux contemporains [archive], France 24, 2
février 2015.
• L'intelligence artificielle pourrait mettre 50% de l'humanité au chômage. L'Express -
15/02/16 [archive].
• Morgane Tual, « Pourquoi Google a conçu un « bouton rouge » pour désactiver des
intelligences artificielles », Le Monde.fr, (ISSN 1950-6244, lire en ligne [archive], consulté le 8 juin
2016).
• « http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-
2017-0051+0+DOC+PDF+V0//FR » [archive]
• Mélinée Le Priol, La Croix, 5 octobre 2017, « Une nouvelle religion fondée sur
l’intelligence artificielle suscite des inquiétudes », lire en ligne [archive]
• Lewis Mumford, Le Mythe de la machine, deux volumes, 1967-1970; tard., Fayard, 1974.
• Jacques Ellul, La Technique ou l'Enjeu du siècle, 1954; e édition : Economica 2008.
• Günther Anders, L'obsolescence de l'homme, tome 1, 1956; tome 2, 1980; tard. fr .2002 et
2011.
• Pièces et Main d'Œuvre Site officiel [archive].
• Technologos Site officiel [archive].
• François Jarrige, Techno-critiques. Du refus des machines à la contestation des
technosciences, La Découverte, 2014.
• Jacques Ellul, L'Illusion politique, 1965; e édition : La Table ronde, 2004.
• Technologos, "Qui sommes-nous ?" [archive], articles 31 à 33.
• Jacques Ellul, Les Nouveaux Possédés, 1973 ; e éd. Mille et une nuits/Fayard, 2003,  316.
• « Intelligence artificielle : les risques d'une utilisation malveillante » [archive], sur
https://www.futura- [archive] sciences.com, publié le 21/02/2018 (consulté le 21 février 2018)
• Morgane Tual, « Intelligence artificielle : les géants du Web lancent un partenariat sur
l’éthique », Le Monde.fr, (ISSN 1950-6244, lire en ligne [archive]).
• « Intelligence artificielle : Google DeepMind se dote d’une unité de recherche sur
l’éthique », Le Monde.fr, (ISSN 1950-6244, lire en ligne [archive]).
• « Lethal Autonomous Weapons Pledge » [archive], sur futureoflife.org (consulté le 13 août 2018)
• « Des milliers d’experts en intelligence artificielle s’engagent à ne pas participer à la
création d’armes », Le Monde.fr, (lire en ligne [archive])
• Carl Benedikt Frey et Michael A. Osborne, The Future of Employment: How Susceptible
Are Jobs to Computerisation?, 17 septembre 2013 [lire en ligne [archive]] .
• David H. Autor, « Why Are There Still So Many Jobs? The History and Future of Workplace
Automation », in Journal of Economic Perspectives,  29, o 3, été 2015,  3-30 [lire en
ligne [archive]] .
• Antonio A. Casilli, En attendant les robots: Enquête sur le travail du clic, Éditions du Seuil,
2019 (ISBN 978-2-0214-0188-2).
• Site officiel de Mighty IA [archive].
• John Joseph Horton et Lydia B. Chilton, « The labor economics of paid crowdsourcing »,
Proceedings of the 11th ACM conference on Electronic commerce - EC '10, ACM Press, ,
209 (ISBN 9781605588223, DOI 10.1145/1807342.1807376, présentation en ligne [archive]).
• « Microtravail et microsalaire pour experts ou tâcheron » [archive], Le Monde, (consulté le 19
avril 2019).
• « Avec le sociologue Antonio Casilli, une enquête sur « les galériens du clic » » [archive],
France Info, (consulté le 19 avril 2019).
• « Jobs du clic : la France compte plus de 250 000 micro-travailleurs » [archive], Le Monde,
(consulté le 19 avril 2019).
• « Tech. Amazon écoute-t-il vos conversations grâce à Alexa ? » [archive], Courrier
international, (consulté le 19 avril 2019).
• Julien Cadot, « Uber relance ses tests de voiture autonome... en « mode manuel » -
Tech » [archive], Numerama, (consulté le 19 avril 2019).
• Antonio Casilli, « Digital Labor : travail, technologies et conflictualités », Qu’est-ce que le
digital labor ?, (ISBN 978-2-86938-2299, lire en ligne [archive]).
• Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, Owain Evans, « When Will AI
Exceed Human Performance? Evidence from AI Experts » [archive], arxiv.org, 24 mai 2017.
• « Westworld » [archive], sur Allociné.fr (consulté le 22 décembre 2016)
• Article de Dylan L. McClain, New York Times, 16 janvier 2017, et article « Hans J. Berliner
(1929-2017), Grand Maître d'échecs et programmeur de génie », Denis Rozier, Le Courrier
des Échecs o 639, mars 2017.
• Thibault Neveu, « Intelligence artificielle : démonstration en direct des nouvelles
performances de DeepMind » [archive], sur actuia.com, .
• « Les jeux et l'intelligence artificielle » [archive], sur u-picardie.fr (consulté le 27 septembre 2016)
• David Levy et Monroe Newborn, « More Chess and Computers: The Microcomputer
Revolution, The Challenge Match », Computer Science Press, Potomac (Maryland) et
Batsford, Londres, 1980. (ISBN 0-914894-07-2)
• « For First Time, a Chess Computer Outwits Grandmaster in Tournament » [archive], Harold
C. Schonberg, The New York Times.com, 26 septembre 1988.
• « Bent Larsen, Chess Grandmaster, Dies at 75 » [archive], Dylan Loeb McClain, The New
York Times.com, 11 septembre 2010.
• « Chess legend Bent Larsen turns 75 » [archive], ChessBase.com, 3 mars 2010.
• « L’espèce humaine, échec et mat » [archive], Pierre Barthélémy, Libération.fr, 11 septembre
2014 (consulté le 29 janvier 2016).
• « Adams vs Hydra: Man 0.5 – Machine 5.5 » [archive], ChessBase.com, 28 juin 2005.
• « How could Kramnik overlook the mate? » [archive], ChessBase.com, 29 novembre 2006.
• « Topalov training with super computer Blue Gene P » [archive], sur ChessDom.com
(consulté le er juillet 2016).
• « Learning, Deep or not Deep, de MENACE à AlphaGo » [archive], sur alliot.fr.
• David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou et Matthew Lai
« Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning
Algorithm [archive] », .
• Sarah Knapton et Leon Watson, « Entire human chess knowledge learned and surpassed by
DeepMind's AlphaZero in four hours » [archive], sur telegraph.co.uk, .
• « Jeu de go : comment savoir si les programmes d’intelligence artificielle sont vraiment…
intelligents » [archive], Le Monde.fr, 9 mars 2016.
• David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur
Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy
Lillicrap, Hui Fan, Laurent Sifre, George van den Driessche, Thore Graepel et Demis
Hassabis, « Mastering the game of Go without human knowledge », Nature,  550, o 7676, ,
354–359 (ISSN 0028-0836, DOI 10.1038/nature24270, lire en ligne [archive], consulté le 10 décembre 2017)
• « Jeu de go : Le champion du monde de nouveau battu par l'ordinateur de Google » [archive],
L'Obs.com, 10 mars 2016.
• « L'Intelligence Artificielle et le Bridge » [archive], Philippe Pionchon, will-bridge.com,
publié en 1984 dans la revue Le Bridgeur (consulté le 12 août 2018).
• J. Rehmeyer, N. Fox et R. Rico, « Ante up, human: The adventures of Polaris the poker-
playing robot », Wired,  16, o 12, ,  86–191
• Michael Bowling, Neil Burch, Michael Johanson et Oskari Tammelin, « Heads-Up Limit
Hold’em Poker Is Solved », Comm.of the ACM,  60, o 11, ,  81
• « Comment une-intelligence artificielle ridiculise les meilleurs joueurs de poker » [archive],
sur Numerama.com,
• Capture the Flag: the emergence of complex cooperative agents » [archive], deepmind.com, 3
juillet 2018.
• « Une intelligence artificielle dépasse les meilleurs joueurs humains de "Quake
III" » [archive], Bastien Lion, Le Monde.fr, 5 juillet 2018.
• « Comment Quake III Arena a servi à DeepMind pour améliorer la coopération entre
IA » [archive], Julien Lausson, Numerama.com, 6 juillet 2018.
• « AlphaStar: Mastering the Real-Time Strategy Game StarCraft II » [archive], deepmind.com,
24 janvier 2019.
167.« AlphaStar, l'IA de Google Deepmind, a battu des joueurs pro à Starcraft » [archive],
futura-sciences.com, 25 janvier 2019.

Annexes
Sur les autres projets Wikimedia :
• intelligence artificielle, sur le Wiktionnaire
• Département:Intelligence artificielle, sur Wikiversity

Bibliographie
Aspects techniques
• Stuart J. Russell et Peter Norvig, Intelligence artificielle (3e éd.) [« Artificial Intelligence: A
Modern Approach (en) »], Pearson Education France, , 1216  (ISBN 978-2-7440-7455-4,
présentation en ligne [archive]).
• Alan Turing, Jean-Yves Girard, La Machine de Turing, Éditions du Seuil, [détail de l’édition],
Les Ordinateurs et l'Intelligence,  133–174
• Claire Rémy, L'Intelligence artificielle, (ISBN 2-10-002258-X)
• Jean-Marc Alliot et Thomas Schiex, Intelligence artificielle et informatique théorique,
CEPADUES, (ISBN 2-85428-578-6)
• Michael R. Genesereth et Nils J. Nilsson, Logical Foundations of Artificial Intelligence, Los
Altos, Californie, États-Unis, Morgan Kaufmann, , 405  [détail de l’édition] (ISBN 0-934613-31-1)
• Jean-Louis Laurière, Intelligence Artificielle, Eyrolles,
• Jean-Paul Delahaye, Outils logiques pour l'intelligence artificielle, Eyrolles, [détail des
éditions] (ISBN 978-2212084122)
• Jean-Paul Haton, Marie-Christine Haton, L'Intelligence Artificielle, Que sais-je ?, (ISBN 2-13-
043164-X)

Aspects prospectifs

• Étude : CGET (2019) Intelligence artificielle – État de l’art et perspectives pour la France ;
21 février 2019. URL:https://cget.gouv.fr/ressources/publications/intelligence-artificielle-
etat-de-l-art-et-perspectives-pour-la-france [archive] (ISBN 978-2-11-152634-1) (ISSN 2491-0058)
Aspects philosophiques

• Marie David et Cédric Sauviat, Intelligence artificielle, la nouvelle barbarie, Éditions du


Rocher, , 313 
• Laurent Alexandre, La Guerre des intelligences. Intelligence artificielle versus intelligence
humaine, JC Lattès, , 250  (ISBN 978-2-7096-6084-6, lire en ligne [archive])
• Gilbert Boss, Les machines à penser - L'homme et l'ordinateur, Éditions du Grand midi, ,
202  (ISBN 2-88093-105-3)
• Jacques Bolo, Philosophie contre intelligence artificielle, Lingua Franca, , 375  (ISBN 2-
912059-00-3)
• Alan Ross Anderson, Pensée et machine, Éditions Champ Vallon, ( 1993), 150  (ISBN 2-
903528-28-4)
• Jean Sallantin et Jean-Jacques Szczeciniarz, Le Concept de preuve à la lumière de
l'intelligence artificielle, Presses universitaires de France, , 370  (ISBN 2-13-050104-4)
• Jean-Gabriel Ganascia, L'Âme-machine, les enjeux de l'intelligence artificielle, Éditions du
Seuil, Collection Science Ouverte, , 284  (ISBN 2-02-011470-4)
• Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, (ISBN 978-0199678112)
Fondements cognitifs, psychologiques et biologiques

• Hervé Chaudet et Liliane Pellegrin, Intelligence artificielle et psychologie cognitive,


Dunod, , 179  (ISBN 2-10-002989-4)
Aspects linguistiques

• Gérard Sabah, L'Intelligence artificielle et le langage, Représentations des connaissances,


Processus de compréhension,  1, Hermès, (ISBN 2-86601-134-1)
• Gérard Sabah, L'Intelligence artificielle et le langage, Représentations des connaissances,
Processus de compréhension,  2, Hermès, , 768  (ISBN 2-86601-187-2)
• Gérard Sabah, Compréhension des langues et interaction (Traité IC2, Série Cognition et
Traitement de l'Information), Hermès science: Lavoisier, (ISBN 2-7462-1256-0)
• Krzysztof Wołk, Machine learning in translation corpora processing, Boca Raton, FL,
Taylor & Francis, (ISBN 978-0367186739)
Aspects stratégiques

• Henry Kissinger, Eric Schmidt et Daniel Huttenlocher, « La métamorphose » [archive], sur Le


Grand Continent, (consulté le 27 février 2020).
Histoire

• Daniel Crevier et Nathalie Bukcek, À la recherche de l'intelligence artificielle, Flammarion,


(ISBN 2-08-081428-1), (traduction de The Tumultuous history of the search for artiticial
intelligence.)
Vulgarisation

• Gérard Tisseau et Jacques Pitrat, Intelligence artificielle : problèmes et méthodes, Presses


universitaires de France, , 255  (ISBN 2-13-047429-2)
• Jack Challoner, L'Intelligence artificielle : Un guide d'initiation au futur de l'informatique et
de la robotique, Pearson Education, (ISBN 2-7440-1600-4)
• Hugues Bersini, De l'intelligence humaine à l'intelligence artificielle, Ellipse, (ISBN 2-7298-
2813-3)
• Jean-Gabriel Ganascia, L'Intelligence artificielle, Éditions du Cavalier bleu,  « Idees
recues », (ISBN 978-2846701655)
• Howard Selina (illustrations) et Henry Brighton (texte), L'Intelligence artificielle en images,
EDP Sciences,  « Aperçu », (ISBN 9782759817726)
• Marion Montaigne (dessin) et Jean-Noël Lafargue (scénario), L'Intelligence artificielle :
fantasmes et réalités, Le Lombard,  « La petite bédéthèque des savoirs »,
(ISBN 9782803636389)

Articles connexes
Notions générales

• Agent intelligent
• Agent logiciel
• Agent virtuel
• Algorithme
• Algorithme génétique
• Applications de l'intelligence artificielle
• Automation
• Bio-informatique
• Cerveau artificiel
• Cyborg
• Éthique de l'intelligence artificielle
• Explosion d'intelligence
• Histoire de l'intelligence artificielle
• Interactions homme-machine
• Philosophie de l'intelligence artificielle
• Principaux projets et réalisations en intelligence artificielle
• Progrès
• Progrès technique
• Réseau de neurones artificiels
• Singularité technologique
• Singularitarisme
• Système expert
• Téléchargement de l'esprit
• Test de Turing
• Vie artificielle
Notions techniques

• Agent conversationnel
• Apprentissage automatique
• Apprentissage par renforcement
• Apprentissage profond (Deep learning)
• Architecture cognitive
• Diagnostic
• Exploration de données
• Forêt d'arbres décisionnels
• Inférence bayésienne
• Intelligence artificielle amicale
• Intelligence artificielle distribuée
• Intelligence artificielle faible
• Logique floue
• Machine à vecteurs de support
• Métaheuristiques
• Planification
• Problème de satisfaction de contraintes
• Programmation génétique
• Programmation par contraintes
• Raisonnement par cas
• Réseaux de neurones
• Système multi-agents
• Théorème de Cox-Jaynes
Chercheurs en intelligence artificielle (espace anglophone)

• Edward Feigenbaum
• Irving John Good
• Douglas Hofstadter
• Douglas Lenat
• John McCarthy
• Marvin Lee Minsky
• Allen Newell
• Nils Nilsson
• Seymour Papert
• Rosalind Picard
• Roger Schank
• Herbert Simon
• Ray Solomonoff
• Gerald Jay Sussman
• Alan Turing
• Joseph Weizenbaum
Chercheurs en intelligence artificielle (espace francophone)

• Hugues Bersini
• Alain Colmerauer
• Jean-Paul Delahaye
• Rose Dieng-Kuntz
• Yann Le Cun
• Jacques Pitrat
• Gérard Sabah

Liens externes
• Notices d'autorité
•  :
• Bibliothèque nationale de France (données)
• Bibliothèque du Congrès
• Gemeinsame Normdatei
• Bibliothèque nationale de la Diète
• Ressources relatives à la recherche
•  :
•  Internet Encyclopedia of Philosophy
•  Stanford Encyclopedia of Philosophy
• European Association for Artificial Intelligence (EurAI) [archive] (Association européenne
pour l'intelligence artificielle)
• Association française pour l'intelligence artificielle [archive] (AfIA).
• Association française pour la promotion et la sensibilisation à l'intelligence
artificielle [archive] (AFPSIA) (inaccessible).
• GdrIA [archive], groupement de recherche du CNRS sur les aspects formels et algorithmiques
de l'intelligence artificielle.
• ActuIA [archive], site présentant l'actualité de l'intelligence artificielle.
• Dossier sur l'Intelligence artificielle [archive], savoirs.ens.fr (conférences de l'École normale
supérieure).
• Insideaiminds.com [archive] est un blog spécialisé dans l'analyse des opinions des plus grands
experts de l'intelligence artificielle
Réflexions

• Sébastien Konieczny, « L'intelligence artificielle, menace ou avancée ? » [archive],


Huffington Post, 9 mars 2016.
• Juliette Demey, « À quoi sert l'intelligence artificielle ? » [archive], JDD, 19 juillet 2015.

 [afficher]
 ·
Robotique
 [afficher]
 ·
Technologies émergentes
 [afficher]
 ·
Domaines de l'informatique
• Portail de l’informatique

• Portail de la robotique

• Portail de la science-fiction

• Portail du jeu vidéo

• Portail du Web sémantique

https://www.europe1.fr/technologies/au-fait-cest-quoi-lintelligence-artificielle-3612572

Au fait, c'est quoi l'intelligence artificielle ?


Les robots dotés d'une intelligence artificielle sont de plus en plus performants et présents dans
notre quotidien. © FRANCOIS GUILLOT / AFP

Qu'elle soit dans nos smartphones, dans les robots des usines ou les banques en ligne,
l'intelligence artificielle fait désormais partie de notre quotidien. Mais quelle est sa
définition ?

Rendre l'accès aux bases de données plus accessible, créer des "zones franches d'intelligence
artificielle" pour permettre l'expérimentation, mieux valoriser le travail des chercheurs… Ces
propositions sont issues du rapport du député LREM Cédric Villani sur l'intelligence artificielle
publié mercredi pour favoriser son développement en France. L'"IA" est désormais un domaine
technologique incontournable, mais de quoi s'agit-il exactement ?

Comment définit-on l'intelligence artificielle ?


Une définition complexe. L'intelligence artificielle ou IA consiste à "mettre en œuvre un certain
nombre de techniques visant à permettre aux machines d'imiter une forme d'intelligence réelle",
explique Jean-Claude Heudin, directeur du laboratoire de recherche de l'IIM (Institut de l’Internet et
du multimédia) à Futura-Sciences. Mais encore faut-il définir les concepts de "machine" et
d'"intelligence"...

"Machine" ne désigne pas un objet physique mais plutôt "un système automatique capable de traiter
de l’information", selon Eric Sibony, cofondateur et directeur scientifique de Shift Technology,
interrogé par Ouest France. Le concept d'intelligence est lui bien plus délicat à définir et doit donc
plutôt être identifié au cas par cas. C'est pourquoi les chercheurs ont mis au point plusieurs tests au
fil du temps.
"Le test de Turing". Le mathématicien Alan Turing est l'un des premiers scientifiques à s'être
intéressé à cette "intelligence artificielle", dans les années 1950. Il a défini un test simple pour
savoir si une machine est intelligente ou non, qu'il décrit dans son ouvrage Computing Machinery
and Intelligence (publié en 1950).
Une personne discute à l'aveugle avec un autre humain ou une machine programmée pour donner
des réponses sensées. Si la personne ne se rend pas compte de la différence entre ses deux
interlocuteurs, alors on considère que la machine a une "intelligence artificielle". On appelle ce
procédé le "test de Turing".

Une nouvelle manière de tester "l'intelligence". Mais dans le monde de plus en plus numérique
dans lequel nous évoluons désormais, ce test n'est pas toujours applicable. Par exemple, il n'est pas
valable pour qualifier le niveau d'intelligence d'un programme de tri automatique de photos puisque
cet outil ne peut tenir une conversation.
Désormais, on utilise plutôt une formule mise au point par le scientifique américain Marvin Minsky
(1927-2016), l'un des fondateurs du domaine de l’IA, qui consiste à savoir si la machine est capable
d'accomplir une tâche qui, pour l'instant, est réalisée de façon plus satisfaisante par des êtres
humains. Une définition qui porte en elle les critiques que l'intelligence artificielle rencontre
aujourd'hui : la technologie peut-elle supplanter l'être humain ?

Quelles sont les limites de cette technologie ?


Une technologie dangereuse entre de mauvaises mains. Bien qu'elle facilite notre quotidien
depuis de nombreuses années, certains aspects de l'intelligence artificielle sont décriés. En février
dernier, 26 experts internationaux ont alerté sur les dangers d'une utilisation malveillante de
l'intelligence artificielle par "des États voyous, des criminels, des terroristes".
Selon eux, dans les dix prochaines années, l'efficacité croissante de l'IA risque de renforcer la
cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins
terroristes. Elle est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociaux
grâce à des comptes automatisés (bots).
Où arrêter les progrès de la médecine ? Dans le domaine de la médecine, certains craignent
également des dérives. Lors des États généraux de la bioéthique qui ont eu lieu janvier dernier,
plusieurs questions ont été débattues comme la recherche sur les cellules souches, les connaissances
accrues de l'ADN qui permettent de détecter des maladies avant même qu'elle ne se déclarent ou
encore le recours de plus en plus courant aux robots pour des diagnostics et autres opérations à
distance.
"Aujourd'hui, on peut manipuler le cerveau de l'homme, la pensée peut être augmentée", a expliqué
le professeur d'éthique médicale Emmanuel Hirsch à cette occasion. "On aura des puces qui
pourront redonner des performances à des personnes qui seraient peut-être atteintes de maladie
dégénératives. Nous sommes dans des domaines où on pourra anticiper le risque qu'une personne
commette tel ou tel crime ou d'attentat", poursuit-il. "C'est de la science réelle aujourd'hui ! La
question est : qu'est-ce qui est acceptable et jusqu'où veut-on aller ?" Avec le développement de la
technologie, le débat sur les limites de la prévention est ouvert.
La crainte d'être remplacés par des robots intelligents. Au-delà des interrogations éthiques, les
progrès des technologies créent des craintes pour l'emploi. Selon un sondage Ifop de janvier, 64%
des moins de 40 ans redoutent une explosion du chômage avec le développement de la robotique.
Ils craignent notamment d'être remplacés par des machines capables d'effectuer leurs tâches. Deux
chercheurs de l'Université de Boston, aux États-Unis, ont effectivement démontré en 2017 que les
robots ont détruit jusqu'à 670.000 emplois dans l'industrie manufacturière américaine entre 1990 et
2007. 
Mais à l'autre bout du spectre, d'autres études assurent que les emplois détruits par les avancées
technologiques seront remplacés par ceux qu'elles vont créer. Selon une étude publiée par Dell et
"l'Institut du Futur", un think tank californien, et relayée par Le Figaro, 85% des emplois de 2030
n'existent pas encore aujourd'hui. 
En réalité, personne ne sait vraiment si l'IA va détruire plus d'emploi qu'elle ne va en créer. C'est
d'ailleurs pour éluder ce mystère que le rapport de Cédric Villani préconise également la création
d'un laboratoire du travail pour anticiper ces immenses transformations. Il s'agit avant tout pour les
salariés d'être particulièrement adaptables. 
Selon Luc Ferry, l'intelligence artificielle devrait créer 21 millions d'emplois, vrai ou faux ?
La réponse en vidéo : 

Object 7

Où trouve-t-on l'intelligence artificielle dans notre quotidien ?


Dans les services en ligne. L'intelligence artificielle nous entoure sans même que l'on s'en rende
compte. Par exemple, c'est elle qui est à l'oeuvre dans les services bancaires qui ont recours à des
conseillers virtuels qui réalisent des opérations courantes comme l'ouverture d'un compte ou la
commande d'une carte bleue, détaille Les Echos. C'est encore l'intelligence artificielle (à travers des
algorithmes sophistiqués) qui est à l'oeuvre pour proposer des publicités ciblées sur les réseaux
sociaux et les moteurs de recherches.
Dans le domaine de la production industrielle. Dans les usines modernes, les robots intelligents
sont légion. Les bras articulés peuvent effectuer des tâches simples tandis que des caméras avec des
systèmes de vision artificielle peuvent détecter des produits défectueux sur des chaînes de
production.
Dans les transports. L'intelligence artificielle se trouve aussi dans les transports à travers les
navettes automatiques comme celles qui sont en test à La Défense et à Lyon, rappelle encore Les
Echos. Les voitures autonomes sont également sur le point de se faire une place sur nos routes. Tous
les géants des technologies ont un programme de recherche sur le sujet, à l'instar de Google et Uber.
Mais le système n'est pas encore au point comme en témoigne l'accident mortel entre une voiture
sans conducteur et un cycliste dans l'Arizona.
Dans les hôpitaux et les laboratoires. L'intelligence artificielle, bien que controversée dans ce
secteur, a permis de grandes avancées dans le domaine médical. Des robots participent désormais à
l'analyse des symptômes, à la délivrance de diagnostic, à la chirurgie voire à la prescription de
soins.
Dans nos poches et nos salons. Les robots intelligents sont également au plus près de nous : dans
nos smartphones. Les assistants vocaux, comme Siri ou Google Assistant, sont capables à la fois de
répondre à une question et d'effectuer des tâches sur nos smartphones. Ce sont également les
fonctions des nouvelles enceintes connectées comme Google Home, le HomePod d'Apple ou encore
l'Echo d'Amazon. Les thermostats connectés ont aussi une forme d'intelligence artificielle puisqu'ils
prennent en compte la température ambiante, le nombre de personnes présentes dans la pièce et
leurs habitudes pour ajuster le chauffage.

https://www.clubic.com/technologies-d-avenir/intelligence-artificielle/article-835684-1-
intelligence-artificielle.html

C'est quoi l'intelligence artificielle ?


Sommaire
• Définition et histoire de l'intelligence artificielle
• L'intelligence artificielle de nos jours
• Un marché en pleine croissance
• Quel futur pour l'IA ?
Souvent évoquée dans les œuvres de science-fiction visuelles ou manuscrites, l'intelligence
artificielle est de plus en plus réelle au sein de notre monde. Mais qu'est-ce exactement que
l'IA ? A quoi sert-elle ? Quel impact a-t-elle dans nos vies ?

Ce dossier abordera toutes ces questions que vous vous posez probablement sur ce qu'on appelle
communément l'IA. Nous verrons aussi ce que nous réserve ce passionnant domaine dans les
années à venir, ou plus simplement comment nous vivons aujourd'hui aux côtés de l'IA. Le futur,
c'est maintenant !

Définition et histoire de l'intelligence artificielle


La première notion d'intelligence artificielle a été abordée en 1950 par le mathématicien Alan
Turing. Ce dernier crée alors un test visant à déterminer si une machine peut être considérée
comme « consciente ». Le test de Turing est toujours utilisé par les scientifiques de nos jours, mais
sa pertinence est régulièrement remise en cause.
© Jon Callas / Wikimedia Commons

Il faudra attendre 1956 pour obtenir une définition de l'IA proposée par Marvin Lee Minsky : « La
construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant,
accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus
mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le
raisonnement critique. »

L'intelligence artificielle est un vaste domaine qui touche non seulement à l'informatique mais aussi
aux mathématiques, à la neuroscience et même à la philosophie. L'IA fascine depuis plus d'un demi-
siècle les scientifiques, mais aussi les romanciers et cinéastes. Des cyborgs tueurs de Terminator
aux androïdes de Blade Runner en passant par HAL 9000 de 2001, l'Odyssée de l'espace, les
humains semblent fascinés par la possibilité de répliquer leur comportement et communiquer avec
des machines « pensantes ».

L'intelligence artificielle de nos jours


Deep learning, réseaux de neurones, assistants personnels... Ces termes entrés dans nos vies depuis
quelques années ont tous trait à des facettes de l'intelligence artificielle. Les progrès scientifiques en
la matière sont d'ailleurs époustouflants.

L'une des premières machines à démontrer ses talents face à l'homme est Deep Blue. Cet ordinateur
bat en 1997 le champion mondial d'échecs, Garry Kasparov. Depuis, les défaites de l'humain face
aux machines ne cessent de s'enchainer. La dernière en date est la victoire de l'IA AlphaGo de
Google face au champion Lee Sedol lors d'une partie de Go, un jeu bien plus complexe que les
échecs. L'IA Watson développée par IBM remporte même une émission de Jeopardy! aux USA. Un
exploit qui démontre que l'intelligence artificielle a de beaux jours devant elle.

© Atomic Taco / Wikimedia Commons

Mais les machines intelligentes ne se cantonnent pas aux jeux de société, loin de là. L'intelligence
artificielle est déjà en place dans de nombreux domaines de notre quotidien. Watson a par exemple
été utilisé dans la finance et la médecine. L'IA intéresse aussi l'armée, qui cherche à l'utiliser pour
ses drones et la gestion automatisée des armements. Les voitures autonomes font aussi de plus en
plus parler d'elles.

À plus petite échelle, on peut citer les assistants personnels utilisés par nos smartphones comme
Siri ou Google Assistant. Ces programmes qui ne cessent d'évoluer s'appuient sur l'apprentissage de
nos habitudes afin de nous fournir des informations pertinentes selon le contexte. La sortie récente
des enceintes connectées de type Google Home ou Amazon Echo (pour l'instant aux USA
seulement) vont apporter dans un futur très proche toujours plus d'interactions entre les humains et
leurs machines.

Un marché en pleine croissance


Avec un tel potentiel, l'intelligence artificielle est rapidement devenue un marché juteux. Les
ingénieurs et développeurs spécialisés s'arrachent à coups de millions de dollars. De nombreuses
start-ups spécialisées dans l'intelligence artificielle et ses diverses branches ont vu le jour cette
dernière décennie.

La Silicon Valley est un lieu particulièrement prolifique pour ce marché. Les géants du web que
sont Google, Apple, Facebook et Amazon (les fameux GAFA, parfois aussi appelés GAFAM avec
l'ajout de Microsoft) se livrent une rude bataille afin de racheter la start-up innovante qui leur fera
gagner un coup d'avance sur leurs adversaires. C'est une économie nouvelle qui a vu le jour avec la
mise en œuvre des assistants vocaux et de la reconnaissance faciale, pour ne citer qu'eux. À titre
d'exemple, ce ne sont pas moins de 600 milliards de dollars d'investissements qui auront été réalisés
dans la Silicon Valley en 2013. Un chiffre impressionnant, qui devrait augmenter de 50% d'ici 2020.

© Ardo191 / Wikimedia Commons

Quel futur pour l'IA ?


Si l'intelligence artificielle est encore loin de la représentation que l'on s'en fait via les productions
cinématographiques, elle va néanmoins évoluer rapidement dans les décennies à venir. On constate
d'ailleurs que la communauté scientifique est divisée sur le chemin à suivre. Certains grands
industriels et scientifiques comme Elon Musk, Bill Gates et Stephen Hawking s'inquiètent
particulièrement des conséquences qu'auraient un manque de contrôle sur les intelligences
artificielles : cyberguerre, piratage, robots tueurs, explosion du chômage... Des perspectives peu
encourageantes.

Mais, comme toute forme de technologie, l'impact de l'IA dépend de ce que l'on en fait : elle apporte
aussi avec elle des perspectives d'évolution positive pour l'Homme et la planète. Dans le domaine
médical, par exemple, elle peut permettre de réaliser des diagnostics fiables en quelques secondes et
sans nécessairement faire passer une batterie de tests douloureux ou inconfortables au patient.
Mais qu'arrivera-t-il le jour où l'IA surpassera l'humanité dans tous les domaines ? Sonnera-t-elle le
glas de l'espèce humaine ? Ou arrivera-t-on au début d'un nouvel âge d'or ? Nous en sommes encore
loin, mais la réflexion commence déjà au sein de la communauté scientifique. Les plus grands
ingénieurs du monde travaillent actuellement de concert afin de concevoir le futur de l'intelligence
artificielle, mais aussi ses limitations. Ce n'est pas sans rappeler les lois de la robotique imaginées
par le romancier Isaac Asimov, qui s'inquiétait avant l'heure (en 1942 !) de ce qu'il pourrait advenir
d'une société où l'intelligence artificielle se démocratiserait.

Les gouvernements misent aussi fortement sur l'IA pour le futur. Ainsi le gouvernement Macron a-t-
il décidé de poursuivre le projet #FranceIA initié par François Hollande, et qui consiste à préparer
la stratégie de la France dans le domaine de l'intelligence artificielle pour les années à venir.

L'intelligence artificielle a donc de beaux jours devant elle. Qu'elle fascine ou qu'elle effraie, il
semble bien que l'humanité ne puisse y échapper. Son futur et surtout le nôtre doit donc se préparer
dès maintenant pour une collaboration pérenne entre hommes et machines.
Modifié le 01/06/2018 à 15h36

Conclusion

pas trop d’intelligence pour le moment dans l’IA. Comme les chercheurs le soulignent, il reste
énormément d’étapes à franchir avant d’avoir des choses intéressantes. Tout le monde s’extasie
devant les visages générés alors que des programmes sans IA de ce type existent (en mieux) depuis
des décennies (me rappelle d’un truc à Imagina). ça va en faire de la startup qui récolte du pognon
puis met la clef sous la porte après avoir tout claqué en putes et en coke…

https://www.coe.int/fr/web/artificial-intelligence/what-is-ai

L'IA, c'est quoi ?

Une définition complexe à opérer et à partager


Si le terme d’« intelligence artificielle » (IA) est entré dans le langage commun et son utilisation
devenue banale dans les médias, il n’en existe pas réellement de définition partagée.
Au sens large, le terme désigne en effet indistinctement des systèmes qui sont du domaine de la
pure science-fiction (les IA dites « fortes », dotées d’une forme conscience d’elles-mêmes) et des
systèmes déjà opérationnels en capacité d’exécuter des tâches très complexes (reconnaissance de
visage ou de voix, conduite de véhicule – ces systèmes sont qualifiés d’IA « faibles » ou « modérées
»).
Cette confusion contribue à entretenir des craintes purement spéculatives (des IA autonomes
conscientes s’opposant aux humains) qui resteraient anecdotiques si elles ne troublaient pas la
mesure des réels enjeux, tels que l’impact sur les droits fondamentaux de processus de prise de
décision fondés sur des modèles mathématiques, et donc difficile l’élaboration de cadres de
régulation.

Une définition à restreindre, au cas par cas, aux technologies


utilisées
L’IA est en réalité une discipline jeune d’une soixante d’années, qui réunit des sciences, théories et
techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie
computationnelle et informatique) et dont le but est de parvenir à faire imiter par une machine les
capacités cognitives d’un être humain.
Les spécialistes préfèrent en général employer le nom exact des technologies concrètement en
œuvre (qui relèvent aujourd’hui essentiellement de l’apprentissage automatique – machine learning)
et sont parfois réticents à employer le terme d’ « intelligence » car les résultats, bien
qu’extraordinaires dans certains domaines, demeurent encore modestes au regard des ambitions
entretenues.

Qu’est-ce que l’apprentissage automatique (machine


learning) ?
Après avoir connu deux périodes de fort développement (entre 1940 et 1960, puis entre 1980 et
1990), l’IA a connu un nouvel essor en 2010 grâce aux algorithmes dits d’apprentissage
automatique. Deux facteurs sont à l’origine de ce nouvel engouement des chercheurs et des
industries informatiques : l’accès à des volumes massifs des données et la découverte de la très
grande efficacité des processeurs de simples cartes graphiques d’ordinateur pour accélérer le calcul
des algorithmes d’apprentissage.
L’actuelle « révolution » de l’IA ne vient donc pas d’une découverte de la recherche fondamentale
mais de la possibilité d’exploiter avec efficacité des fondements relativement anciens, tels que
l’inférence bayésienne (XVIIIème siècle) ou les neurones formels (1943) pour l’une des sous-
classes de l’apprentissage automatique, l’apprentissage profond (ou deep learning).
L’apprentissage automatique a opéré un changement complet de paradigme par rapport à la
précédente génération d’IA, les systèmes experts, avec une approche voulue comme inductive : il ne
s’agira plus pour un informaticien de coder les règles à la main mais de laisser les ordinateurs les
découvrir par corrélation et classification, sur la base d’une quantité massive de données. Autrement
dit, l'objectif de l'apprentissage automatique n’est pas réellement d’acquérir des connaissances déjà
formalisées mais de comprendre la structure de données et de l’intégrer dans des modèles,
notamment pour automatiser des tâches.

Systèmes experts et apprentissage automatique : deux


conceptions différentes de l’IA
 

 
Très concrètement, dans sa phase d'apprentissage, la machine va rechercher les liens entre des
données préalablement sélectionnées pour un domaine spécifique (par exemple, sur 10 années, dans
différentes villes, le nombre de crèmes glacées vendues et la température de l'air) et les catégoriser.
Ce modèle pourra ensuite être utilisé pour résoudre des questions du type : s'il fait 25°, combien de
glaces puis-je espérer vendre dans tel lieu ?
Bien que certains systèmes construisent des modèles de manière relativement autonome,
l'intervention humaine demeure encore essentielle, qu'il s'agisse de choisir les données
d'apprentissage, d'identifier leurs éventuels biais ou alors, quand cela est possible, de distinguer
parmi les corrélations celles pouvant être réellement la cause d'un phénomène (si l'on vend
beaucoup plus de glaces pour un lieu donné, est-ce à cause de la température ou de la présence d'un
très bon glacier ?).

Le futur de l’IA et ses enjeux


D’après certains experts comme Yann LeCun, chercheur en IA et pionnier de l’apprentissage
profond, l’ambition de parvenir à imiter une cognition humaine (ou même animale) nécessiterait de
nouvelles découvertes en recherche fondamentale et non une simple évolution des technologies
actuelles d’apprentissage automatique. De telles technologies, qui relèvent essentiellement de la
mathématique et de la statistique, ne sont en effet pas en mesure d’agir par intuition ou de modéliser
rapidement leur environnement.
Les impacts sociétaux, éthiques et sur les droits fondamentaux ne sont donc pas à construire en
craignant que l’apprentissage automatique ne fasse émerger une forme conscience artificielle dans
les 10 ou 20 années, mais prévenant les biais, les discriminations, les atteintes à la vie privée, à la
liberté d’expression ou de conscience voire à la vie elle-même avec les armes autonomes provenant
d’une conception de la société la réduisant à un modèle mathématique.

https://www.domo-blog.fr/13-bonnes-raisons-de-passer-a-domotique/

13 bonnes raisons de passer à la domotique

Je ne vous cache pas que je viens de regarder la série 13 Reasons why sur Netflix et que les 13
raisons de passer à la domotique sont intimement liées à ce récent visionnage... Parfois les idées
vous viennent de nul part et vous en fait un article intéressant, allez savoir... Je marche beaucoup
comme ça moi...

Toutefois au delà du petit clin d’œil, l’idée est tout de même intéressante pour les quelques
personnes qui sont encore indécises et se demandent ce que pourrait bien leur apporter un box
domotique à la maison.
Il ne faut pas se le cacher, une installation connectée a un coût! De fait, il devient alors normal de
se poser les bonnes questions avant de sauter le pas. Au travers de ce nouvel article de fond sur le
blog, je vais essayer d’argumenter et peut-être vous décider à passer le pas.
Personnellement, si vous me demandez mon avis, je vous dirai de foncer, mais il est aussi bon de se
faire son propre avis parfois… Alors voici 13 bonnes raisons de connecter votre maison et passer
du côté obscure de la force !

1- La domotique permet de gagner en confort

Un des buts premiers de la domotique, si ce n’est ce pour quoi elle a été créée, c’est sans doute le
fait de gagner en confort. Ce confort à la maison, s’obtient avec toute sorte d’automatismes et
d’équipements. Ce sont des choses simples du quotidien, qui d’un coup deviennent automatiques et
transparentes pour nous, créant alors un confort fort agréable qu’il devient compliquer de se
passer par la suite.
Une lumière qui s’allume toute seul quand on entre dans une pièce, ou des appareils électriques qui
se coupent en votre absence pour réaliser des économies d’énergies. Des volets motorisés qui
s’ouvrent et se ferment automatiquement, une alarme qui s’active dès notre départ de la maison. 
Une motorisation de portail qui s’actionne quand vous arrivez dans votre rue. Un système de
chauffage qui régule la température au gré de nos allers et venues …
l s’agit véritablement d’un confort ultime dans chaque pièce que nous propose une maison
connectée. Des commodités qu’il devient très vite compliqué de se passer !
2- La maison intelligente permet de faire des économies

Après le confort, les économies sont sans doute un des postes les plus prisés par les usagers de la
smart-home. En effet, la vie coûte chère de nos jours, les différentes énergies ne cessent
d’augmenter, il est alors temps de contenir ces augmentations successives en agissant là ou nous
pouvons avoir un peu de marge de manœuvre.
La domotique permet justement de jouer sur cette marge de manœuvre, tout en conservant un
confort optimal. Il ne s’agit pas de restreindre l’utilisation de l’eau, du gaz ou de l’électricité, mais
plutôt de maîtriser et optimiser cette utilisation des énergies. En effet, grâce à la maison connectée,
il est alors possible de comprendre, analyser et pas conséquent, améliorer la gestion de l’énergie en
y trouvant des axes d’améliorations. Ce la passe par exemple par un thermostat connecté et une tête
thermostatique elle aussi connectée, mais aussi par des détecteurs de mouvements dans les pièces de
passage qui coupent la lumière quand elle n’est plus nécessaire ! Ou encore un pommeau de douche
connecté qui indique un code visuel en fonction des litres consommés. C’est une succession de petit
gestes qui, avec un impact plus ou moins gros, une fois cumulés permettent de gros gains.
3- La domotique permet de sécuriser la maison

Même si ce n’est pas son utilité première, la centrale domotique peut aussi servir de système
d’alarme anti intrusion. Au delà de cela, c’est aussi un moyen d’augmenter la sécurité au domicile
avec des détecteurs de fumées connectés ou encore des détecteurs d’inondation. Vous l’aurez
compris, outre le fait de sécuriser la maison, la maison intelligente sécurise également vos proches
des accidents domestiques les plus fréquents et dommageables tels que les intoxications aux
monoxyde de carbone ou encore les incendies !
4- la maison connectée permet d’être alerté, même loin du
domicile

La smart home s’appuie sur des notifications. En effet, au grès de vos scénarios, vous pouvez en
plus d’une action ou d’un événement, déclencher une notification afin de connaitre un état précis de
votre système. Alarme déclenchée, inondation détectée, coupure de courant, lumière restée
allumée… Les possibilités sont très nombreuses ! Disponibles via plusieurs canaux: SMS, mail,
push, tweet, telegram… Les notifications sont très utiles et c’est vous qui choisissez pour quel
événement vous désirez être notifié, vous ne serez donc pas pollué par des notifications inutiles. Les
nombreuses mises à jour des box domotiques permettent d’intégrer toujours plus de moyens de
communications. Il devient alors très facile de communiquer avec sa maison.
5- La maison intelligente à cette faculté à comprendre et
analyser

Un autre point fort de la smart-home, c’est son pouvoir d’enregistrer et stocker dans une base
de données tous les événements de vos capteur et/ou actionneur. Même un élément dit « virtuel »,
peu être mémorisé sur ses différents changements d’états. Il devient alors assez simple d’exploiter
ces datas et les recouper entre elles. À ce stade, vous avez une toute autre compréhension des
événements et du fait que vous disposez de données concrètes il est facile pour vous, d’établir un
diagnostic clair ou simplement comprendre une situation.
C’est ainsi qu’il est par exemple possible d’analyser votre consommation énergétique. En exploitant
vos données, vous aurez tout de suite une très bonne lecture de ce qui se passe et pourrez alors
trouver simplement des axes d’amélioration. Que ce soit sur la consommation électrique ou la
consommation d’eau, c’est tout à fait dans ses cordes.
6- la maison 4.0 peut aussi ambiancer vos soirées

Eh oui! La maison intelligente c’est aussi l’effet Waouh! Bon OK, je vous l’accorde ce n’est pas
un argument de poids, mais ça reste tout de même une autre bonne raison de motiver le passage vers
la maison du futur. Bien sûr, cela reste un plus proposé par une installation et des périphériques qui
sont en place pour une tout autre raison. Et qui elle est justifiée. Toutefois voila une nouvelle
illustration de la puissance d’adaptabilité et la polyvalence des objets connectés.
Mais tout de même, pendant vos soirées entre amis, utiliser les scénarios intelligents pour créer une
ambiance lumineuse conviviale. Vous pouvez domotiser les éclairages extérieurs et ainsi profiter
d’un prolongement de l’ambiance lumineuse jusque sur la terrasse l’été. Enfin, avec la maison 4.0 ,
il est possible très simplement de créer une ambiance particulière pour un dîner de famille, entre
amoureux ou une soirée de fête !
7- La domotique : Un argument de choix pour la maison qui
peut peser dans la vente

Aussi surprenant que cela puisse paraître, c’est effectivement vrai! Je viens moi-même de vendre
ma maison et au-delà du fait que ma maison s’est vendue en moins d’une journée et que mon
acheteur est tout simplement fasciné par les différents automatismes et tout le confort que propose
ma « maison connectée », toutes les visites de potentiels acquéreurs se sont entendus sur un point:
un atout de cette maison c’est tout de même son aspect connecté qui lui confère confort,
maîtrise des énergies et sécurité!
Un atout de choix donc si vous devez vendre votre maison, car si fut un temps la domotique pouvait
faire peur, aujourd’hui elle fait envie et devient valorisante pour un bien sur le marché immobilier,
alors profitez en pour vous démarquer sur un marché très concurrentiel !
8- la domotique sait se connecter à vos objets connectés

Il sont partout autour de nous aujourd’hui. Nos smartphones ne disposent plus d’assez d’espace de
stockage pour y loger toutes les applications, tellement elles sont en nombre important … Je grossis
le trait, pourtant, chaque objet dispose bien de son application mobile.
Si bien que si une application pour piloter un objet connecté c’est pratique, 40 applications pour
piloter les 40 objets connectés de la maison, ça l’est déjà beaucoup moins ! Un service en ligne a
grandement participé à cette connectivité accelerée des objets connecté, il s’agit de IFTTT. La
domotique étant compatible avec de plus en plus d’objets connectés, contrôler ces objets
directement depuis box offre un moyen unique de consulter et/ou piloter vos objets connectés !C’est
même un véritablement jeu d’enfant avec les assistants vocaux. Ainsi, les Google Home et autres
Amazon Alexa vous donne le contrôle de la maison simplement par la voix.
Quand je vous disais que la domotique permet de gagner en confort, vous voyez !
9- la domotique ce n’est pas que dans la maison, c’est aussi à
l’extérieur

En effet, la domotique s’exporte de plus en plus à l’extérieur de la maison. Chaque année, quand
arrivent le printemps, les périphériques et les objets connectés pour l’extérieur sont de plus en plus
nombreux. Il est carrement possible de connecter la piscine aujourd’hui.
C’est un fait, nous adorons notre petit cocon l’hiver, mais quant arrive l’été, nous somme friands de
nos espaces extérieurs et y passons le plus clair de notre temps. Il devient alors primordial de faire
suivre le confort que confère la smarthome à l’intérieur jusque sur la terrasse !
10- La domotique vous protège des dangers

La box domotique tend de plus en plus vers la sécurité. Les protocoles se sécurisent et se
complexifient, le Chiffrement AES-128 est déjà présent sur certains modules z-wave… Alors bien
que ce ne soit pas un système de sécurité officiel et agréé, la centrale connectée est tout aussi
puissante, voir plus puisqu’elle dispose de bien plus d’informations qu’un simple système d’alarme.
La difference réside essentiellement sur les normes et autres certifications. En tant que système
« ouvert » à de multiples protocoles, filaire et sans-fils (knx, Enocean, Edisio, Bluetooth, wifi, gsm,
433Mhz, …)
Mais la maison connectée ne s’arrête pas là, en effet, elle peut aussi servir de système de
protection pour une personne âgée avec des boutons d’alertes ou des caméras de surveillance. Ça
peut aussi être un moyen de vous avertir quand les enfants sont enfin rentrés de l’école. Un simple
scénario sur l’ouverture de la porte une fois que l’alarme est désactivée. Dans la demi-heure qui suit
la fin de l’école, et vous recevez une photo des enfants qui viennent de rentrer quand ils passeront la
porte!
11- La domotique devient accessible et facile

Longtemps mal percue auprès du grand public, car trop complexe à programmer et à destination des
geeks, la domotique se démocratise et devient simple à configurer et encore plus, à utiliser.
Plus besoin d’avoir une formation technique ou des compétences en développement pour configurer
sa maison connectée.
Visitez note section spéciale, la domotique pour les nuls pour apprendre et comprendre très
simplement.
Les systèmes se sont simplifiés pour l’utilisateur final, tout en devenant toujours plus complexes et
pointus au niveau du code interne. Ce qui permet de faire des scénarios très complexes en
utilisant simplement des listes déroulantes et des fonctions logiques.
12- la domotique sait tout faire

En rédigeant ce titre, voilà déjà 5 bonnes minutes que je me creuse la tête pour trouver un aspect
connecté de la maison qui ne serait pas possible d’automatiser ou de monitorer par la domotique.
J’ai beau me creuser la tête, je ne vois pas! Éclairage, chauffage, confort, sécurité, énergies, piscine,
garage et voiture même… Bref, tout est possible et ce n’est que le début ! Il n’y à qu’a lire notre
article exemple sur le déroulé d’une journée dans la maison connectée pour comprendre que tout est
possible. Et encore, ce récit ne présente qu’une infime partie de tout le potentiel disponible.

13- la domotique n’a pas de limite


Je pense que je ne le dirai jamais assez, mais il faut bien le reconnaître, la domotique permet
vraiment tout. La seule et unique limite possible reste votre imagination. Si votre cerveau
fourmille d’idées, vous serez capable de les réaliser. Pour ceux qui manquent d’inspiration,
domo-blog est là pour vous alimenter en projets domotiques toujours plus nombreux, alors pas
d’inquiétude les amis !