Académique Documents
Professionnel Documents
Culture Documents
L'intelligence artificielle (IA) est une technologie qui permet à des machines, telles
que des robots, des voitures ou d'autres systèmes informatiques, d'exécuter des
tâches qui sont généralement accomplies par des humains. Pour cela, trois
éléments essentiels sont nécessaires : des systèmes informatiques performants, des
données gérées par des systèmes de gestion spécifiques, et des algorithmes d'IA¹
1
avancés (code). L'IA se compose de données et d'algorithmes¹, et elle peut être
utilisée dans divers domaines tels que la perception, la résolution de problèmes,
l'interaction linguistique et même la créativité.
L'IA est une branche de l'informatique qui vise à s’implanter dans une machine des
systèmes dotés de capacités similaires à celles de l'intelligence humaine ou animale.
Par exemple, le système d'IA AlphaGo est capable de surpasser le champion du jeu
de AlphaGo, mais ses capacités se limitent à ce domaine spécifique.
Un exemple de l’IA est lorsqu’on utilise notre smartphone pour déverrouiller notre
écran en utilisant notre visage, l'IA entre en jeu. L'appareil utilise des algorithmes
d'IA avancés pour analyser et reconnaître les caractéristiques uniques de notre
visage, comme la position des yeux, la forme du nez et des lèvres, etc... L'IA
compare ensuite ces caractéristiques avec celles déjà stockées dans sa base de
données pour déterminer si elles correspondent à notre visage enregistré. Si elles
correspondent, notre téléphone se déverrouille, sinon il reste verrouillé.
1
Un algorithme d'IA est une série d'instructions qui permet à un système ou à une
machine d'analyser des données, d'apprendre à partir de ces données et de prendre
des décisions ou d'accomplir des tâches de manière autonome.
Quelles sont les quatres approches de l'intelligence artificielle?
Approche humaine
1) Agir comme un humain, l’approche d’Alan Turing: Une IA doit réussir le test
Turing, un test basé sur la faculté d'une machine à imiter la conversation
humaine. Pour réussir le test, l'IA doit utiliser un langage naturel, la raison, la
connaissance et l'apprentissage. Le test met en avant un jeu d'imitation dans
lequel un homme et une femme, ainsi qu'une machine répondent aux
questions d'un interrogateur par des messages textuels. Si l'interrogateur
n'est pas en mesure de distinguer la machine de l'homme, on considère que
l'IA a réussi le test.
2) Penser comme un humain : Créer des systèmes qui imitent la façon dont les
humains pensent, raisonnent et résolvent des problèmes. Pour évaluer si un
programme pense comme un être humain, il est nécessaire d’avoir une
méthode qui détermine la manière dont les humains pensent, et qui est
définie par la modélisation cognitive. Cette modélisation repose sur trois
techniques principales:
● Introspection: C’est un examen de la pensée humaine pour
comprendre les processus mentaux et les émotions. Ceci permet
d’identifier les éléments clés de la pensée humaine, et de les appliquer
aux systèmes d’IA.
● Tests psychologiques :Ils ont comme but de mesurer les capacités
cognitives des humains, telles que la mémoire, l'attention et la
résolution de problèmes. Ces tests peuvent aider à valider les modèles
de l'IA et s'assurer qu'ils reflètent bien la façon dont les humains
pensent.
● Imagerie cérébrale : une technique qui permet d'observer et d'étudier
l'activité cérébrale humaine. Cette technique peut fournir des
informations avantageuses sur les processus mentaux et aider à
développer des modèles d'IA plus réalistes et efficaces.
Approche rationnelle
1. Peser rationnellement : imiter la manière dont les humains pensent,
raisonnent et résolvent des problèmes. Un ordinateur qui pense
rationnellement utilise des comportements enregistrés pour créer un guide
qui explique comment interagir avec un environnement basé sur les données
disponibles. L'IA vise à résoudre des problèmes logiquement, en suivant les
comportements rationnels des humains et en s'éloignant de leurs
écartements faiblement.
Les humains veulent toujours faciliter leur vie, c’est pourquoi ils ont inventé des
ordinateurs pour les aider. Par exemple, au lieu d’emplir de gros classeurs, nous
pouvons maintenant tout stocker dans l’ordinateur. Mais, les humains ne se sont pas
arrêtés là et ils ont voulu inventer des machines qui peuvent apprendre comme les
humains et prendre des décisions par elles-mêmes.
On peut dire que tout a commencé en 1950 lorsque le scientifique britannique Alan
Turing a proposé le test de Turing pour évaluer l'intelligence d'un ordinateur en le
comparant à un esprit humain. Ensuite, en 1956, l'intelligence artificielle (IA) a été
officiellement introduite lors de la conférence du projet de recherche d'été de
Dartmouth sur l'intelligence artificielle tenue au Dartmouth College. Organisée par
John McCarthy et Walter Minsky, cette conférence a marqué le début de l'IA en tant
que domaine théorique distinct.
Au fil des décennies, l'IA a connu différentes époques marquantes. Dans les années
1960 et 1970, l'IA a connu une période d'optimisme et de grands projets de
recherche, avec des avancées dans les domaines de la vision par ordinateur, du
traitement du langage naturel et des systèmes experts.
Par contre, les années 1980 et 1990 ont été marquées par des défis et des critiques,
entraînant une période de désillusion connue sous le nom de "l'hiver de l'IA". Les
progrès semblent stagner et les attentes ont baissé.
Cependant, à partir de 1997 ou l’IBM à réussi à fabriquer l’ordinateur Deep Blue qui
a battu Garry Kasparov, le champion du monde d’échecs, l'IA a connu un renouveau
grâce aux progrès de l'apprentissage automatique. En 2011 : Watson, un système
de traitement du langage naturel développé par IBM, bat les champions humains au
jeu Jeopardy. En 2016 : AlphaGo, un programme de jeu de Go développé par
Google DeepMind, bat le champion du monde Lee Sedol. Ainsi, durant cette
année, Microsoft a créé un compte tweeter. Ils ont créé un compte Twitter
pour un robot de conversations, ou elle pourra réagir et poster tout ce qu’elle
veut elle n'avait aucune contrainte. Comment ça fonctionne ? Quand
quelqu'un lui écrit sur Twitter, elle analyse les réponses et les mots que les
gens utilisent comme réponses et ensuite elle crée sa propre réponse en
fonction de son opinion. En 21 mai, on lui a créé un compte tweeter et tout a
commencé bien, elle ne publiait que des commentaires positifs et normaux.
Après un certain temps, tout a changé d’un coup, tout a changé et elle a
commencé à écrire des tweets étranges, par exemple sur la politique : ou elle
incite à la haine. (voir figure 1) qui ressemble a Chatgpt nommé Tai tweet, En
2022, nous avons connu Chatgpt qui a provoqué une onde de choc sur
internet grâce à ses capacités de répondre à des questions complexes et à
dialoguer.
Figure 1
TayTweets
De nos jours, l’IA est utilisée dans tous les domaines et dans la vie de tout les jours.
Nous allons explorer ensemble les différents grands domaines de la manière la plus
simple.
➔ Domaine industriel
L’objectif est de créer des machines physiques, des robots qui peuvent agir
comme des humains, mais avec une meilleure précision et efficacité. Ces robots
sont utilisés dans l'industrie pour accomplir des tâches dans des environnements
dangereux, en médecine pour effectuer des opérations chirurgicales très
précises, et même dans nos maisons pour nous aider avec les tâches
ménagères..
➔ Domaine militaire
➔ La traduction automatique
Les assistants personnels tels que Siri, Cortana et Google Now, sont présents sur
nos smartphones et utilisent plusieurs technologies pour nous aider. Par
exemple, ils utilisent la reconnaissance vocale pour convertir ce que nous disons
en texte, puis utilisent le traitement du langage naturel pour comprendre le sens
de nos mots. Ensuite, ils utilisent un moteur de recherche pour trouver la
meilleure réponse à notre question et utilisent la synthèse vocale pour
communiquer la réponse de manière claire et précise. De plus, ces assistants
sont également capables de gérer nos événements et nos rendez-vous grâce à
leurs fonctionnalités de planification.
Ce sont des outils très utiles dans les domaines du support client et du
télémarketing. Ils sont sous la forme de fenêtres de chat qui s'ouvrent
automatiquement sur un site web ou de serveurs vocaux qui répondent aux
questions 24h/24. Grâce à leur capacité à comprendre le langage naturel et à
accéder à de vastes bases de données, ils sont capables de répondre aux
questions les plus simples de manière rapide et efficace.
Les GPS utilisent l'IA pour optimiser les itinéraires, fournir des informations en
temps réel sur les conditions de circulation, offrir des fonctionnalités de
reconnaissance vocale et améliorer la précision des instructions de navigation.
Grâce à ces avancées technologiques, ils nous aident à atteindre nos
destinations de manière plus efficace et sécurisée.
➔ Les finances
l'IA est utilisée dans les finances pour l'analyse de données, la gestion des
risques, le trading, le service client, la détection de la fraude et la planification
financière. Elle offre des analyses plus rapides et précises, une automatisation
des tâches, une prise de décision éclairée et une meilleure gestion des risques
financiers.
➔ Le cyber sécurité
L’IA est employée pour détecter les faiblesses, prévenir les cybermenaces,
élaborer des systèmes de sécurité efficaces, et renforcer les outils de
protection, détection, réponse et remédiation. De plus, elle est également
utilisée pour mener des attaques ciblées et personnalisées, ce qui rend la
détection et la prévention plus complexes.
➔ La médecine
Figure 2:
Robots-chirurgiens
Cependant, l’intelligence n’est pas seulement une puissance cognitive, c’est aussi la
capacité à s’adapter et à se généraliser. Alors que le Deep Learning permet
l’apprentissage automatique, la généralisation à tous les domaines n’est pas encore
possible.
Pourquoi ? Parce que les programmes d’aujourd’hui ne sont pas encore dotés de
conscience ni de compréhension du contexte. Un exemple de cette lacune :
l’algorithme de censure de Facebook avait supprimé la célèbre photographie d’une
petite fille terrorisée durant la guerre du Vietnam. Le motif ? « Présence de nudité ».
La photographie avait été finalement rajoutée manuellement pour son aspect
historique.
cases.
Since humans are biased in one way or another, it would be naïve to
systems can also be biased due to incomplete data that does not represent
carefully designed system can minimize it. You can read our article on AI
Rather than the elimination of human labor, a more immediate problem due to AI can
be the rising income inequality. For instance, a study reveals that 50% to 70% of the
https://biblio.univ-annaba.dz/ingeniorat/wp-content/uploads/2019/09/Zara-Islem.pdf
https://fr.statista.com/statistiques/1360435/valeur-investissements-des-entreprises-d
ans-l-intelligence-artificielle-monde/
https://fr.statista.com/infographie/31325/investissements-des-entreprises-dans-intelli
gence-artificielle/
Les robots chirurgiens : une révolution dans le monde de la médecine ? - Santé.org
- Stephen Hawking
- Sundar Pichai
https://eightify.app/fr/summary/artificial-intelligence/geoffrey-hinton-the-ai-pioneer-
exclusive-interview
Geoffrey Hinton
Interview:
Notre prochain invité estime que la menace de l'IA pourrait être encore plus urgente
que le changement climatique, si vous pouvez l'imaginer. Jeffrey Hinton est
considéré comme le parrain de l'IA, et il a fait les gros titres avec son récent départ
de Google. Il a décidé de quitter son poste pour s'exprimer librement et sensibiliser
aux risques, afin d'approfondir la compréhension des dangers et de proposer des
solutions pour les gérer. Il rejoint maintenant Hari Srinavasan.
Speaker 2 (00:22)
Christian, thanks. Jeffrey Hinton, thanks so much. Joining us, you are one of the
more celebrated names in artificial intelligence. You have been working at this for
more than 40 years. And I wonder, as you've thought about how computers learn, did
it go the way you thought it would when you started in this field?
Speaker 3 (00:45)
It did until very recently, in fact. I thought if we built computer models of how the
brain learns, we would understand more about how the brain learns. And as a side
effect, we will get better machine learning on computers. And all that was going
along very well. And then very suddenly, I realized recently that maybe the digital
intelligences we were building on computers were actually learning better than the
brain. And that sort of changed my mind. After about 50 years of thinking we would
make better digital intelligences by making them more like the brain, I suddenly
realized we might have something rather different that was already better.
Speaker 2 (01:23)
Now, this is something you and your colleagues must have been thinking about over
these 50 years. I mean, what, was there a tipping point?
Speaker 3 (01:30)
There were several ingredients to it. Like a year or two ago, I used a Google system
called Palm that was a big chatbot, and it could explain why jokes were funny. And
I've been using that as a kind of litmus test of whether these things really understood
what was going on. And I was slightly shocked that it could explain that jokes were
funny. That was one ingredient. Another ingredient was the fact that things like chat
GBT know thousands of times more than any human in just sort of basic common
sense knowledge. But they only have about a trillion connection strengths in their
artificial neural nets, and we have about 100 trillion connection strengths in the brain.
So with 100th as much storage capacity, it knew thousands of times more than us.
And that strongly suggests that it's got a better way of getting information into the
connections. And then a third thing was very recently, a couple of months ago, I
suddenly became convinced that the brain wasn't using as good a learning algorithm
as these digital intelligences. And in particular, it wasn't as good because brains can't
exchange information really fast, and these digital intelligences can.
Speaker 3 (02:43)
I can have one model running on 10,000 different bits of hardware. It's got the same
connection strengths in every copy of the model on the different hardware, all the
different agents running on the different hardware can all learn from different bits of
data, but then they can communicate to each other what they learned just by copying
the weights, because they all work identically, and brains aren't like that. So these
guys can communicate at trillions of bits a second, and we can communicate at
hundreds of bits a second via sentences. So it's a huge difference, and it's why Chat
GPT can learn thousands of times more than you can.
Speaker 2 (03:20)
For people who might not be following kind of what's been happening with OpenAI
and Chat GPT and Google's product bard, explain what those are, because some
people have explained it as kind of the autocomplete feature, finishing your thought
for you. But what are these artificial intelligences doing?
Speaker 4 (03:41)
Okay, it's difficult to explain, but I'll do my best. It's true, in a sense, they're
autocomplete. But if you think about it, if you want to do really good autocomplete,
you need to understand what somebody's saying, and they understand what you're
saying, and they've learned to understand what you're saying just by trying to do
autocomplete, but they now do seem to really understand. So the way they
understand isn't at all like people in AI 50 years ago thought it would be. In old
fashioned AI, people thought you'd have internal symbolic expressions, a bit like
sentences in your head, but in some kind of cleaned up language, and you would
apply rules to infer new sentences from old sentences, and that's how it will work.
And it's nothing like that. It's completely different. And let me give you a sense of just
how different it is. I can give you a problem that doesn't make any sense in logic, but
where you know the answer intuitively, and these big models are really models of
human intuition. So suppose I tell you that you know that there's male cats and
female cats and male dogs and female dogs.
Speaker 4 (04:54)
But suppose I tell you you have to make a choice. Either you're going to have all cats
being male and all dogs being female, or you can have all cats being female and all
dogs being male. Now, you know it's biological nonsense, but you also know it's
much more natural to make all cats female and all dogs male. That's not a question
of logic. What that's about is inside your head, you have a big pattern of neural
activity that represents cat, and you also.
Speaker 3 (05:23)
Have a big pattern of neural activity.
Speaker 4 (05:24)
That represents man and a big pattern of neural activity that represents woman. And
the big pattern for cat is more like the pattern for woman than it is like the pattern for
man. That's the result of a lot of.
Speaker 3 (05:34)
Learning about men and women and cats and dogs.
Speaker 4 (05:37)
But it's now just intuitively obvious to you that cats are more like women and dogs
are more like men because of these big patterns of neural activity you've learned.
And it doesn't involve sequential reasoning or anything you didn't have to do
reasoning to solve that problem. It's just obvious that's how these things are working.
They're learning these big patterns of activity to represent things, and that makes all
sorts of things just obvious to them.
Speaker 2 (06:02)
What you're describing here, ideas like intuition and basically context, those are the
things that scientists and researchers always said. Well, this is why we're fairly
positive that we're not going to head to that sort of terminator scenario where the
artificial intelligence gets smarter than human beings. But what you're describing is
these are almost consciousness, sort of emotion level decision processes.
Speaker 4 (06:34)
Okay? I think if you bring sentience into it, it just clouds the issue. So lots of people
are very confident these things aren't sentient. But if you ask them, what do you
mean by sentient?
Speaker 3 (06:45)
They don't know.
Désavantages:
“La faculté humaine de raisonner est indispensable à nos usages quotidiens”
Ce que c’est l’IA (Sources utilisées)
https://www.cnil.fr/fr/intelligence-artificielle/intelligence-cxartificielle-de-quoi-parle-t-on
Intelligence artificielle : de quoi parle-t-on vraiment ? | Actu
Intelligence artificielle : définition et utilisations | NetApp