Vous êtes sur la page 1sur 26

Projet : Intelligence Artificielle

Travail élaboré par: Ons AFFES, Farouk SAADELLAOUI, Safa


MTAR, Seifeddine Bourji

Groupe : 1ere année ingénierie 4

Reformulation 1

Année universitaire 2021/2022


Plan

E:Entrée

● Introduction

○ Introduction
○ Définition
○ Contexte de IA
○ Importance
● Histoire IA

S: Situation

○ IA
○ les lois de l'intelligence artificielle
○ Comment la machine apprend-elle?
○ Machine learning
○ Deep learning
○ IA et la programmation
○ Atout et inconvénient

P: probléme relatifs

○ Les dangers de IA
○ Impact de IA sur le travail

R:

● Projets de IA
○ Les domaines d'utilisation
○ Projet 1
○ Projet 2
○ Projet 3

I:

Perspectives d'avenir de IA

T:

● Conclusion
● Les limites de IA
E : Entrée
Introduction
Depuis plus d'une décennie, le développement et l'adoption de l'intelligence artificielle (IA)
s'accélèrent. En médecine, cela implique la recherche fondamentale et clinique, la pratique
hospitalière, les examens médicaux, les soins infirmiers et la logistique. Cela contribue à
l'amélioration du diagnostic et du pronostic, à une médecine plus personnalisée et ciblée,
aux progrès des techniques d'observation et d'analyse, et au développement d'outils
d'intervention chirurgicale et d'autres robots d'assistance. De nombreux défis propres à
l'intelligence artificielle et à la médecine, tels que la dématérialisation des données, le
respect de la vie privée, l'interprétabilité des algorithmes, la conception de systèmes
d'intelligence artificielle inclusifs, ou leur répétabilité, doivent être surmontés afin de mettre
en place des établissements hospitaliers pour ces outils Confiance. Cela nécessite de
maîtriser les concepts de base que nous introduisons ici.

Définition:
L’intelligence artificielle ou IA (AI pour Artificial Intelligence en anglais) est une discipline
scientifique et technologique qui vise à effectuer des processus cognitifs qui ont été réservés
au cerveau humain à travers des machines (ordinateurs et programmes informatiques), ses
domaines comprennent :

la compréhension,

la communication (dialogue entre machines et avec l’humain),

la structuration de la mémoire,

le raisonnement critique,

l’adaptation,

l’apprentissage en autonomie (Deep Learning)…

Dans le langage courant, l'intelligence artificielle fait également référence aux ordinateurs ou
aux dispositifs robotiques qui mettent en œuvre ces fonctions. Deux écoles se démarquent
dans l'atteinte des objectifs de l'intelligence artificielle : Le premier estime que l'intelligence
artificielle doit fonctionner sur le même modèle que l'intelligence humaine. La seconde prône
le modèle idéal, dont la perfection rationnelle est séparée des normes et des processus de
l'intelligence biologique.
Cette image donne une courte définition du principe de l'IA, et elle résume le paragraphe
précédent. Le cerveau sur l'image symbolise la mémoire et la capacité des humains et des
machines à apprendre, penser, créer, juger, parler et décider.

Contexte de l'IA:
Pourquoi l’intelligence artificielle ?

L'intelligence artificielle existe dans toutes les conversations, tous les débats, tous les
arguments de vente, toutes les prédictions... Elle n'est pas seulement la raison principale de
l'effondrement futur de notre civilisation, mais aussi la solution à tout. Nous sommes
confrontés à une situation absurde car nous avons interdiction de vanter ses avantages et
de la mettre en œuvre dans les plus brefs délais, et le vrai sens de l'intelligence artificielle,
ce qu'elle peut apporter au monde des affaires ou à la société dans son ensemble, et
comment fais-le. Non, l'intelligence artificielle n'est ni magique ni révolutionnaire, c'est une
évolution logique des outils informatiques, ni plus ni moins.

L’intelligence artificielle est et restera omniprésente, au même titre que l’outil informatique:

L'IA ne détruira pas le travail, et le travail changera avec le cycle économique.Cela a été
théorisé (la destruction créative est un phénomène auquel vous ne pouvez pas résister). De
plus, n'oublions pas que nous n'avons pas besoin d'intelligence artificielle pour détruire des
centaines de milliers d'emplois. Nous avons fait du bon travail nous-mêmes : l'impact
potentiel d'un Brexit dur sur l'emploi international. D'un autre côté : Non, l'intelligence
artificielle ne sauvera pas la terre, nous seuls (ses habitants) pouvons le faire. Mais vous le
savez déjà, non ? En résumé, l'intelligence artificielle n'est ni la cause de nos misérables
espoirs ni le remède, mais une partie des deux. De même que nous pouvons difficilement
accuser les outils informatiques de détruire des emplois à la fin du siècle dernier, nous ne
pouvons pas continuer à diffuser des scénarios catastrophiques basés sur des hypothèses
et des prédictions erronées.

L'importance de l'IA
Pourquoi l'intelligence artificielle est-elle importante ?

les humains ne peuvent les absorber et interpréter les données pour prendre des décisions
complexes. L'intelligence artificielle est le fondement de tout apprentissage informatique et
représente l'avenir des processus décisionnels complexes. Par exemple, lorsqu'il y a 255
168 actions possibles, dont 46 080 aboutissent à une égalité, la plupart des gens peuvent
apprendre à ne pas perdre dans un simple jeu croisé à somme nulle. En revanche, les
champions de dames sont plus rares car il y a plus de 500 x 1018 (500 trillions) de coups
possibles. L'ordinateur peut calculer ces combinaisons et le meilleur arrangement possible
très efficacement afin de prendre la bonne décision. L'intelligence artificielle (et son évolution
logique, le machine learning) et le deep learning représentent l'avenir de la prise de
décision.

Histoire AI
Prouver que ce n'est pas une science aujourd'hui. Les premières traces de l'intelligence
artificielle remontent à 1950 dans un article intitulé "Computer Machines and Intelligence"
d'Alan Turing, dont un mathématicien a discuté dans cet article Définir si la machine a une
question consciente . Cet article dérivera ce qu'on appelle maintenant le test de Turing, qui
évalue la capacité des machines à mener des conversations humaines. Une autre origine
possible remonte à un mémo sur le langage de traduction automatique publié par Warren
Weaver en 1949, qui montrait que les machines peuvent bien accomplir une tâche, à savoir
l'intelligence humaine. La formalisation de l'intelligence artificielle en tant que véritable
domaine scientifique remonte à une conférence tenue au Dartmouth College aux États-Unis
en 1956. Par la suite, le domaine atteindra des universités prestigieuses telles que
l'Université de Stanford, le Massachusetts Institute of Technology ou l'Université
d'Edimbourg.

1974 était la période "AI Winter", et de nombreux projets d'experts n'ont pas été réalisés, et
les gouvernements britannique et américain ont réduit leur financement au collège. Dans les
80*, les systèmes experts à succès ont permis de relancer des projets de recherche en
intelligence artificielle. Le système expert est un ordinateur qui peut fonctionner comme un
humain. Grâce à ce succès, la valeur marchande de l'intelligence artificielle a atteint 1
milliard de dollars américains, ce qui a incité les gouvernements à soutenir à nouveau
financièrement davantage de projets académiques. Le développement exponentiel des
performances informatiques a permis le développement de l'intelligence artificielle dans des
domaines jusque-là peu communs entre 1990 et 2000**. A cette époque, on découvrait
l'exploration de données et même le diagnostic médical.Jusqu'en 1997, date de la sortie des
vrais médias, le célèbre Deep Blue créé par IBM a battu le champion du monde d'échecs de
l'époque Garry Kasparov.
2000 - 2010 : l’IA représente un enjeu de société

Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi
de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs
personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones
voient le jour … La connectivité et la mobilité lancent l’ère de l'Homo Numericus.

En 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser
des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. De plus en 2009, le
MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes
lignes de la recherche sur ce domaine.

À partir de 2010 : l’IA sans limites

Depuis le début de nos dix ans, l'intelligence artificielle a brillé grâce à la force de Waston
d'IBM. En 2011, ce super cerveau a vaincu les deux plus grands champions Jeopardy en
direct ! . Pour les ordinateurs, ce n'est en aucun cas un exercice simple. Cependant, après
Deep Blue, les années 2010 ont marqué un tournant dans la recherche et les reportages
médiatiques. La loi de Moore continue de guider l'avancement de l'intelligence artificielle,
mais le traitement des données renforce tout cela. Pour effectuer des tâches, le système n'a
besoin que de règles. Quand il s'agit de penser ou de fournir la réponse la plus juste, ce
système doit être appris. C'est ainsi que les chercheurs développent de nouveaux processus
pour le machine learning et le deep learning. Bientôt, ces méthodes basées sur les données
ont battu de nombreux records, incitant de nombreux autres projets à suivre cette voie.

De plus, le développement de la technologie de l'intelligence artificielle a permis de réaliser


divers projets, ne considérant plus le pur calcul dur, mais intégrant le traitement d'images.
C'est à partir de ce moment que certaines entreprises prendront les devants pour passer à
l'action. En fait, le problème avec l'intelligence artificielle n'est plus la nécessité pour le
cerveau de construire un système, mais la nécessité de traiter des données. C'est pourquoi
Google est rapidement devenu un pionnier. En 2012, Mountain View n'avait que quelques
forfaits disponibles, et après trois ans, il y en avait 2 700. En 2013, Facebook a ouvert le
Facebook Artificial Intelligence Research (FAIR) dirigé par Yann Le Cun. Un tournant, le
géant est passé de sa mission sociale à la science. Amazon, Microsoft, Apple, Netflix et
Tesla ne sont pas exclus, comme le sont de nombreuses entreprises chinoises.

La gestion des données permettra d'utiliser l'intelligence artificielle pour mieux comprendre
les rayons X que les médecins, conduire des voitures, traduire, jouer à des jeux vidéo
complexes, créer de la musique, voir à travers les murs, imaginer des jeux sans photos... Le
grand nombre, cela soulève de nombreuses questions sur le rôle professionnel de l'Homme
dans les années à venir. Le statut médiatique désormais occupé par l'intelligence artificielle
n'a guère laissé les questions sur ce domaine entre les mains des chercheurs, mais dans le
débat public. Logiquement, cela crée autant de tension que d'excitation. Malheureusement,
nous venons tout juste de commencer à intégrer ces technologies à grande échelle. De
nombreuses surprises nous sont encore préparées dans les prochaines décennies.
S: Situation
Les lois de l’intelligence artificielle
Première Loi: Un robot ne doit jamais blesser un être humain ni, par son inaction, permettre
qu'un humain soit blessé.

Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains quoi qu'il arrive
et en toutes circonstances, sauf si de tels ordres sont en contradiction avec la 1ère Loi.

Troisième Loi : Un robot doit maintenir sa survie aussi longtemps que ça ne soit pas en
contradiction avec la 1ère et/ou la 2éme Loi.

Reformulation:

Contrairement à ce qu'on essaie (aussi) souvent de vous faire croire, aucune machine
ne peut apprendre par elle-même, c'est un abus de langage. Dans la vraie vie, on
identifie un processus que l'on veut automatiser (par exemple en classant des photos de
chiens et de chats), on équipe un ordinateur de compétences analytiques (par exemple,
la reconnaissance visuelle) qui lui permettent de simuler des fonctions cognitives
(raisonnement) , afin de développer un modèle de traitement de l'information (ex :
entrée, photo en vrac ; sortie, photo classée). Au début, ce modèle est très imparfait,
donc différentes familles/variantes d'algorithmes sont testées pour optimiser ce modèle.
Donc, dans l'absolu, ce n'est pas l'algorithme qui évolue, c'est le modèle de traitement.
Un modèle spécifique du processus cognitif qu'il vous est demandé de simuler, ainsi que
les données utilisées dans votre entraînement. Une fois que vous avez atteint un
premier niveau de compétences cognitives, le modèle s'enrichit pour vous demander de
faire des choses plus complexes.

Contrairement à ce qu'on essaie (aussi) souvent de vous faire croire, aucune machine ne
peut apprendre par elle-même, c'est un abus de langage.Dans la vraie vie, on identifie un
processus que l'on veut automatiser (par exemple en classant des photos de chiens et de
chats), on équipe un ordinateur de compétences analytiques (par exemple, la
reconnaissance visuelle) qui lui permettent de simuler des fonctions cognitives
(raisonnement) , afin de développer un modèle de traitement de l'information (ex : entrée,
photo en vrac ; sortie, photo classée). Au début, ce modèle est très imparfait, donc
différentes familles/variantes d'algorithmes sont testées pour optimiser ce modèle. Donc,
dans l'absolu, ce n'est pas l'algorithme qui évolue, c'est le modèle de traitement. Un modèle
spécifique du processus cognitif qu'il vous est demandé de simuler, ainsi que les données
utilisées dans votre entraînement. Une fois que vous avez atteint un premier niveau de
compétences cognitives, le modèle s'enrichit pour vous demander de faire des choses plus
complexes.

Machine learning

Deep learning

Machine Learning vs Deep Learning : quelle différence ?

L’intelligence artificielle et la programmation:


système informatique. Certaines personnes peuvent même définir l'intelligence artificielle
comme un produit de la programmation. Il représente la base de divers développements
informatiques et systèmes intelligents. Il comprend toutes les mesures prises pour que ces
systèmes fonctionnent correctement. Par conséquent, pour concevoir de nouveaux logiciels,
sites Web et même des applications mobiles basés sur l'IA, un data analyst ou data scientist
doit utiliser la programmation .

D'un point de vue scientifique, il se considère comme la compilation du code source du


système informatique intelligent . Au lieu de cela, la data science préfère utiliser le terme «
développement intelligent » pour l'identifier. Lors de sa mise en œuvre, plusieurs paramètres
doivent être pris en compte, tels que les caractéristiques du système, les tests de
performance, la surveillance et la maintenance. Des centaines de langages de
programmation en informatique peuvent être utilisés librement. Cependant, certains
langages se distinguent par leur facilité d'utilisation, leur particularité et la variété des options
qu'ils proposent. Dans l'IA school, nous nous intéressons davantage à Python, R, C++, JAVA
et LISP.

1- Python : le leader inconstesté de l’Intelligence Artificielle :

Python est le langage préféré des développeurs de l’intelligence artificielle grâce à la


simplicité de sa syntaxe. Les syntaxes développées par Python sont simples et peuvent être
apprises facilement. Le langage de programmation est moins compliqué que Java ou C++
en ce qui concerne le machine learning par exemple. De plus, ce code s’adapte à de
nombreuses plateformes de développements comme Windows, Linux, Mac OS et Unix.
Enfin, Python supporte le développement fonctionnel, le développement orienté objet et le
développement procédural.

Avantages du Python

● Python bénéficie d’un temps de développement généralement plus court que


d’autres langages comme Java ou C++.
● De nombreuses librairies Python existent, ce qui rend son développement plus
simple. Citons ici Pybrain qui est utilisé dans le cadre du machine learning.

Inconvénients du Python

● Contrairement à Java ou C++, Python fonctionne à l’aide d’un interpréteur ce qui


rend la compilation et l’exécution plus lentes.
● Python ne convient pas pour l’IA liée aux applications mobiles.

2- JAVA : le challenger sans compilation :

Java est un autre langage de programmation qui permet de coder l’intelligence artificielle.
Cet outil est avec Python l’un des codes les plus utilisés pour l’IA. De fait, cette technologie
est assez demandée dans les recrutements du secteur. Comme Python, Java est un
langage multi-paradigme. Sa syntaxe provient principalement du langage C et C++. Java
convient bien au traitement automatique du langage naturel (NLP, Natural Language
Processing) et aux recherches algorithmiques mais aussi au Neural Network (des séries
d’algorithmes qui reproduisent une intelligence humaine).

Avantages du Java

● Contrairement à C++, Java est relativement simple à utiliser et à débuger


● Java fonctionne sur de nombreuses plateformes, grâce à la technologie de la
machine virtuelle.
● Représentation graphique des données propre
● Pas besoin de compilation

Points faibles du Java

● Java est plus lent que C++ et Python. Il souffre d’un temps de réponse plus long et
d’une exécution moins rapide.

3- C++ : la valeur sûre de l’Intelligence artificielle :

C++ est le langage le plus rapide, sa rapidité est très appréciée pour les projets
d’intelligence artificielle qui sont limités dans le temps. Ce langage de programmation
permet une exécution rapide et un temps de réponse assez court, ce qui est utile pour des
moteurs de recherche ou les jeux vidéos. C++ est approprié notamment pour le machine
learning et le Neural Network.

Avantages du C++

● Outil bien adapté pour résoudre des problèmes complexes d’intelligence artificielle.
● On peut trouver des librairies de fonctions assez fournies
● C++ est un outil de développement multi-paradigmes qui supporte les principes de
l’orienté objet.
Points faibles du C++

● Compliqué pour des développeurs néophytes

4– LISP : Le vieil outsider :

LISP est un vieux langage de programmation et des améliorations ont été apportées pour en
faire un lange puissant et dynamique. Cependant il reste nettement moins utilisé et
recherché que les 3 précédents, notamment en termes d’intelligence artificielle. Certains
considèrent que LISP est le meilleur langage de programmation d’IA en raison de la grande
liberté donnée aux développeurs. En effet, LISP est utilisé en IA pour sa grande flexibilité,
pour sa rapidité à sortir des prototypes. Enfin, Lisp, contrairement à la plupart des langages
est plus efficace pour résoudre certains problèmes spécifiques car il s’adapte aux besoins
de la solution que l’informaticien développe. Cela fonctionne très bien dans les projets de
logique inductive et pour le machine learning.

Avantages de Lisp

● Rapide et efficace dans la phase de développement, comme le langage est supporté


par des compilateurs à la place des interpréteurs

Points faibles de Lisp

● Communauté trop petite à notre sens pour trouver des informations facilement,
surtout si vous débutez
● Ne marche pas dans tous les environnements, en raison de son ancienneté

5– R : le langage de la statistique :

R est l’un des langages de programmation les plus efficaces pour analyser et manipuler des
données dans un but statistique. En utilisant R, on peut facilement produire de belles
publications grâce à la data visualisation, avec des formules si besoin. R bénéficie de
nombreux packages comme RODBC, Gmodels, Claass et Tm qui sont utilisés pour le
machine learning. Ainsi, ces packages rendent l’implémentation du machine learning assez
facile.

Avantages
● Réduire les erreurs

(L'intelligence artificielle nous aide à réduire les erreurs humaines et les chances d'obtenir
une précision plus élevée. Elle est utilisée dans divers domaines tels que l'exploration
spatiale).

● Exploration difficile

(En programmant des robots, ils peuvent assumer de plus grandes responsabilités et
effectuer des tâches plus laborieuses et difficiles. De plus, ils ne sont pas sujets à l'usure).
● Travail répétitif

(L'intelligence artificielle peut être utilisée pour effectuer des tâches répétitives monotones.
Les machines pensent plus vite que les humains et peuvent gérer plusieurs tâches en même
temps).

● Pas de repos

(Ces machines sont programmées depuis longtemps et peuvent fonctionner en continu sans
se sentir ennuyé, distrait ou même fatigué).

● Assistant numérique

(Les organisations les plus avancées utilisent des "avatars", c'est-à-dire des répliques ou
des assistants numériques, pour pouvoir interagir avec les utilisateurs, économisant ainsi
des ressources humaines).

● Applications médicales

(La robotique est souvent utilisée pour aider les patients en santé mentale à se débarrasser
de la dépression et à rester actifs).

Inconvénient
● Coût élevé

La création de l'intelligence artificielle nécessite des coûts énormes car ce sont des
machines très complexes. Leur réparation et leur entretien entraînent également des coûts
importants.

● Aucune initiative

Les machines n'ont aucune valeur émotionnelle et morale. Ils exécutent des procédures
prédéterminées et ne peuvent juger du bien ou du mal. Incapable de prendre une décision
même face à une situation inconnue. Dans ce cas, ils ne fonctionnent pas correctement ou
présentent un dysfonctionnement.

● Amélioration inexpérimentée

Contrairement aux humains, l'intelligence artificielle ne peut pas être améliorée par
l'expérience. Au fil du temps, cela peut entraîner une usure. Il stocke beaucoup de données,
mais sa façon d'y accéder et de l'utiliser est très différente de l'intelligence humaine.

● Pas de créativité

Les êtres humains sont des intellectuels extrêmement sensibles et perceptifs. Ils voient,
entendent, pensent et ressentent. Leurs pensées sont guidées par un sentiment d'absence
totale de machines. Les capacités intuitives inhérentes au cerveau humain ne peuvent pas
être reproduites.
● Sans emploi

Remplacer les humains par des machines entraînera un taux de chômage élevé.
P: Les problèmes relatifs:
Les dangers de L’IA
Voiture à conduite automatique drones militaires, attaques de phishing ciblées, fausses
informations ou manipulation des marchés financiers... "L'expansion des capacités
technologiques basées sur l'intelligence artificielle s'accompagne d'une augmentation de son
potentiel d'exploitation criminelle", a averti Lewis. Griffin, informaticien à l'University College
London (UCL). Lui et ses collègues ont compilé une liste de 20 activités illégales perpétrées
par AI et ont cliqué sur le classement des dangers potentiels, profit ou profit, est facile à
mettre en œuvre et difficile à détecter et à arrêter.

Les crimes les plus terribles, comme les "robots antivols" qui s'introduisent dans votre
appartement, ne sont pas forcément les plus dangereux car ils sont facilement frustrés et
affectent très peu de personnes à la fois. Au contraire, les fausses informations générées
par les « bots » ont la capacité de nuire à la réputation de personnes connues ou de faire du
chantage. Ces « fraudes profondes » sont difficiles à combattre et causeront des dommages
économiques et sociaux considérables.

Intelligence artificielle : les menaces graves

1. Fausse vidéo : usurper l'identité de quelqu'un en demandant à quelqu'un de dire ou


de faire quelque chose qu'il n'a jamais dit ou fait afin de demander l'accès à des
données sécurisées, manipuler la vague d'opinion publique pour nuire à la réputation
de quelqu'un..... . Ces fausses vidéos sont presque indétectables.

2. Pirates de voitures autonomes : prenez le contrôle de la voiture autonome et


utilisez-la comme une arme (par exemple perpétrer une attaque terroriste, provoquer
un accident, etc).

3. Phishing personnalisé : générez des messages personnalisés et automatisés pour


augmenter l'efficacité du phishing visant à collecter des informations de sécurité ou à
installer des logiciels malveillants.

4. Attaques de piratage contre les systèmes de contrôle d'intelligence artificielle


: Détruisez l'infrastructure en provoquant, par exemple, des pannes de courant
totales, des embouteillages ou l'interruption de la logistique alimentaire.

5. Chantage massif : collectez des données personnelles pour envoyer des messages
de menace automatisés. L'intelligence artificielle peut également être utilisée pour
générer de fausses preuves (telles que le « comportement sexuel »).

6. Fausses informations écrites par IA : Rédigez des articles promotionnels qui


semblent provenir de sources fiables. L'intelligence artificielle peut également être
utilisée pour générer plusieurs versions d'un contenu spécifique afin d'augmenter sa
visibilité et sa crédibilité.
Intelligence artificielle : les menaces de moyenne gravité

1. Robots militaires : contrôlez des robots ou des armes à des fins criminelles. Une
menace potentiellement très dangereuse, mais difficile à mettre en œuvre.Les
équipements militaires sont généralement bien protégés.

2. Arnaque : Utilisez l'IA pour vendre des services frauduleux. Il existe de nombreux
exemples d'escrocs notoires qui vendent avec succès de fausses technologies
coûteuses à de grandes organisations, notamment le gouvernement national et
l'armée.

3. Corruption des données : modifiez ou introduisez délibérément de fausses


données pour induire des biais spécifiques. Par exemple, rendre les détecteurs
insensibles aux armes ou encourager les algorithmes à investir sur des marchés
spécifiques.

4. Cyber-attaques basées sur l'apprentissage : Menez des attaques spécifiques et à


grande échelle, telles que l'utilisation de l'intelligence artificielle pour détecter les
faiblesses du système avant de lancer plusieurs attaques simultanées.

5. Drones d'attaque autonomes : détournez des drones autonomes ou utilisez-les


pour attaquer des cibles. Ces drones peuvent être particulièrement menaçants s'ils
agissent collectivement en groupes auto-organisés.

6. Accès refusé : endommager ou priver les utilisateurs de l'accès aux services


financiers, à l'emploi, aux services publics ou aux activités sociales. Peu rentable en
soi, cette technique peut servir de chantage.

7. Reconnaissance faciale : détourner le système de reconnaissance faciale, par


exemple en réalisant de fausses photos d'identité (accès aux smartphones, caméras
de surveillance, contrôle des passagers, etc.)

8. Manipulation du marché financier : Afin de nuire aux concurrents, de réduire ou


d'augmenter artificiellement la valeur, entraînant un effondrement financier...

Intelligence artificielle : les menaces de faible intensité

1. Utiliser les biais utilisez les biais existants dans l'algorithme, tels que les
recommandations YouTube aux téléspectateurs de la chaîne ou les classements
Google pour améliorer les informations sur les produits ou rabaisser les concurrents.
2. Robot antivol Utilisez un petit robot autonome à glisser dans la boîte aux lettres ou
la fenêtre pour récupérer la clé ou ouvrir la porte. Les dégâts peuvent être faibles car
très limités à une petite zone.
3. Blocage de détection : déjouer le tri et la collecte de données par IA afin d'effacer
des preuves ou de dissimuler des informations criminelles
4. Fausses critiques rédigées : générer des faux avis sur des sites tels que Amazon
ou Tripadvisor pour nuire ou favoriser un produit.
5. Traque assistée : utiliser les systèmes d'apprentissage pour pister l'emplacement et
l'activité d'un individu.
6. Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique,
pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure
assez faible dans la mesure où les tableaux ou musiques connues sont peu
nombreux.

Impact de l’IA sur le travail


L’IA DANS LE FUTUR : QUELLES PERSPECTIVES ?

Le marché prolifique de l'intelligence artificielle continuera sans aucun doute à croître de


façon exponentielle dans les prochaines décennies. Si bien que certains grands industriels
et scientifiques ayant l'intelligence artificielle comme cœur de métier, comme Elon Musk, Bill
Gates et feu Stephen Hawking, ont commencé à s'inquiéter des conséquences possibles du
manque de contrôle des humains sur l'intelligence artificielle. L'impact éventuel de cette
situation sera particulièrement préoccupant : piratage à grande échelle, cyberguerre,
augmentation du chômage et augmentation du nombre de substitutions d'emplois. Utilisez-le
en fonction des décisions sociales et devenez une source de progrès humain et humain.
planète. Par exemple, dans le domaine médical, l'impact de l'intelligence artificielle est
considérable car elle permet déjà un diagnostic fiable.

L'Intelligence Artificielle, perspectives d'avenir et avenir du travail:

Les prédictions du futur façonnées par l'intelligence artificielle (IA) sont infinies. Antoine
Blondeau a contribué au développement de la saisie prédictive et de la technologie Siri, et
l'assistant vocal d'Apple Siri sait de quoi il parle mieux que les autres. "Dans 30 ans, le
monde sera très différent", a déclaré le Français de 48 ans, qui a quitté la France il y a
longtemps et partage désormais sa vie entre la Californie et Hong Kong. "Tout sera conçu en
fonction de vos besoins personnels." "Dans 30 ans, le monde sera très différent", a déclaré
le Français de 48 ans, qui a quitté la France il y a longtemps et partage désormais sa vie
entre la Californie et Hong Kong. "Tout sera conçu en fonction de vos besoins personnels."
Les progrès de la robotique sensorielle et visuelle permettront de créer des usines
intelligentes pour la prise de décision en temps réel. Ils n'ont pas besoin de travailleurs,
seulement de superviseurs. Majeures en droit, actualités, comptabilité et la vente au détail
seront rationalisées.

Il a estimé que la santé serait également affectée. Les individus auront toutes leurs données
de santé, et l'intelligence artificielle pourra diagnostiquer. "Si nous prenons rendez-vous
avec un médecin, c'est plus pour le confort de parler avec les gens, ou parce que les gens
ont besoin de dispenser des médicaments. Mais nous n'avons pas nécessairement besoin
d'un médecin pour expliquer ce qui s'est mal passé."

Comment l’IA risque-t-elle de perturber le marché du travail?

En ce qui concerne les tâches planifiées pour l'automatisation, on dit souvent que
l'intelligence artificielle peut être utilisée pour effectuer des tâches essentiellement
répétitives qui impliquent la détection d'informations, la découverte de tendances ou la
réponse à des actions spécifiques. En pratique, il est rare que toutes les fonctions d'une
personne soient ainsi automatisées. Ce ne sont que quelques-uns d'entre eux. Bien que
l'automatisation puisse rendre cette personne plus efficace car elle peut passer plus de
temps à faire un travail sans doute plus significatif, elle réduit le nombre de membres de
l'équipe nécessaires pour accomplir la charge de travail ce qui signifie que le nombre
d’employés peut être moindre.

Nombre Augmentation de la Diminution de la demande


demande

1 Analystes et scientifiques de Commis à la saisie de


données données

2 Spécialistes de l’intelligence Secrétaires d’administration


artificielle et de et de direction
l’apprentissage machine

3 Spécialistes des données Comptables et teneurs de


massives livres

4 Agents de marketing et de Comptables et vérificateurs


stratégies numériques

5 Spécialistes de Travailleurs à la chaîne et


l’automatisation des ouvriers d’usine
processus

6 Professionnels de Gestionnaires de
l’expansion des affaires l’administration des activités

7 Spécialistes de la Agents de service à la


transformation numérique clientèle

8 Analystes de la sécurité de Directeurs des opérations


l’information

9 Développeurs de logiciels et Mécaniciens et réparateurs


d’applications de machines

10 Spécialistes de l’Internet Commis à la tenue des


des objets stocks

Source : Étude sur l’avenir de l’emploi, Forum économique mondial, 2020

Part du travail fait par la machine plutôt que par l’homme, 2020 et 2025 (prévision)
R: Réalisation
6- les domaines d’utilisation:
L’IA dans l’industrie

Dans l'industrie, l'exemple qui me vient à l'esprit est le système de préparation de


commandes basé sur la flotte de robots de la start-up française Exotec. Mais les cas
d'utilisation de l'industrie sont beaucoup plus larges : optimisation de la chaîne
d'approvisionnement, gestion et prévision des stocks, prévision des traitements,
automatisation du contrôle qualité, etc.

L’IA dans la cybersécurité

En termes de sécurité, l'intensité des cyberattaques enregistrées pendant la période de


confinement a été quatre fois supérieure à celle-ci.C'est un domaine stratégique dans lequel
nous devons continuer à investir. Depuis plusieurs années, l'intelligence artificielle est
essentielle pour identifier la relation entre différentes menaces : fichiers malveillants,
adresses IP suspectes, menaces internes, etc. Cette analyse ne prend que quelques
secondes et permet aux analystes de sécurité de répondre aux menaces jusqu'à 60 fois plus
rapidement. La start-up CybelAngel fournit des solutions pour aider les entreprises à
détecter les violations de données et diverses menaces du dark web apportées par
l'intelligence artificielle. Vade Secure se concentre sur la prévention des attaques avancées
et sophistiquées déployées par e-mail.

L’IA dans la santé

Dans un monde où la médecine et les données sont de plus en plus connectées, l'innovation
dans le secteur de la santé n'a pas connu de crise. De l'aide au diagnostic en imagerie
médicale au parcours des patients en passant par le suivi des effets des traitements, de
nombreuses startups en intelligence artificielle œuvrent à l'amélioration du système de
santé. Certaines startups comme Owkin, qui utilisent une architecture d'apprentissage
fédérale décentralisée et plus sécurisée pour protéger les données personnelles des
patients, Withings (objets connectés), Implicity (connecté au suivi à distance des prothèses
cardiaques), Incepto Medical (imagerie médicale) ou Cardiologs (Explication) ECG) est
différent.

L’IA dans le commerce

L'intelligence artificielle en entreprise regorge de startups B2B dont le public ne connaît pas
grand-chose. Les deux derniers financements d'envergure en France ont porté sur
l'amélioration de l'expérience client. Contentsquare lance un logiciel SaaS pour optimiser
l'expérience client et augmenter le taux de conversion des sites e-commerce. Après avoir
annoncé son tour de table de 175 millions d'euros D, elle a obtenu le statut de licorne en mai
dernier. AB Tasty, qui se concentre sur l'optimisation de l'expérience client, a levé avec
succès 37 millions d'euros de financement de série C en juillet 2020. Les cas d'usage sont

également nombreux, il suffit de consulter notre cartographie de 453 startups de l'IA en


France pour comprendre : marketing prédictif, optimisation des performances des réseaux,
agents de dialogue (robots), etc. Les entrepreneurs français ne manquent pas de créativité !

L’IA dans la recherche

Bien sûr, sans recherche, il ne peut y avoir d'innovation en intelligence artificielle. De


nombreuses start-up qui réussissent aujourd'hui en France sont issues de centres de
recherche. Par exemple, la start-up Prophesee est experte en vision artificielle, issue de
l'Institut de la Vision (CNRS, Université Pierre et Marie Curie, INSERM).

Avant de pouvoir se servir d’une telle technologie et obtenir une valeur ajoutée, de
nombreuses étapes liées à la collecte, la gestion ou encore l’uniformisation des
données des consommateurs doivent être mises en place. Quelles sont ces
différentes étapes et comment les experts de l’IA peuvent-ils parvenir à surmonter ces
barrières selon vous ?

Certes, les données sont l'un des facteurs clés de la réussite de tout projet d'IA. La chose la
plus importante est de bien comprendre vos actifs de données, de bien comprendre leur
qualité et d'avoir la capacité d'activer ces données dans les services d'IA. Heureusement,
sur tous ces sites, il existe de belles pépites d'or françaises qui peuvent soutenir l'entreprise
: par exemple, Saagie propose une plateforme qui permet de déployer rapidement des
projets big data en production et d'embarquer l'IA dans vos applications dans la foulée.
Cosmian a développé et publié une plate-forme logicielle pour le cryptage des données. La
solution permet l'analyse et l'utilisation de données chiffrées sans endommager les données,
et de chiffrer les données pendant leur utilisation, afin de maintenir le chiffrement de bout en
bout. Par ailleurs, l'évaluation des données est le véritable enjeu de la transformation digitale
: les entreprises ont de plus en plus besoin de partager des données en interne et en
externe.

7- les projets :
Les Etats-Unis :

PROJET CARRETA : véhicule automatisé dédié à la logistique


urbaine.

Les enjeux et objectifs du projet

Face à l’essor croissant des flux de transport de marchandises, les centres urbains sont
confrontés à des problèmes majeurs de congestion de l’espace public et de nuisances
sonores. L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi
des enjeux prégnants. Le projet Carreta vise à tester une solution innovante et durable
pour la livraison de marchandises en ville et à évaluer sa maturité et sa pertinence d’un point
de vue technologique, environnemental, usuel, économique, social et sociétal. Ces
véhicules automatisés, complémentaires de l’action humaine, sont conçus pour assister les

livreurs et les libérer des tâches les plus pénibles ou répétitives (charges lourdes,
aller-retours…), afin de leur permettre de se dédier au contact humain.

Vu la croissance des flux de transport de marchandises, les centres urbains sont confrontés
à des problèmes majeurs de congestion de l’espace public et de nuisances sonores.
L’optimisation de l’espace public et l’accessibilité au centre-ville constituent ainsi des enjeux
prégnants. Le projet Carreta vise à tester une solution durable et innovante pour la livraison
de marchandises en ville et à évaluer sa maturité et sa compétence d’un point de vue
technologique, environnemental, usuel, économique, sociétal et social . Ces véhicules
automatisés, complémentaires de l’action humaine, sont conçus pour assister les livreurs et
les libérer des tâches les plus affreuses ou répétitives (charges lourdes, aller-retours…), afin
de leur permettre de se dédier au contact humain.

L’expérimentation en trois phases

D'ici 36 mois, des petits véhicules électriques autonomes seront testés en mission de
livraison. Les cas d'usage concernent l'expédition de colis pour La Poste et de produits frais
pour STEF. Ces robots, ou petits véhicules, seront d'abord conduits systématiquement dans
le quartier d'Antigone, accompagnés d'une personne, puis dans le centre historique de
Montpellier. Le projet se déroule en trois phases : La première phase a démarré le 17
septembre et vise à vérifier tous les modules techniques du véhicule logistique automatisé
pour vérifier sa fiabilité opérationnelle et ses fonctions, notamment sa capacité à tracer des
cartes, identifier et définir des itinéraires, et détecter d'éventuels obstacles. La deuxième
phase, qui débutera en 2022, vise à vérifier le comportement des véhicules autonomes par

rapport à leur environnement de circulation et leur capacité à répondre aux contraintes


opérationnelles liées aux horaires, itinéraires et autres cas d'utilisation. STEF et LA
POSTE.Au cours des deux premières étapes, le véhicule tournera au ralenti dans les rues
de Montpellier pour collecter un maximum de données et ajuster le comportement du
véhicule en fonction des retours d'expérience. La troisième et dernière phase comprendra
des expérimentations en conditions réelles d'utilisation : des véhicules logistiques
automatisés transportent des marchandises pour vérifier leur pertinence par rapport aux cas
d'usage identifiés par STEF et LA POSTE.

Projet 2 : Tesla
Elon Musk est toujours obsédé par le concept d'intelligence artificielle hérité de la
science-fiction. Il a annoncé un projet de robot humanoïde baptisé “Tesla Robot". Le
prototype sera prévu l'année prochaine. Basé sur une technologie d'aide à la conduite de
ses voitures, le robot fait actuellement l'objet d'une série d'enquêtes sur des accidents aux
États-Unis, visant à remplacer les travailleurs humains dans l'exécution de certaines tâches
dangereuses ou ingrates. Un projet difficile à mettre en œuvre.

Lors d'une conférence intitulée Tesla AI Day tenue en ligne le 20 août de cette année, Elon
Musk a annoncé son intention de construire des prototypes de robots humanoïdes dès
2022. L'appareil s'appelle Tesla Bot et est conçu pour imiter les humains. L'appareil devrait
utiliser l'expertise de Tesla dans la fabrication de voitures et la technologie de conduite
autonome.

Une réplique a été affichée sur la scène pour montrer la conception que le prototype aura. Il
mesurera 172 cm, pèsera environ 56 kg et aura un écran en guise de visage. Sa perception
sera assurée par les capteurs d'Autopilot, et le traitement de l'information sera également
géré par le système que Tesla utilise dans ses véhicules. Tesla a signalé 40 actionneurs
électromécaniques pour les mains sportives et "humaines".

Le problème est évidemment de savoir si cette annonce est sérieuse et si le projet est
réalisable. La réponse semble évidemment non. Elon Musk est peut-être un entrepreneur au
succès indéniable (avec Tesla, en particulier SpaceX), et l'annonce de Tesla est en fait
farfelue à bien des égards.
Déjà parce que cette technologie n'a pas encore été développée. Concernant les robots,
L'équipe à la pointe de l'innovation est Boston Dynamics. Son robot est désormais capable
de se déplacer rapidement et de franchir des obstacles dans un environnement relativement
complexe. Cependant, ils sont encore loin de pouvoir remplacer les travaux humains, et leur
vitesse de course n'est pas un problème, mais leur autonomie est très limitée. De plus, l'idée
d'un robot s'enfuyant ou se battant avec lui rappelle une histoire de science-fiction, mais elle
est incompatible avec la réalité scientifique actuelle, c'est-à-dire que la machine n'a ni
"conscience" ni capacité. En revanche, les accidents impliquant des robots sont un réel
problème, lié à des négligences ou à des erreurs de conception. Dans l'usine, ce qui
s'intéresse à cette question, c'est le domaine de la recherche en robotique.

Tesla le sait également car ses véhicules font l'objet d'une enquête par la National Highway
Safety Administration (NHTSA). Une série d'accidents causés par son système avancé
d'aide à la conduite , Le service marketing de l'entreprise la décrit souvent comme étant
capable (ou bientôt) de conduire seule lorsque ses performances sont inférieures à celles de
ses concurrents. De plus, cet écart entre le marketing et la réalité Est au cœur de plusieurs
conflits internes , L'équipe chargée de ces développements a connu de multiples
démissions. Les gens douteront presque que la sortie de ce robot soit une tentative de
transfert de média.

La technologie de conduite entièrement automatisée de Tesla, y compris le pilote


automatique au nom douteux, est le point de départ pour les développeurs de Tesla Bot.
Bien que cette technologie soit impressionnante, il s'avère qu'elle n'est pas totalement
fiable.Les accidents et les décès associés au mode pilote automatique de Tesla – le dernier
en date ayant à voir avec les algorithmes qui luttent pour reconnaître les véhicules d'urgence
garés – remettent en question la sagesse de relâcher la technologie dans la nature si tôt.

Ce bilan n'augure rien de bon pour les robots humanoïdes qui reposent sur la même
technologie. Pourtant, il ne s'agit pas seulement d'obtenir la bonne technologie. Les
difficultés du pilote automatique de Tesla sont exacerbées par le comportement humain . Par
exemple, certains conducteurs de Tesla ont examiné leurs voitures à technologie améliorée
comme s'il s'agissait de véhicules entièrement autonomes et n'ont pas prêté suffisamment
d'attention à la conduite. Quelque chose de similaire pourrait-il se mettre en avant avec le
Tesla Bot ?

Le Tesla Bot est donné avec tout un portefeuille de risques orphelins, y compris des
menaces possibles pour la vie privée et l'autonomie"

Dans mes travaux sur l'innovation technologique socialement bénéfique, je m'intéresse


particulièrement aux risques orphelins. Ce sont des risques difficiles à quantifier et faciles à
ignorer .En effet , ils finissent inévitablement par faire trébucher les innovateurs.

Mes collègues et moi travaillons avec des entrepreneurs et d'autres pour surmonter ces
types de défis grâce au Risk Innovation Nexus , une initiative de l' Institut d'entrepreneuriat
et d'innovation Orin Edson de l'Arizona State University et du Global Futures Laboratory .

Le Tesla Bot est donné avec tout un portefeuille de risques orphelins. ils incluent des
menaces possibles à la vie privée et à l'autonomie : le bot collecte, partage et agit sur des
informations potentiellement sensibles ; les défis associés à la façon dont les gens sont
susceptibles de penser et de réagir aux robots humanoïdes ; les décalages potentiels entre
les futur éthiques ou idéologiques (par exemple, dans le contrôle de la criminalité ou le
maintien de l'ordre dans les manifestations civiles) et plus encore. Ce sont des défis qui sont
rarement abordés dans la formation que reçoivent les ingénieurs, et pourtant, les ignorer
peut mener au désastre .

Alors que le Tesla Bot peut avérer bénin - ou même un peu une blague - s'il doit être
bénéfique ainsi qu'un succès commercial, ses développeurs, investisseurs, consommateurs
et autres doivent se poser des questions difficiles sur la façon dont il pourrait menacer ce qui
est important pour eux et comment administrer ces menaces.

Ces menaces peuvent être aussi spécifiques que des personnes effectuant des
modifications illégales qui augmentent les performances du robot – le faisant se déplacer
plus rapidement que prévu par ses concepteurs, par exemple – sans penser aux risques. Ou
ils peuvent être aussi généraux que la technologie innovante. Un robot humanoïde pourrait
menacer la sécurité de l'emploi, ou comment un robot qui comprend des systèmes de
surveillance avancés pourrait porter atteinte à la vie privée.

Ensuite, les défis du biais technologique affligent l'IA depuis un certain temps, en particulier
lorsqu'il conduit à un comportement appris qui s'avère hautement différentiel. Par exemple,
les algorithmes d'IA ont produit des résultats racistes et sexistes .
I: Perspectives

L’IA DANS LE FUTUR : QUELLES PERSPECTIVES ?

Le marché prolifique de l'intelligence artificielle continuera sans aucun doute à croître de


façon exponentielle dans les prochaines décennies. Si bien que certains grands industriels
et scientifiques ayant l'intelligence artificielle comme cœur de métier, comme Elon Musk, Bill
Gates et feu Stephen Hawking, ont commencé à s'inquiéter des conséquences possibles du
manque de contrôle des humains sur l'intelligence artificielle.

L'impact éventuel de cette situation sera particulièrement préoccupant : piratage à grande


échelle, cyberguerre, augmentation du chômage et augmentation du nombre de
substitutions d'emplois. Utilisez-le en fonction des décisions sociales et devenez une source
de progrès humain et humain. planète. Par exemple, dans le domaine médical, l'impact de
l'intelligence artificielle est considérable car elle permet déjà un diagnostic fiable.
T: Terminaison

Conclusion
L’IA est avant tout une transposition de l’esprit humain au niveau technologique, un outil qui
prend forme dans toutes sortes d’applications très puissantes mais aussi très complexes.
Aujourd’hui encore l’IA est limitée :
Contrainte de puissance.
Contrainte d’optimisation des calculs.
Contrainte d’apprentissage.
Contrainte du langage.
Elle reste pour l’instant humaine au sens stricte du terme. les limites d'IA: Les limites de
l’intelligence artificielle

les limites d'IA:


Les limites de l’intelligence artificielle

Vous aimerez peut-être aussi