Académique Documents
Professionnel Documents
Culture Documents
****** ******
Paix-Travail-Patrie Peace-Work-Fatherland
****** ******
MINISTERE DE MINISTRY OF HIGHER
L’ENSEIGNEMENT SUPERIEUR EDUCATION
******* ******
GENIE AUTOMOBILE ET
MECATRONIQUE (GAM)
EXPOSE PROJET
CONTROLE CONTINU DE GESTION
1
Année académique
2023-2024
Table des matières
INTRODUCTION.....................................................................................................................3
I. Les prémices (1943-1989)..................................................................................................4
a) Le premier modèle de neurone formel 1943...........................................................................4
b) L’apprentissage hebbien 1949.................................................................................................5
c) Le perceptron 1957...................................................................................................................7
II. L’âge sombre (1990-2005).................................................................................................9
III. Le renouveau 2006-2012.................................................................................................10
IV. L’âge d’or (2012-aujourd’hui).......................................................................................10
V. Enjeux et perspectives.....................................................................................................11
CONCLUSION.......................................................................................................................11
2
INTRODUCTION
Le deep learning, ou apprentissage profond, est l’une des avancées les plus
prometteuses en intelligence artificielle ces dernières années. Ses applications transforment
déjà notre quotidien. Mais comprendre les ruptures historiques à l’origine de cette révolution
est indispensable pour appréhender les défis actuels et futurs de cette technologie.
Dans cet exposé, nous retracerons les grandes étapes qui ont jalonné le parcours du
deep learning, des prémices dans les années 1940 jusqu’à son âge d’or dans les années 2010.
Nous verrons comment des obstacles longtemps rédhibitoires ont pu être surmontés grâce à
des innovations algorithmiques et technologiques majeures.
Nous présenterons ensuite les récentes avancées qui ont démontré la puissance
stupéfiante, mais aussi les limites du deep learning dans les domaines comme la vision par
ordinateur ou la traduction automatique.
Enfin, nous ouvrirons des perspectives en abordant les approches hybrides
combinant deep learning et intelligence symbolique qui pourraient permettre de dépasser ces
limites. Nous discuterons également des questions éthiques fondamentales soulevées par le
déploiement massif de ces technologies.
3
I. Les prémices (1943-1989)
a) Le premier modèle de neurone formel 1943
Le deep Learning est un type de machine Learning, qui est lui-même un sous-ensemble
de l’intelligence artificielle qui utilise des algorithmes capables de mimer les actions du
cerveau humain grâce à des réseaux de neurones artificiels.
Un neurone reçoit des signaux électriques par le biais des dendrites et lorsque que le
neurone reçoit suffisamment de signaux en un temps donné (quelques millisecondes) alors il
déclenche ses propres signaux.
4
Le fonctionnement d’un neurone est relativement simple mais lorsqu’un neurone est
connecté à des milliers d’autres et qu’il y a des milliards de neurones, cela crée des réseaux
capables de résoudre des problèmes extrêmement complexes.
Warren McCulloch et Walter Pitts propose le premier neurone artificiel (1943), qui est un
modèle très simplifié du neurone biologique. Ce neurone artificiel possède une ou plusieurs
entrées et une sortie binaires.
Son fonctionnement est simple, le neurone active sa sortie (sortie active = 1) selon si ses
entrées dépassent un certain seuil. À partir de ce neurone, il est possible de construire
n’importe quel réseau de neurone artificiel capable de résoudre des opérations logiques.
Elle propose que les connexions entre les neurones du cerveau soient renforcées ou
affaiblies en fonction de la fréquence de leur utilisation. Cette théorie permet d’expliquer
comment l’apprentissage et la mémoire se produisent dans le cerveau.
5
connu sous le nom de potentialisation à long terme (LTP). À l’inverse, une diminution du
nombre de tirs neuronaux entraîne une diminution de la force de la connexion entre les
neurones. C’est ce qu’on appelle la dépression à long terme (LTD). Ce mécanisme permet au
cerveau de stocker et de récupérer les souvenirs.
La théorie de Hebb a été critiquée pour son manque de mécanisme explicite sur la façon
dont les souvenirs sont encodés et récupérés. En outre, la théorie ne tient pas compte de la
plasticité du cerveau, qui fait référence à la capacité du cerveau à se réorganiser et à s’adapter
à de nouvelles situations et expériences.
La théorie hébbienne est étroitement liée au connexionnisme, une théorie des sciences
cognitives qui affirme que le cerveau est composé d’un réseau de neurones interconnectés. La
théorie hébbienne est également liée au concept de plasticité synaptique, qui est la capacité
des synapses du cerveau à changer de force au fil du temps.
Soient x(t) et y(t) les activités des neurones présynaptique et postsynaptique à l'instant t.
L'algorithme de Hebb révisé définit la nouvelle valeur du poids synaptique w(t + 1) à l'instant
t + 1 comme suit :
6
w(t+1)=w(t)+α*x(t)*y(t)*h(t)
où :
h(t) est une fonction qui prend en compte la temporalité des activations des neurones
h(t) = max(0, t - τ)
où τ est un paramètre correspondant à l'intervalle de temps durant lequel les deux neurones
doivent être activés
c) Le perceptron 1957
Le perceptron est inventé en 1957 par Frank Rosenblatt. Le perceptron est un neurone
formel, le plus petit réseau neuronal possible, dont la fonction d’activation est une fonction
échelon également appelé Linear Threshold Function, ce qui fait du perceptron une unité
linéaire à seuil (ou Linear Threshold Unit). Le perceptron a en entrées des nombres
quelconques (contrairement aux neurones formels de McCulloch et Pitts qui ont des entrées
binaires) et chaque entrée est pondérée par un poids (w). Le perceptron possède un
algorithme lui permettant sur un ensemble de données avec des étiquettes d’apprendre les
poids des entrées.
7
indique une somme, on va donc faire la somme des deux entrées X1 et X2 pondérées par W1
et W2. Le résultat de cette somme est la valeur d’entrée de la fonction d’activation (dernier
cadre). Cette fonction détermine la sortie Y.
Le principe du perceptron est de classer les données qu’il reçoit en entrée en deux
groupes (0 ou 1). Cependant un perceptron ne peut classer que des données linéairement
séparables, c’est-à-dire des données que l’on peut séparer en deux groupes. De plus, il existe
des adaptations du perceptron pour séparer des données en plus de deux groupes et dans ce
cas le perceptron à plusieurs sorties.
8
On distingue une couche d’entrée en vert (il peut y avoir autant d’entrées que l’on
souhaite), des couches cachées en bleu (ici une couche unique avec 5 neurones) et une
couche de sortie en jaune (il peut y avoir plus d’une sortie).
Les perceptrons multicouches sont des réseaux neuronaux et ont pour objectif de classer des
données plus complexes que celles classées par un perceptron. Pour cela le perceptron
multicouches observe chacune des données qu'il possède et met à jour chaque poids de
chaque neurone de chaque couche de son réseau afin de classifier au mieux cette base de
données. L’algorithme que les perceptrons multicouches utilisent pour mette à jour leurs
poids s’appelle la rétropropagation du gradient de l’erreur.
A la fin des années 80, « il y a eu une vague d'intérêt pour le deep learning », se
souvient Yann LeCun, qui avait présenté sa thèse sur le sujet en 1987. Durant cette période,
les réseaux de neurones seront abandonnés, leur financement arrêté et les travaux qui vont en
perpétuer l’esprit se mèneront à l’écart du champ de l’IA. Ceci due aux limitations suivantes :
- Difficulté à entrainer les réseaux multicouches avec nombre de couches >2 à cause du
problème de disparition du gradient
- Manque de puissance de calcul disponible à l’époque pour entrainer de grands réseaux
de neurones
- Printemps de l’IA dans les années 90 : désaffection pour les réseaux de neurones au
profit des méthodes symboliques
- Quelques progrès sur les méthodes d’entrainement (algorithme de rétropropagation)
mais lent et limité.
III. Le renouveau 2006-2012
plus prometteurs. Ici on observe les progrès en puissance de calcul, notamment avec
l’utilisation des GPU pour le calcul parallèle. Des nouveaux algorithmes pour l’entrainement
des réseaux profonds comme les machines de Boltzmann sont créés (Geoffrey Hinton 2006).
On observe le développement des réseaux de neurones convolutionnels pour le traitement
d’images par LeCun dès 1998. Enfin les méthodes de pré-entrainement couche par couche par
Hinton permettent d’entrainer les réseaux profonds.
9
« On est passé d'un système un peu obscur à un système utilisé par des millions de
personnes en seulement deux ans. » Yann LeCun, un des pionniers du « deep learning », n'en
revient toujours pas. Après une longue traversée du désert, « l'apprentissage profond », qu'il a
contribué à inventer, est désormais la méthode phare de l'intelligence artificielle (IA). En
2013, Geoffrey Hinton remporte la prestigieuse compétition ImageNet consacrée à la
reconnaissance d'image avec une architecture convolutionnelle profonde. Une «
révolution », se souvient Yann LeCun :
« Il a gagné avec un taux d'erreur deux fois moins élevé que les compétiteurs les plus proches.
Une révolution. On est passé d'une attitude très sceptique à une situation où tout le monde
s'est mis à y travailler en un an et demi. Je n'ai jamais vu une révolution aussi rapide. Même
si, de mon point de vue, elle a mis beaucoup de temps à arriver… ». On peut également
mentionner :
V. Enjeux et perspectives
Malgré cette ascencion fulgurante, le deep learning présente encore des limites telles que
des données massives requises, le manque d’explicabilité, les difficultés du transfer learning.
Les chercheurs sont à la recherche de pistes pour hybrider deep learning et approches
symboliques complémentaires. Les questions éthiques sont aussi au centre des débats car ces
derniers mois, plusieurs personnalités, parmi lesquelles le fondateur de Microsoft, Bill Gates,
l'astrophysicien britannique Stephen Hawking et le PDG de Tesla, Elon Musk, avaient
exprimé leurs préoccupations par rapport aux progrès de l'intelligence artificielle, qu'ils jugent
potentiellement dangereuse.
10
Yann LeCun, lui, se veut pragmatique, et rappelle que le domaine de l'IA a souvent
souffert des attentes disproportionnées à son égard. Il espère que, cette fois, la discipline ne
sera pas victime de cette « inflation des promesses ».
CONCLUSION
Nous avons vu que le deep learning est le fruit d’une longue histoire faite de périodes
fastes et d’âges plus sombres. Mais depuis une dizaine d’années, les progrès fulgurants des
algorithmes et de la puissance de calcul ont conduit à un véritable âge d’or, avec des résultats
spectaculaires dans de multiples domaines. Cependant, derrière l’enthousiasme, de nombreux
défis restent à relever. Les approches symboliques et hybrides, la régulation éthique, la
transparence et l’explicabilité des modèles devront être explorées pour que l’IA responsable et
au service du bien commun ne soit pas qu’un vœu pieux.
Le deep learning initié il y’a plus de 70 ans n’en est probablement qu’à ses balbutiements. A
mesure que ces technologies transforment notre quotidien, il est de notre responsabilité
collective de veiller à ce que le meilleur côtoie toujours le meilleur de l’humanité, et non
l’inverse. L’histoire reste à écrire et ce passionant voyage ne fait que commencer.
11
12