Vous êtes sur la page 1sur 29

les algorithmes

d’apprentissage
automatique

Realisé par :
Lasmer Chèdi
Plan

01 02 03
Introduction Apprentissage Apprentissage non
supervisé supervisé

04 05
Les réseaux neuronaux Réseaux de neurones
convolutifs (CNN) récurrents (RNN)
Introduction
01
- Les vagues de chaleur provoquées par le changement climatique sont actuellement en forte augmentation dans
toute le monde et les risques d’incendie de forêt qui en découle s’accroit immensément.
- Pour cela Il existe plusieurs algorithmes d'apprentissage automatique qui peuvent être utilisés pour la détection
des incendies de forêt. Voici quelques-uns des plus couramment utilisés :
Apprentissage
02 supervisé
● Les modèles d'apprentissage supervisé exigent un travail préparatoire
important de la part des scientifiques de données.
● Les jeux de données en entrée doivent être étiquetés et les paramètres de
sortie doivent être indiqués, afin de préciser les résultats attendus.
● De plus, il est nécessaire de régler avec soin la précision pendant le
processus d'apprentissage

● Il existe plusieurs algorithmes, parmi eux on va parler de :

A. Régression B. algorithme des C. Arbre de décision


linéaire machines à vecteurs de
support (SVM)
A. Régression linéaire
● Les équipes de data science utilisent couramment les algorithmes de régression linéaire.
● Ces algorithmes permettent de mettre en évidence des corrélations simples entre deux variables
dans un jeu de données en examinant un ensemble d'entrées et les sorties correspondantes, et en
quantifiant la relation entre elles.
● Ils permettent notamment d'analyser comment le changement d'une variable affecte une autre.
● Les régressions linéaires sont souvent représentées graphiquement sous forme de lignes.
● En régression, nous traçons un graphique entre les variables qui correspondent le mieux aux points
de données donnés. La régression linéaire montre la relation linéaire entre la variable indépendante
(Axe X) et la variable dépendante (Axe y)
B. algorithme des machines à vecteurs de
support (SVM)
● Les SVM (Séparateurs à vastes marges), ou machines à vecteurs de support, sont des
algorithmes qui ont pour objectif de séparer les données en classes.
● cherche à trouver une ligne qui permet de séparer les données d'un jeu en classes
spécifiques, tout en maximisant les marges
● Une fois les lignes de classification apprises, le modèle peut ensuite les appliquer aux
nouvelles données pour les classer en fonction des caractéristiques qu'elles présentent.
● l’algorithme est idéal pour identifier des classes simples qu’il sépare par des vecteurs
nommés hyperplans
● Elles peuvent être utilisées pour la classification d'images satellitaires ou pour la
détection d'anomalies dans les données de capteurs.
C. Arbre de décision
● Les arbres de décision sont une méthode d'apprentissage automatique
supervisée qui peuvent être utilisés pour classer les données en fonction de
différents critères.
●  
● L'algorithme d'arbre de décision représente les données sous forme graphique,
avec des branches qui montrent les résultats possibles de différentes actions.
● Il permet de classer et de prédire les variables de réponse en se basant sur les
décisions prises dans le passé.
● Ils sont souvent utilisés pour la classification des images satellitaires et peuvent
être utilisés pour la détection des incendies de forêt.
Apprentissage non
03 supervisé
● Ces méthodes ne nécessitent pas d'étiquettes préalables pour identifier les
incendies de forêt. Elles peuvent être utilisées pour identifier les anomalies
dans les images ou les vidéos et signaler les zones potentiellement
dangereuses
● Il s’agit donc de découvrir les structures sous-jacentes à ces données non
étiquetées.

● Il existe plusieurs algorithmes, parmi eux on va parler de:

A. L’algorithme B. L’algorithme K-
Apriori means
A. L’algorithme Apriori
● L'algorithme Apriori est largement utilisé dans les bases de données transactionnelles pour
identifier des ensembles d'articles fréquemment achetés ensemble, puis générer des règles
d'association.

● Dans le domaine de l'analyse des paniers d'achat, cet algorithme est particulièrement utile
pour identifier des combinaisons de produits qui se trouvent souvent ensemble dans la base
de données.

● Les règles d'association sont généralement écrites sous la forme "Si l'article X est acheté,
alors l'article Y est également acheté", ce qui se représente comme X -> Y
B. L’algorithme K-means
● L'algorithme K-means est utilisé pour regrouper des données similaires en clusters.
● Il fonctionne de manière itérative en calculant les centroïdes de k clusters et en affectant chaque
point de données au cluster ayant la plus petite distance entre son centroïde et le point de
données.
● Dans l’algorithme des k-moyennes généralement on utilise la distance euclidienne, soient p =
(p1,….,pn) et q = (q1,….,qn)

● Elle permet d’évaluer la distance entre chaque point et les centroïdes. Pour chaque point on
calcule la distance euclidienne entre ce point et chacun des centroïdes puis on l’associe au
centroïde le plus proche c’est-à-dire celui avec la plus petite distance.
04 Les réseaux neuronaux
convolutifs (CNN)
● Les réseaux neuronaux convolutifs sont des réseaux neuronaux artificiels profonds
largement utilisés pour classifier les zones d'images, les regrouper par similarité et effectuer
la reconnaissance d'objets dans des scènes visuelles. Ces algorithmes sont utilisés pour
identifier divers éléments, tels que des visages, des individus, des panneaux de signalisation,
des tumeurs, des ornithorynques et bien d'autres aspects des données visuelles. Les
références [Ter09] et [Yin17] font partie des travaux fondateurs dans ce domaine
● Cette méthode a été récemment appliquée sur la détection de la fumée : Frizzi et al [Fri16], et
Hu et al [Huy18]. Ces travaux ont abouti à des résultats intéressants en générant des valeurs
élevées de taux de bonne classification.
● Cette technique a permis aux chercheurs de détecter et localiser la fumée dans les frames
● Les CNN comportent deux parties bien distinctes. En entrée, une image est fournie sous la
forme d’une matrice de pixels. La couleur est représentée par une troisième dimension, de
profondeur 3 pour représenter les couleurs fondamentales [Rouge, Vert, Bleu].
● La première partie d’un CNN est la partie convolutive. Elle fonctionne comme un extracteur de
caractéristiques des images. Une image est passée à travers une succession de filtres, ou noyaux
de convolution, créant de nouvelles images appelées cartes de convolutions. Certains filtres
intermédiaires réduisent la résolution de l’image par une opération de maximum local
● Au final, les cartes de convolutions sont mises concaténées en un vecteur de
caractéristiques, appelé code CNN. Un CNN est un réseau profond composé
de quatre types de couches :

○ Couche de convolution : c’est la couche la plus importante, elle effectue


le plus grand des calculs lourds. Son but est de repérer la présence d’un
ensemble de features dans les images reçues en entrée.

○ Couche de mise en commun (pooling) : est souvent placée entre deux


couches de convolution : elle reçoit en entrée plusieurs feature maps, et
applique à chacune d’entre elles l’opération de pooling.
○ La couche de correction ReLU : remplace donc toutes les valeurs
négatives reçues en entrées par des zéros. Elle joue le rôle de fonction
d’activation.

○ La couche fully-connected : Ce type de couche reçoit un vecteur en


entrée et produit un nouveau vecteur en sortie. Pour cela, elle applique
une combinaison linéaire puis éventuellement une fonction d’activation
aux valeurs reçues en entrée.
La figure suivante montre l’architecture d’un réseau
de neurone de type CNN :
Réseaux de neurones
05 récurrents (RNN)
● Les réseaux de neurones récurrents (ou RNN pour Récurrent
Neural Networks), appartiennent à une famille de réseaux de
neurones spécialisée dans l'analyse de séquences, c'est-à-dire de
données qui ont une longueur variable.
● Si l'on reprend l'équation de sortie d'une couche de neurones "classique", les
notations pour le calcul de la sortie d'une couche deviennent :

● où le deuxième terme modélise la récurrence du réseau.


● Les réseaux de neurones récurrents reposent sur deux principes :
■ le premier principe est l'astuce de la fenêtre glissante, qui permet de traiter
des signaux de taille variable
■ le second principe est l'utilisation de connexions récurrentes qui permettent
d'analyser la partie passée du signal.
Les ressources

● https://headinghometodinner.org/fr/les-10-meilleurs-algorithmes-dapprentissage-automatique-pour-les-d
%C3%A9butants-en-science-des-donn%C3%A9es/#:~:text=Les%20algorithmes%20d
%E2%80%99apprentissage%20automatique%20sont%20des%20programmes%20capables,de%20s
%E2%80%99am%C3%A9liorer%20gr%C3%A2ce%20%C3%A0%20l%E2%80%99exp%C3%A9rience%2C
%20sans%20intervention%20humaine.
● https://datascience.eu/fr/apprentissage-automatique/les-algorithmes-dapprentissage-machine-les-plus-populaire
s
/
● https://theses.hal.science/tel-00345683/
● https://www.ummto.dz/dspace/handle/ummto/13179
● https://www.mobotix.com/fr/technologie-thermique/detection-precoce-des-incendies
MERCI POUR VOTRE
ATTENTION

Vous aimerez peut-être aussi