Vous êtes sur la page 1sur 15

Apprentissage Automatique (Machine Learning)

1. Introduction
L'apprentissage automatique est un sous-domaine de l'intelligence artificielle (IA) dont,
l'objectif est de formaliser la connaissance portée par un ensemble de données. Il est question
en apprentissage automatique de comprendre la structure des données et de les intégrer dans
des modèles qui peuvent être compris et utilisés par les tout le monde.
Bien que faisant partie du domaine de l'informatique, l’AM diffère des approches
informatiques traditionnelles. En effet dans cette dernière, les algorithmes sont des ensembles
d'instructions explicitement programmées et utilisées par les ordinateurs pour calculer ou
résoudre des problèmes. Les algorithmes d'apprentissage automatique quant à eux,
permettent aux ordinateurs de s'entraîner sur les entrées de données et utilisent l'analyse
statistique pour produire des valeurs qui se situent dans une plage spécifique. Pour cette
raison, l'apprentissage automatique facilite l'utilisation des ordinateurs dans la
construction de modèles à partir de données d'échantillonnage afin d'automatiser les
processus de prise de décision en fonction des données saisies.
Tout utilisateur des plus récentes technologie bénéficies de l'apprentissage automatique.
La technologie de reconnaissance faciale par exemple permet aux plateformes de médias
sociaux d'aider les utilisateurs à marquer et partager des photos d'amis. La technologie de
reconnaissance optique des caractères (OCR) convertit les images du texte en caractères
mobiles. Les moteurs de recommandation, alimentés par l'apprentissage automatique,
suggèrent les films ou émissions de télévision à regarder en fonction des préférences de
l'utilisateur. Les voitures autonomes qui utiliseront l'apprentissage automatique pour naviguer
seront bientôt disponibles pour les consommateurs.
L'apprentissage automatique étant un domaine en développement continu, il faut tenir
compte de certaines considérations lors de la manipulation des technologies d'apprentissage.
Ces considérations regroupent l’ensemble d’hypothèses qui peuvent constituer un biais dans
le processus d'apprentissage.
Dans cette partie, nous étudierons les méthodes d'apprentissage supervisé et non
supervisé, ainsi que les approches algorithmiques courantes de l'apprentissage automatique
Nous allons explorer L’environnement de programmation MATLAB et PYTHON. De plus,
nous discuterons des biais qui sont perpétués par les algorithmes d'apprentissage automatique,
et considérons ce qui peut être gardé à l'esprit pour les éviter lors de la manipulation des
algorithmes.

2. Mise en œuvre du Machine Learning (ML)

Le ML de manière générale se met en œuvre en utilisant des algorithmes basés sur la


modélisation mathématique de l’apprentissage pour analyser des données, détecter des
schémas et prendre des décisions
Le processus de mise en œuvre du Machine Learning se calque sur le fonctionnement de
l'IA. Il peut être divisé en quatre étapes principales : la collecte de données, le traitement des
données, l'apprentissage et la prise de décision.
1
1. Collecte de données : Le ML a besoin de données pour apprendre et prendre des
décisions. Ces données peuvent être structurées (par exemple, des chiffres ou des mots dans
un tableau) ou non structurées (par exemple, des images, des vidéos ou du langage naturel).
Les données sont collectées à partir de différentes sources telles que des bases de données, des
capteurs, des appareils connectés et des médias sociaux.
2. Traitement des données : Une fois les données collectées, elles doivent être nettoyées et
préparées pour l'analyse. Cela peut inclure la suppression des valeurs aberrantes, la
normalisation des données et la création de caractéristiques utiles pour l'analyse. On peut
aussi dans cette partie faire de la sélection des features (caractéristiques, variables) d: il y
est question de faire une forme e classification des variables qui consiste à détecter les
variables qui sont les plus importantes, ou qui portent le plus d’information dans la
caractérisation de la donnée ou de « l’individu » dans les données.
3. Apprentissage : L'étape d'apprentissage est cruciale. L’apprentissage consiste à utiliser les
données traitées pour entraîner des algorithmes à reconnaître des schémas et à prendre des
décisions. L'apprentissage peut être supervisé (les données sont étiquetées avec les réponses
attendues) ou non supervisé (les données ne sont pas étiquetées).
4. Prise de décision : Une fois que l’algorithme (l’IA) a appris à partir des données, elle peut
être utilisée pour prendre des décisions ou résoudre des problèmes. Les algorithmes peuvent
être programmés pour effectuer des tâches spécifiques ou pour prendre des décisions en
fonction de données en temps réel.

3. Compétences à posséder pour faire du Machine Learning


Le Machine Learning est l’une des technologies les plus populaires qui a révolutionné
presque tous les secteurs. De la recommandation de spectacles à la personnalisation de votre
expérience d'achat en ligne, l'apprentissage automatique a un rôle important à jouer. Les
ingénieurs en apprentissage automatique et en IA consacrent beaucoup d’efforts à la
réalisation de ces objectifs. Ainsi, la demande d’ingénieurs possédant des compétences en ML
monte en flèche.
Selon Fortune Business Insights, la taille du marché mondial de l'apprentissage automatique
devrait atteindre une valeur marchande de 209,391 milliards de dollars d'ici 2029. En outre,
Statista a confirmé que près de 65 % de toutes les entreprises envisagent d'adopter
l'apprentissage automatique au cours des 12 prochains mois.
Compétences d'apprentissage automatique indispensables pour les ingénieurs ML
Si vous souhaitez exceller dans votre carrière en IA, il est fortement recommandé de maîtriser
ces compétences ML très demandées.
1. Langage de programmation
Aucun travail technique n'est complet sans la connaissance du codage. Ainsi, les
étudiants et les professionnels aspirant à devenir ingénieurs en apprentissage automatique ou
ingénieurs en IA doivent maîtriser différents langages de programmation tels que Python, R
et SQL. Java, etc. La programmation est au cœur de l’apprentissage automatique et c’est

2
donc une compétence non négociable. Python en particulier est le langage de programmation
le plus populaire parmi les ingénieurs ML en raison de sa nature polyvalente et de son vaste
écosystème de bibliothèques et de frameworks comme TensorFlow, PyTorch et Scikit
Learn. Les outils s'avèrent être des outils essentiels pour diverses tâches effectuées par les
ingénieurs ML, telles que la manipulation de données, le développement de modèles et
l'évaluation. De plus, les langages de programmation sont une condition préalable à
l'inscription à tout programme de certification ML.
2. Algorithmes d'apprentissage automatique
Un autre aspect important du travail d'un ingénieur en apprentissage automatique est la
compréhension des algorithmes d'apprentissage automatique. Bien que vous n'ayez pas besoin
d'apprendre par cœur tous les algorithmes d'apprentissage automatique, il est recommandé que
vous ayez une compréhension approfondie des principes fondamentaux des algorithmes
suivants :
• Régression linéaire ;
• Régression logistique ;
• Decision Trees ;
• Random Forests;
• Support Vector Machines;
• Naive Bayes;
• k-Nearest Neighbors;
• Clustering algorithms Algorithmes de Classification tels que: K-Means (K-moyennes)
et Hierarchical Clustering (Classification Hierarchique ; CAH…)
Il est important de savoir quand et comment appliquer ces algorithmes à différents types de
problèmes. Il faut également être conscient des forces et des faiblesses de chaque algorithme.
Note : (https://www.usaii.org/ai-insights/machine-learning-algorithms-for-beginners-with-
popular-python-codes) suivre ce lien avoir des codes de base…
3. Deep Learning and Neural Networks
L’apprentissage profond a complètement révolutionné le domaine de l’apprentissage
automatique. Il a permis aux ingénieurs ML et IA de travailler sur des tâches complexes telles
que la reconnaissance d'images, la NPL (Traitement du Langage Naturel), la reconnaissance
vocale, etc. Ainsi, il est important de se familiariser avec l'architecture de réseau neuronal
populaire telle que :
- Réseaux de neurones convolutifs (CNN) pour le traitement d'images.
- Réseaux de neurones récurrents (RNN) pour les données de séquence.
- Réseaux LSTM (Long Short-Term Memory) pour les tâches séquentielles.
- Modèles de transformateurs pour le Traitement du Langage Naturel.

3
Il est aussi également recommandé de maîtriser les frameworks d'apprentissage
profond tels que TensorFlow et PyTorch. Ils facilitent la mise en œuvre de modèles
d’apprentissage profond.
4. Natural Language Processing
Le NLP ou Natural Language Processing est un sous-domaine de l’intelligence
artificielle. Il met principalement l’accent sur l’interaction humaine et informatique. Avec
l’aide de la NLP, les machines peuvent apprendre à comprendre, interpréter et générer un
langage semblable à celui des humains. Il s'agit donc d'une compétence ML indispensable
pour développer des algorithmes et des modèles adaptés à l'analyse du langage.
5. L’Analyse Statistique
L'analyse statistique comprend la collecte, l'analyse et l'interprétation des données
pour extraire des informations précieuses et faciliter une prise de décision éclairée. Dans le
monde de l’apprentissage automatique, l’analyse statistique est un outil très important qui
pose les bases mathématiques de nombreux algorithmes d’apprentissage automatique. Son
application comprend la détection de modèles de données, les tests d'hypothèses et la
modélisation prédictive.
La maîtrise de l'analyse statistique nécessite une compréhension approfondie des outils
et bibliothèques essentiels tels que R, Python, SAS et SPSS. Une compréhension complète
de ces outils et langages de programmation est indispensable pour maîtriser l’analyse
statistique.
6. Connaissance du domaine d’Application
La connaissance du domaine est souvent une compétence sous-estimée en
apprentissage automatique, mais elle peut faire la différence entre un bon modèle et un
excellent. Comprendre le domaine spécifique du problème, ses nuances et le contexte dans
lequel le modèle sera appliqué peut conduire à une ingénierie des fonctionnalités et à une
conception de modèle plus éclairées. Les ingénieurs en apprentissage automatique et en IA
doivent collaborer étroitement avec les experts du domaine pour tirer parti de leurs
connaissances et affiner les modèles en conséquence.
Si vous voulez faire des certifications dans le domaine du ML :
(Https://www.usaii.org/artificial-intelligence-certifications)
(Https://www.usaii.org/artificial-intelligence-certifications/certified-artificial-intelligence-
engineer)

4
4. Méthodes d'apprentissage automatique

Dans l'apprentissage automatique, les tâches sont généralement classées en grandes


catégories. Ces catégories sont basées sur la façon dont l'apprentissage est reçu (ou mise en
œuvre) et comment le feedback sur l'apprentissage est donné au système développé.

Trois grandes méthodes d'apprentissage automatique sont largement adoptées :

- Les méthodes basées sur l’apprentissage supervisé ;


- Les méthodes basées sur l’apprentissage non supervisé ;
- Les méthodes basées sur l’apprentissage par Renforcement.

Les méthodes basées sur l’apprentissage supervisé utilisent les algorithmes basés sur
des données d'entrée et de sortie étiquetées par l’homme tandis que l’apprentissage non
supervisé ne fournit pas à l'algorithme des données étiquetées pour lui permettre de trouver
une structure et de découvrir une logique dans données entrées. Toutefois, il se développe des
algorithmes qui combine à la fois l’apprentissage supervisée et non supervisé connu sous
l’appellation de l’apprentissage semi-supervisé.

Explorons donc ces méthodes plus en détail.

2.1 L'apprentissage supervisé

Dans l'apprentissage supervisé, on fournit à l'ordinateur des exemples d'entrées qui


sont étiquetés (labélisés) avec les sorties souhaitées. Le but de cette méthode est de faire «
apprendre » à l'algorithme en comparant sa sortie réelle avec les sorties « enseignées » pour
trouver des erreurs et modifier le modèle d’apprentissage obtenu en conséquence.
L'apprentissage supervisé utilise donc des modèles (issus de l’apprentissage) pour prédire les
valeurs d'étiquettes sur des données non étiquetées supplémentaires.

Il existe deux types de sous-problèmes en apprentissage supervisé numérique :

 Régression (« Regression ») : lorsque la valeur cible à prédire est continue ;


 Classement, classification ou catégorisation (« Classification ») : lorsque la valeur
cible à prédire est discrète.
Par ailleurs nous supposerons également que les objets étudiés qui peuvent être complexes
à l'origine (comme des données multimédia) sont représentés dans un format numérique
structuré. En d'autres termes :
 On représente un objet Xi par un vecteur noté xi défini dans un espace de description
composé de plusieurs variables.
 A chaque xi on lui associe une valeur cible notée yi.

Par exemple, avec un apprentissage supervisé, un algorithme peut être alimenté avec des
images de requins étiquetés Poisson des images d'océans étiquetés comme Ocean. En étant

5
formé sur ces données, l'algorithme d'apprentissage supervisé devrait être capable d'identifier
plus tard des images de requin non marquées comme Poisson des images océaniques non
étiquetées Ocean. Un cas d'utilisation de l'apprentissage supervisé consiste à utiliser des
données historiques pour prédire des événements futurs statistiquement probables. Il peut
utiliser les informations historiques sur les marchés boursiers pour anticiper les fluctuations à
venir ou être utilisé pour filtrer les courriers indésirables. Dans l'apprentissage supervisé, des
photos étiquetées de chiens peuvent être utilisées comme données d'entrée pour classer les
photos non marquées de chiens.

a) Le classement ou classification supervisée

La classification supervisée consiste à affecter une classe à toute nouvelle donnée à


partir d’une règle de décision construite sur une base de données dont on connait les classes.
Formellement, l’apprentissage dans ce cas passe par deux étapes comme l’indique la figure 1
ci-dessous.

À partir d’une base de données d’apprentissage, l’algorithme structure l’espace de


représentation. Il construit ensuite une fonction dite de prédiction qui pour une nouvelle
donnée, assigne une sortie correspondante selon l’apprentissage faite au préalable. Il sera
ensuite question de valider la fonction de prédiction par une autre opération de test qui
permettra de quantifier l’erreur de classification.

Figure 1 : Illustration du processus de mise en œuvre d’un problème de classification


supervisée.

La mise en œuvre des algorithmes de classification supervisée suppose alors de


disposer d’une part, d’un ensemble de données d’apprentissage qui sera divisé en un sous-
ensemble de données d’entrainement et en un autre sous-ensemble de données de test, et
d’autre part, de nouvelles données à classer dans le cadre de l’exploitation du classifieur. Les
données qui constituent la base d’apprentissage sont étiquetées, c’est à dire, à chaque donnée
encore appelée point dans l’espace de représentation, est associée une étiquette ou label qui
identifie sa classe d’appartenance. Les données d’entrainement servent à construire la
fonction de prédiction, tandis que les données de test permettent de valider le processus
d’apprentissage et de quantifier l’erreur de prédiction.

6
Note Pratique : Pour construire un système d’aide à la décision utilisant les méthodes
de classification, on entraine plusieurs classifieurs (algorithmes) avec la même base de
données. Le choix de l’algorithme à retenir sera alors guidé par le classifieur qui donnera la
plus faible erreur de classification.

Les méthodes de classification supervisée peuvent se regrouper en deux approches :

 L’approche de méthodes statistiques et structurelles ;

Dans le cas des méthodes statistiques, l’espace de représentation ou de décision étant


structurée en classes ou en régions, lors de la décision, une donnée sera affectée à la classe de
la région à laquelle elle appartient selon le principe de la fonction de classement. Il est
souhaitable de rappeler ici que la partition de l’espace de représentation peut être :

- explicite : c’est le cas des méthodes de discrimination linéaire ou paramétrique dans


lesquelles la frontière entre les classes est recherchée ;

- implicite : c’est le cas des méthodes du k plus proches voisin ou classifieur bayésien

Dans le cas des méthodes structurelles, une forme est représentée par une chaine
ordonnée de symbole. Elles s’appuient donc sur la comparaison des représentations
structurées en forme de chaînes de graphes ou d’arbres dont les prototypes sont préalablement
enregistrés.

 L’approche des méthodes stochastiques et neuronales.

Les méthodes dites stochastiques s’appuient essentiellement sur l’approche


markovienne de reconnaissance. Contrairement à l’approche bayésienne qui représente une
forme par un vecteur, dans l’approche markovienne, la forme est représentée par une
séquence de vecteurs générés par un processus aléatoire. Ces vecteurs représentent
généralement les états d’un système industriel. Ils peuvent être observés ou cachés et
changent de valeurs au cours du temps. Les classifieurs qui rentrent dans la catégorie de
méthodes neuronales sont les réseaux de neurones artificiels. Ces méthodes s’appuient sur la
structure et la physiologie du cerveau humain pour construire les systèmes d’apprentissage et
de reconnaissance.

 Modélisation

7
On dit alors que l’algorithme généralise la connaissance contenue dans les données en éditant
un modèle d’apprentissage qui sera par la suite évalué afin de déterminer ses performance,
c’est-à-dire le taux de réussite lorsqu’il sera question de déterminer l’appartenance à d’une
nouvelle donnée à une classe.

5. Mise en œuvre des algorithmes


5.1 Représentation vectorielle des données
Notations

8
5.2 Le classifieur des k plus proches voisins (kppv)

La méthode des kppv est une méthode simple qui ne nécessite aucune hypothèse sur
les classes c’est-à-dire sur la fonction qui relie la classe aux points qui la constitue. L’idée
fondatrice est de faire voter les plus proches voisins sur l’appartenance d’une nouvelle
observation à la classe majoritaire parmi les k plus proches voisins. Formellement, étant
donné un point x ϵ R d à classer, R d l’espace de représentation des données, le classement
consiste à déterminer la classe de chacun des k points les plus proches de x en terme de
distance parmi les points de l’ensemble d’apprentissage représentés dans R d. La décision est
alors d’affecter x à la même classe que celle de ses k voisins les plus proches.
5.2.1 Règle des kppv pour k =1
Soit d (. , .) une distance définie dans l’espace de représentation Rd, x v le plus proche
voisin de x nouvelle donnée à classer, x v appartient bien à l’espace d’apprentissage
{ x 1 , x 2 , … , x n }.
x v est définie telle que: d (x , x¿¿ v)=min1 ≤i ≤n d ( x , x i ) ,i=1, 2 , … , n ¿ (1)

Etant donnée w ¿ ) la vraie classe de x i, avec w (x i)∈¿ l’ensemble des classes, la règle de
décision du plus proche voisin s’écrit :

^ ( x ) =w(x v )
w (2)

L’occurrence aléatoire de l’échantillon d’apprentissage justifie le fait que w (x v ) est une


variable aléatoire. Aussi, la règle de décision du plus proche voisin de x suit la probabilité
conditionnelle P ( w (x v )/x v )(probabilité de classification de x dans la classe de x v notée (x v ) ).
Donc, dans un grand échantillon d’apprentissage, les points x et x v sont « très proches ». La
nouvelle observation x est prédite comme appartenant à la vraie classe de x v , notée w (x v )
avec une probabilité égale approximativement à la probabilité de classer x dans la classe
w (x v ) , notée P ( w (x v )/x ).

5.2.2 Généralisation de la règle des kppv pour 1 ≤ k ≤ n


Dans ce cas, la règle de décision est en faveur de la classe majoritairement représentée par les
k voisins de x .

9
Soit k w le nombre d’observations issues du groupe des plus proches voisins appartenant
j

c
à une classe w j ∈¿ Il vient que, ∑ k w =k . Ainsi, une nouvelle observation est prédite dans la
j
j=1

classe w avec w=max ⁡(k w j ).


Dans un processus de diagnostic où les classes représentent les modes de
fonctionnement du système étudié, associer une nouvelle donnée à une classe revient à prédire
du mode de fonctionnement dans lequel se trouve le système que représente cette nouvelle
donnée. Il peut se présenter une difficulté de choix de l’appartenance d’une nouvelle donnée à
une classe. Il est recommandé de créer une nouvelle classe dans laquelle seront rangées les
données présentant une incertitude pour le classifieur. Techniquement, pour le classifieur, on
introduit une procédure de "rejet" suivant une propriété à vérifier. Si aucune classe ne vérifie
cette propriété, la nouvelle donnée est rejetée dans la nouvelle classe prévue à cet effet.
Dans le cas du classifieur kppv , un seuil s peut être fixée sur le nombre de voisin, tel
que la règle de décision du plus proche voisin serait :
^ ( x ) =wi si au moins s points se trouvent parmi les plus proches voisins de x
w
appartenant à w i; sinon, w ^ ( x ) =w0 , avec w 0 une nouvelle classe n’appartenant pas à
{ w1 , w2 , … , wc }. Il existe deux possibilités de rejet :
- le rejet d’ambiguïté, qui se rapproche de la définition ci-dessous ;
- et le rejet de distance, lorsqu’un point éligible dans le groupe des voisins, est éloigné
d’une distance d ' fixée au préalable.
La mise en œuvre de l’algorithme des kppv nécessite pour un ensemble d’apprentissage
de taille n , de calculer n distances dans un espace de dimension d pour prendre une décision.
La méthode s’avère alors lente en phase de décision. Plusieurs variantes qui consistent à
introduire une phase de prétraitement dans laquelle l’espace d’apprentissage est réduit et le
nombre de tests limités ont été proposées.
5.2.3 Notion de distance
+¿ ¿
Une distance d est donc une application de E × E dans R telle que :
¿ (3)
Les fonctions de distance les plus utilisées sont présentées ci-dessous :
Soit x 1 et x 2 deux points de l’espace de représentation Rd , d étant le nombre d’attributs ou de
variables décrivant chaque point,

( )
d 1

 Distance euclidienne : d (x 1 , x 2 )= ∑ ( x 1 j−x 2 j )2 2


(4)
j =1

(∑ (| )
d 1
r r
 Distance de Minkowski : d (x 1 , x 2 )= x 1 j−x 2 j|) (5)
j =1

 Avec r ≥ 1
La distance de Minkowski généralise les distances :
- Euclidienne : r=2 ;
- Manhatann ou distance dite de "city-block" : r = 1;
- Distance du "max", noté d ∞ , telle que :
d ∞ =max1 ≤ j ≤d|x s − y s|

10
t −1
 Distance de Mahalanobis: d (x 1 , x 2 )=(x 1−x 2 ) Γ (x 1−x 2) (6)
où Γ −1 est l’inverse de la matrice variance-covariance des variables descriptives des objets.
Il est souhaitable de noter ici que, la distance de Mahalanobis possède la propriété
intéressante de mieux prendre en compte la forme géométrique des classes, alors que la
distance euclidienne est très utilisée à cause de l’invariance qu’elle assure par rapport à une
translation et une rotation des objets.
Il peut se présenter une difficulté de choix de l’appartenance d’une nouvelle donnée à
une classe. Il est recommandé de créer une nouvelle classe dans laquelle seront rangées les
données présentant une incertitude pour le classifieur. Techniquement, pour le classifieur, on
introduit une procédure de "rejet" suivant une propriété à vérifier. Si aucune classe ne vérifie
cette propriété, la nouvelle donnée est rejetée dans la nouvelle classe prévue à cet effet.
Dans le cas du classifieur kppv , un seuil s peut être fixée sur le nombre de voisin, tel
que la règle de décision du plus proche voisin serait :
^ ( x ) =wi si au moins s points se trouvent parmi les plus proches voisins de x
w
appartenant à w i; sinon, w ^ ( x ) =w0 , avec w 0 une nouvelle classe n’appartenant pas à
{ w1 , w2 , … , wc }. Il existe deux possibilités de rejet :
- le rejet d’ambiguïté, qui se rapproche de la définition ci-dessous ;
- et le rejet de distance, lorsqu’un point éligible dans le groupe des voisins, est éloigné
d’une distance d ' fixée au préalable.
La mise en œuvre de l’algorithme des kppv nécessite pour un ensemble d’apprentissage
de taille n , de calculer n distances dans un espace de dimension d pour prendre une décision.
La méthode s’avère alors lente en phase de décision.

TRAVAIL A FAIRE : Dans l’environnement de Programmation de votre choix


1. Appliquer l’algorithme du K-means sur le data set 1
2. Choisir trois Algorithmes supervisée de votre choix et faire l’apprentissage
sur le Data set2
3. Déterminer l’algorithme qui a la meilleure performance en appliquant la
matrice de confusion ou tout autre ou tout autre méthode permutant
d’évaluer la généralisation de l’apprentissage.
4.

11
Annexe1
Définition des concepts utilisés en IA

✅ Apprentissage automatique : un sous-ensemble de l'intelligence artificielle dans lequel les


systèmes informatiques apprennent à partir des données pour améliorer les performances d'un
système. Il y est question de faire des tâches spécifiques.

✅ Intelligence artificielle : La simulation des processus de l'intelligence humaine par des


machines, y compris l’apprentissage, le raisonnement et la résolution de problèmes. .

✅ Données : Informations brutes ou faits collectés et stockés pour analyse.

✅ Fonctionnalité : Une propriété ou une caractéristique distincte dans l'ensemble de données


utilisé pour faire des prédictions en apprentissage automatique.

✅ Étiquette : le résultat ou la variable cible que les modèles d'apprentissage automatique


visent à prédire.

✅ Apprentissage supervisé : une approche d'apprentissage automatique dans laquelle les


modèles apprennent à partir de données étiquetées avec des résultats connus.

✅ Apprentissage non supervisé : Apprentissage automatique sans données étiquetées, où les


algorithmes identifient des modèles et des structures dans les données.

✅ Apprentissage semi-supervisé : Elle Combine un apprentissage supervisé et non supervisé


avec des données étiquetées limitées.

✅ Apprentissage par renforcement : un type d'apprentissage automatique dans lequel les


agents apprennent en interagissant avec un environnement pour maximiser les récompenses.

✅ Traitement du langage naturel (NLP) : Un domaine de l'IA axé sur la compréhension et le


traitement du langage humain.

✅ Vision par ordinateur : Utiliser des algorithmes pour interpréter et comprendre les
informations visuelles des images et des vidéos.

✅ L'analyse des séries chronologiques : dans l'apprentissage automatique, elle implique


l'étude et la modélisation de points de données collectés sur une période de temps continue

12
pour faire des prédictions , identifier des modèles ou extraire des informations liées aux
tendances et dépendances temporelles .

✅ Moyennes mobiles : Calcul des moyennes de points de données dans une fenêtre mobile
pour identifier les tendances et les modèles .

✅ Lissage exponentiel : Une famille de méthodes de prévision basées sur des moyennes
pondérées d'observations passées en mettant l'accent sur les données récentes .

✅ Transformation de Fourier - Analyse des données de séries chronologiques dans le


domaine fréquentiel pour identifier des modèles périodiques.

✅ Les modèles ARIMA sont largement utilisés pour les tâches de prévision de séries
chronologiques et peuvent être ajustés avec des paramètres spécifiques (p, d, q) pour s'adapter
aux caractéristiques des données analysées.

✅ Apprentissage fédéré – Formation de modèles d'apprentissage automatique sur des sources de


données décentralisées.

✅ Apprentissage actif : un processus d'apprentissage automatique itératif qui sélectionne des


échantillons de données à annoter.

✅ Régression - Prédire des valeurs numériques continues, comme les prix de l'immobilier.

✅ Classification : Catégorisation des données dans des classes prédéfinies, telles que la détection des
courriers indésirables.

✅ Clustering - Regroupement de points de données similaires sans catégories prédéfinies.

✅ Réduction de la dimensionnalité - Techniques qui réduisent le nombre de fonctionnalités tout en


préservant les informations importantes.

✅ Analyse en composantes principales (ACP) - Une technique de réduction de


dimensionnalité pour la sélection de fonctionnalités.

✅ Prétraitement des données – Nettoyage, transformation et organisation des données pour analyse.

✅ Nettoyage des données - Il s'agit du processus d’identification et de correction des erreurs, des
incohérences et des inexactitudes dans les ensembles de données afin de garantir la qualité et la
fiabilité des données pour l'analyse ou la modélisation.

13
✅ Exploration de données : il s'agit du processus de découverte de modèles, d'informations et de
connaissances précieux à partir de grands ensembles de données à l'aide de diverses techniques
informatiques, telles que l'apprentissage automatique et l'analyse statistique.

✅ Transformation des données – Cela implique de modifier le format, la structure ou les valeurs des
données pour les rendre adaptées à l’analyse, à la modélisation ou à la visualisation, incluant souvent
des tâches telles que la normalisation, la mise à l'échelle et l'ingénierie des fonctionnalités.

✅ Imputation - Remplissage des valeurs de données manquantes.

✅ Anomalie - Il s'agit d'un point de données inhabituel ou rare qui s'écarte considérablement
des modèles attendus ou normaux dans un ensemble de données.

✅ Détection des anomalies - Traiter la classe minoritaire comme des anomalies et appliquer
des techniques de détection des anomalies pour les identifier.

✅ Local Outlier Factor (LOF - est un algorithme utilisé pour identifier les points de données
dans un ensemble de données qui sont significativement différents de leur voisinage local,
indiquant potentiellement des anomalies ou des valeurs aberrantes.

✅ Moyenne - Mesurez la valeur moyenne dans la distribution des données numériques.

✅ Médiane - Fournissez les informations moyennes de manière plus efficace que la moyenne
et elles ne sont pas affectées par les valeurs aberrantes des données.

✅ Variance - Mesurez la propagation des données.

✅ Écart type — La racine carrée de la variance, fournissant une mesure plus interprétable de
la variabilité des données.

✅ Percentile - Il s'agit d'une mesure qui indique le pourcentage de points de données égaux ou
inférieurs à une valeur spécifique dans un ensemble de données.

✅ IQR (Interquartile range) - C'est la mesure de l'intervalle entre le premier quartile et le


troisième quartile qui permet d'identifier le milieu de 50 % des données.

✅ Histogramme - C'est la mesure de la fréquence ou du nombre de points de données tombant


dans des intervalles spécifiques (bacs) le long de l’axe horizontal.

14
✅ PDF (Fonction de densité de probabilité) - Il s'agit d'une fonction statistique qui décrit la
probabilité qu'une variable aléatoire continue prenne une valeur spécifique dans une plage
donnée.

✅ CDF (Cumulative Density Function) - C'est une fonction statistique qui donne la probabilité
cumulée qu'une variable aléatoire soit inférieure ou égale à une valeur spécifique.

✅ Asymétrie - Il décrit l’asymétrie dans la distribution des données.

✅ Kurtosis - Il mesure la queue de la distribution des données.

15

Vous aimerez peut-être aussi