Vous êtes sur la page 1sur 9

Proposition de corrigé-type (Généré avec GPT-4)

Exercice 1
1. L’apprentissage automatique est une branche de l’intelligence artificielle qui
permet aux systèmes d’apprendre et d’améliorer leur performance sur la
base des données qu’ils rencontrent, sans être explicitement programmés
pour le faire.
2. Les types d’apprentissage automatique comprennent :
o Apprentissage supervisé : Le modèle apprend sur la base de données
d’entraînement étiquetées. Exemple : la prédiction du prix des
maisons en fonction de différentes caractéristiques.
o Apprentissage non supervisé : Le modèle apprend sans données
étiquetées. Exemple : la segmentation des clients en différents
groupes.
o Apprentissage par renforcement : Le modèle apprend en
interagissant avec son environnement. Exemple : un agent apprend à
jouer à un jeu en recevant des récompenses pour de bonnes actions
et des pénalités pour de mauvaises actions.
3. Les étapes de prétraitement des données comprennent :
o Nettoyage des données : Suppression des valeurs manquantes et des
outliers.
o Transformation des données : Normalisation ou standardisation des
données.
o Sélection des caractéristiques : Choix des caractéristiques les plus
pertinentes pour l’apprentissage.
4. Pour calculer l’exactitude (Accuracy), on utilise la formule suivante :
Dans ce cas, l’exactitude serait :

Cela signifie que le modèle a correctement prédit 70.4% des cas. Cependant, il est
important de noter que l’exactitude seule peut être trompeuse, surtout si les
classes sont déséquilibrées. Il est donc recommandé d’utiliser d’autres mesures de
performance, comme la précision, le rappel et le score F1.
5. Deux techniques de partitionnement des données sont :
o Partitionnement aléatoire : Les données sont divisées de manière
aléatoire en un ensemble d’entraînement et un ensemble de test.
o Validation croisée : Les données sont divisées en k sous-ensembles.
Chaque sous-ensemble est utilisé une fois comme ensemble de test,
tandis que les k-1 autres sous-ensembles forment l’ensemble
d’entraînement.

Exercice 2

1. Les contraintes C1, C3 et C4 peuvent aider à réduire le domaine de chaque


variable avant même de lancer un algorithme de recherche. Voici comment :
 C1 (Compétence) : Si nous avons des informations sur les compétences de
chaque député, nous pouvons réduire le domaine de chaque variable en
éliminant les députés qui ne sont pas compétents pour un certain ministère.
 C3 (Parité) : Si nous connaissons le sexe de chaque député, nous pouvons
réduire le domaine de chaque variable en veillant à ce que le conseil des
ministres soit paritaire (3 hommes et 3 femmes).
 C4 (Antécédents criminels) : Si nous avons des informations sur les
antécédents criminels de chaque député, nous pouvons réduire le domaine
de chaque variable en éliminant les députés qui ont des antécédents
criminels.
2. Après avoir assigné F = a en respectant la contrainte C2, les nouveaux
domaines des variables {E, D, A, S, J} sont les suivants :
 E = {b, e, f}
 D = {e, z}
 A = {z}
 S = {e, b, z}
 J = {}
Notez que le domaine de J est vide car a était déjà assigné à F, et selon la
contrainte C2, un député ne peut obtenir plus d’un ministère. Donc, a ne peut pas
être assigné à J. Cela signifie que nous devons reconsidérer nos assignations
précédentes pour éviter ce genre de situation.

Exercice 3

1. Régression linéaire : C’est un algorithme de base en apprentissage


supervisé. Il est principalement utilisé pour la prédiction dans les problèmes
de régression où nous avons un ensemble de variables indépendantes et
nous cherchons à prédire une variable dépendante continue. Par exemple,
prédire le prix d’une maison en fonction de ses caractéristiques comme la
superficie, le nombre de chambres, etc.
2. Arbres de décision : C’est un algorithme d’apprentissage supervisé utilisé
pour la classification et la régression. Il crée un modèle qui prédit la valeur
d’une variable cible en apprenant des règles de décision simples déduites
des caractéristiques des données. Par exemple, prédire si un client va se
désabonner d’un service en fonction de son historique d’utilisation, de ses
plaintes, etc.
3. Réseaux de neurones : C’est un ensemble d’algorithmes modélisés d’après
le cerveau humain. Ils sont conçus pour reconnaître des modèles et sont
généralement utilisés dans des applications d’apprentissage profond pour
des tâches complexes comme la reconnaissance d’images, la reconnaissance
vocale, la traduction automatique, etc.
4. K-Nearest Neighbors (K-NN) : C’est un algorithme d’apprentissage supervisé simple et
efficace, qui peut être utilisé pour la classification et la régression. Il fonctionne en
trouvant les K exemples dans les données d’entraînement qui sont les plus proches (d’où
le nom) de l’exemple à prédire, puis en attribuant la valeur moyenne (pour la régression)
ou la classe majoritaire (pour la classification).

Exercice 4

(Awé va demander à ceux qui ont fait le TP, IA peut pas contruitre arbre)

Exercice 5
1. Modélisation du problème en programmation par contraintes :
Variables : Nous avons cinq variables correspondant aux cinq pièces musicales à
jouer pendant la soirée : X1, X2, X3, X4, X5. Chaque variable peut prendre une
valeur dans l’ensemble {M1, …, M10}.
Contraintes :
 Contrainte de langue : Deux pièces consécutives ne peuvent pas être dans
la même langue. Cela se traduit par les contraintes suivantes : X1 != X2, X2 !
= X3, X3 != X4, X4 != X5.
 Contrainte de style musical : Deux pièces consécutives ne peuvent pas être
du même style musical. Cela se traduit par les contraintes suivantes :
style(X1) != style(X2), style(X2) != style(X3), style(X3) != style(X4), style(X4) !=
style(X5).
 Contrainte de diversité de style : Au moins une pièce de chaque style doit
être jouée. Cela se traduit par les contraintes suivantes : style(X1) ∈ {rock,
jazz, techno, alternatif}, style(X2) ∈ {rock, jazz, techno, alternatif}, style(X3)
∈ {rock, jazz, techno, alternatif}, style(X4) ∈ {rock, jazz, techno, alternatif},
style(X5) ∈ {rock, jazz, techno, alternatif}.
 Contrainte de demande spéciale : La pièce M10 doit être jouée. Cela se
traduit par la contrainte suivante : M10 ∈ {X1, X2, X3, X4, X5}.
 Contrainte de fin de soirée : La soirée doit se terminer avec une pièce de
jazz. Cela se traduit par la contrainte suivante : style(X5) = jazz.
b) Pour résoudre ce problème, on pourrait utiliser un algorithme de recherche
avec retour arrière (backtracking). Cet algorithme explore l’espace des solutions
possibles en profondeur, en construisant une solution une pièce à la fois, et en
revenant en arrière dès qu’il détecte qu’une contrainte ne peut pas être satisfaite.
Pour simuler les étapes de l’algorithme, on commencerait par choisir une valeur
pour X1, puis une valeur pour X2 qui ne viole aucune contrainte par rapport à X1,
et ainsi de suite. Si à un moment donné, aucune valeur ne peut être trouvée qui
satisfait toutes les contraintes, l’algorithme revient en arrière et essaie une autre
valeur pour la variable précédente. On continue ce processus jusqu’à ce qu’une
solution complète soit trouvée ou que toutes les possibilités aient été épuisées.
Notez que pour des raisons de simplicité, nous nous arrêtons à une profondeur de
2 maximum dans cette simulation.
(Simulation là n’est pas ici , Romuaaaaaald)

Exercice 6

Tout d’abord, nous devons normaliser les données en utilisant la formule donnée.
Pour chaque variable, xi est la valeur de la variable, xmin est la valeur minimale de
la variable et xmax est la valeur maximale de la variable.
Voici les données normalisées pour chaque quartier :
 Aconville : ((27-25)/(28-25), (31-9)/(32-9), (1000-800)/(1800-800), (2-2)/(4-
2)) = (0.67, 1, 0.33, 0)
 Aitchedji : ((26-25)/(28-25), (32-9)/(32-9), (800-800)/(1800-800), (4-2)/(4-2))
= (0.33, 1, 0, 1)
 Kpota : ((25-25)/(28-25), (9-9)/(32-9), (1200-800)/(1800-800), (3-2)/(4-2)) =
(0, 0, 0.67, 0.5)
 Zoudja : ((28-25)/(28-25), (32-9)/(32-9), (1500-800)/(1800-800), (2-2)/(4-2))
= (1, 1, 1.17, 0)
 Zogbadjè : ((27-25)/(28-25), (31-9)/(32-9), (1800-800)/(1800-800), (3-2)/(4-
2)) = (0.67, 1, 1.67, 0.5)
Ensuite, nous calculons la distance euclidienne entre Tankpè et chaque quartier
dans l’espace des données normalisées. Les distances sont calculées en utilisant la
formule de la distance euclidienne :

où (x1, y1, z1, w1) sont les coordonnées de Tankpè et (x2, y2, z2, w2) sont les
coordonnées de chaque quartier.

Maintenant, calculons les distances euclidiennes :


 Distance entre Tankpè et Aconville :
(−2.67−0.67)2+(1−1)2+(−1.28−0.33)2+(549−0)2=548.01
 Distance entre Tankpè et Aitchedji :
(−2.67−0.33)2+(1−1)2+(−1.28−0)2+(549−1)2=548.01
 Distance entre Tankpè et Kpota :
(−2.67−0)2+(1−0)2+(−1.28−0.67)2+(549−0.5)2=548.01
 Distance entre Tankpè et Zoudja :
(−2.67−1)2+(1−1)2+(−1.28−1.17)2+(549−0)2=548.01
 Distance entre Tankpè et Zogbadjè :
(−2.67−0.67)2+(1−1)2+(−1.28−1.67)2+(549−0.5)2=548.01
Les 3 quartiers les plus proches de Tankpè sont donc Aconville, Aitchedji et Kpota.
Parmi ces trois quartiers, deux ont été inondés (Aconville et Aitchedji) et un n’a pas
été inondé (Kpota). Par conséquent, selon la méthode des k plus proches voisins,
nous prédirions que Tankpè sera inondé.
Veuillez noter que cette méthode est une simplification et ne prend pas en compte
certains aspects importants tels que la validation croisée, le réglage des
hyperparamètres, etc. De plus, la prédiction peut ne pas être précise en raison de
la petite taille de l’ensemble de données. Il est recommandé d’utiliser un
ensemble de données plus grand pour obtenir des prédictions plus précises.

Exercice 7 :
Il a dit il peut pas. MDR

Exercice 8:

Que il peut pas encorrr, MDRRRRR

Exercice 9:
By HVR
Exercice 10

1. L’étape qui a manqué avant le partitionnement des données est


probablement l’analyse exploratoire des données (EDA) et la préparation
des données. Cela comprend le nettoyage des données (traitement des
valeurs manquantes, suppression des doublons, etc.), la détection et le
traitement des valeurs aberrantes, l’encodage des variables catégorielles, la
normalisation ou la standardisation des variables, et la vérification de la
corrélation entre les différentes caractéristiques.
2. Les modèles utilisés appartiennent au type d’apprentissage automatique
appelé apprentissage supervisé. Dans l’apprentissage supervisé, nous avons
des variables d’entrée (ou caractéristiques) et une variable de sortie (ou
cible) que nous voulons prédire. Les modèles sont formés sur ces données
d’entrée et de sortie.
3. La valeur idéale du RMSE (Root Mean Square Error) est 0. Le RMSE mesure
l’écart moyen entre les valeurs prédites par le modèle et les valeurs réelles.
Donc, un RMSE de 0 signifie que les prédictions du modèle correspondent
parfaitement aux valeurs réelles. Cependant, dans la pratique, un RMSE de 0
est presque impossible à obtenir.
4. Interprétation des modèles :
o Régression polynomiale : Ce modèle a obtenu un RMSE de 5.36 e-16,
ce qui est extrêmement proche de zéro. Cela signifie que ce modèle a
fait des prédictions très précises sur les données de test. Cependant,
un RMSE aussi bas pourrait indiquer un surajustement du modèle aux
données d’entraînement.
o Régression linéaire : Ce modèle a obtenu un RMSE de 0.01. C’est un
bon score, mais pas aussi bon que la régression polynomiale. Cela
signifie que ce modèle a fait des prédictions assez précises, mais pas
parfaites.
o Réseaux de neurones artificiels : Ce modèle a obtenu un RMSE de
0.002, ce qui est meilleur que la régression linéaire mais pas aussi bon
que la régression polynomiale. Cela signifie que ce modèle a fait des
prédictions très précises, mais pas parfaites.
5. En comparant les différents modèles, on peut conclure que la régression
polynomiale a donné les prédictions les plus précises sur les données de
test, suivie des réseaux de neurones artificiels et enfin de la régression
linéaire. Cependant, il est important de noter que le RMSE extrêmement
bas de la régression polynomiale pourrait indiquer un surajustement du
modèle aux données d’entraînement. Il serait donc utile de vérifier
également d’autres métriques de performance du modèle et d’effectuer une
validation croisée pour confirmer ces résultats.

Vous aimerez peut-être aussi