Académique Documents
Professionnel Documents
Culture Documents
Voici les questions et réponses possibles extraites du document Chapitre 1 à partir de la page 4:
Page 4:
A1: L'intelligence artificielle (IA) est l'ensemble des théories, techniques et systèmes capables de
simuler des capacités humaines telles que le raisonnement, l'apprentissage, la décision, etc. L'IA
permet aux machines d'apprendre par l'expérience, de s'adapter à de nouvelles données et de réaliser
des tâches humaines.
A2: Les objectifs de l'IA sont d'imiter le raisonnement humain, automatiser la prise de décisions et
prédire les événements/actions futures.
A3: Le concept d'IA date de 1956. Dans les années 1960, le département américain de la Défense
s'y est intéressé. Dans les années 1970, l'agence DARPA a travaillé sur les assistants personnels
intelligents. Dans les années 2000, l'internet et les big data ont permis des avancées. Vers 2015, l'IA
visait la perception visuelle, la compréhension du langage, etc. En 2016, les investissements ont
explosé.
Page 5:
A4: Les raisons sont : l'augmentation de la puissance de calcul, l'apparition d'algorithmes avancés,
la baisse du coût du traitement de données, la disponibilité accrue de données, et l'attente des
consommateurs pour des services améliorés par l'IA.
A5: "L’IA est la science de programmer les ordinateurs pour qu’ils réalisent des tâches qui
nécessitent de l’intelligence lorsqu’elles sont réalisées par des êtres humains." (Marvin Minsky)
A6: Oui, de nombreux services utilisent l'IA : assistants vocaux, identification sur photos,
recommandations produits, déverrouillage des smartphones, etc.
Page 6:
A9: L'IA se trouve au sommet de la pyramide des besoins en data science, après la collecte, le
stockage, le traitement et l'analyse des données.
Page 7:
A10: L'IA acquiert son intelligence par un processus d'apprentissage, grâce à des algorithmes et de
grandes quantités de données. Elle n'a pas d'intelligence innée à la "naissance".
Voici les questions et réponses possibles extraites du document Chapitre2 à partir de la page 2:
Page 2:
A2: L'apprentissage supervisé consiste à entraîner un algorithme à partir de données annotées, c'est-
à-dire des données pour lesquelles on connaît déjà les résultats attendus.
Page 3:
Page 4:
A4: Les transports, l'aérospatial, la santé, les finances, le marketing, l'éducation, la sécurité,
l'agriculture, les objets connectés, etc.
Page 5:
Page 6:
Page 7:
A7: En supervisé, on fournit à l'algorithme des données annotées. En non supervisé, on laisse
l'algorithme trouver des structures dans des données brutes.
Page 8:
Q8: Quels sont les éléments clés d'un problème d'apprentissage automatique supervisé ?
A8: Un jeu de données contenant des caractéristiques (features) et une cible (target), un modèle
avec des paramètres à ajuster.
Voici les questions et réponses possibles extraites du document Chapitre 3 à partir de la page 2:
Page 2:
A1: La reconnaissance de formes est une discipline dont le but est la classification d'objets en
catégories ou classes, à partir de signaux, images ou autres mesures.
Page 3:
A3: Deux formes sont similaires si elles présentent des informations similaires, dissimilaires dans le
cas contraire.
Q4: Pourquoi la représentation par une seule information n'est pas suffisante?
A4: Il faut décrire la forme par plusieurs informations représentatives pour pouvoir faire la
distinction entre les classes.
Page 4:
Q5: En quoi consiste la reconnaissance de formes?
A5: À rechercher une similarité entre une forme inconnue et une forme connue pour la classer grâce
à un processus de classification.
Page 5:
A6: Définir l'objectif, choisir un codage de la forme, choisir le type de classification (supervisée ou
non).
Page 6:
A7: En supervisé, les classes sont connues et l'algorithme apprend avec des exemples annotés. En
non supervisé, les classes sont inconnues et l'algorithme trouve des similarités.
Page 7:
A8: La vérification d'une forme connue ou l'identification parmi des formes inconnues.
Page 8:
A9: Le codage par caractéristiques ou mesures, et le codage par primitives comme des composantes
élémentaires.
Page 9:
Page 10:
A11: La conception du classifieur consiste à élaborer une règle de décision qui transforme le
vecteur caractéristique en appartenance à une classe.
Page 11:
Page 12:
A13: La fonction de décision permet de séparer les formes en régions de décision. C'est un élément
fondamental de conception d'un bon classifieur.
Page 13:
A14: La discrimination de formes vise à séparer l'espace des vecteurs caractéristiques en régions
affectées à chaque classe.
Page 15:
A15: Sous la forme d(X) = W^T X + w0, avec W le vecteur de poids, w0 le biais et X le vecteur
caractéristique.
Page 16:
A16: Dans un espace de dimension d, la fonction de décision devient une surface appelée hyperplan
de séparation.
Page 17:
A17: On utilise une fonction de décision non linéaire quand les formes à séparer sont très similaires
et qu'une séparation linéaire n'est pas possible.
Page 18:
Page 19:
Q19: Quels sont les modules principaux d'un système de reconnaissance de formes ?
A20: Soit par sélection d'un sous-ensemble de caractéristiques, soit par extraction de nouvelles
caractéristiques par transformation des données.
Page 22:
Page 23:
Q22: Pourquoi est-il impossible de tester toutes les combinaisons en sélection de caractéristiques ?
A22: Le nombre de combinaisons croît de façon exponentielle avec la taille du vecteur de départ.
Le temps de calcul devient prohibitivement long.
Page 24:
Q23: Comment est constitué le vecteur caractéristique dans l'exemple de reconnaissance de chiffres
manuscrits ?
A23: Il contient des caractéristiques de concavité, de contour et de surface sur 6 zones de l'image,
soit 132 composantes.
Page 25:
A24: On part de l'ensemble complet, puis on élimine progressivement les composantes les moins
utiles.
Page 26:
Q25: En quoi consiste l'algorithme Branch and Bound pour la sélection de caractéristiques ?
A25: Il construit un arbre en éliminant des caractéristiques à chaque niveau, et évalue la pertinence
des nœuds pour ne conserver que les meilleurs.
Page 27:
A26: Comme une fonction de la forme J(Xk) = Xk^T S^-1 Xk, où Xk est le vecteur réduit et Sk la
matrice de covariance.
Voici les questions et réponses possibles extraites du document Chapitre 4 à partir de la page 3:
Page 3:
A1: La classification est l'élaboration d'une règle de décision qui transforme le vecteur
caractéristique en appartenance à une classe.
Page 4:
A3: Un réseau de neurones artificiel est inspiré du fonctionnement des neurones biologiques, avec
des unités interconnectées imitant les dendrites, axones et synapses.
Page 5:
A4: Un neurone formel calcule une somme pondérée de ses entrées, la compare à un seuil et
applique une fonction d'activation pour donner une sortie.
Page 6:
A5: Une couche d'entrée, une couche de sortie, et des connexions entre chaque neurone d'entrée et
de sortie.
Page 7:
A6: Par une règle de modification des poids synaptiques basée sur l'erreur entre la sortie calculée et
la sortie désirée.
Page 8:
A7: Avantage pour la séparation linéaire, inconvénient pour la séparation non linéaire.
Page 9:
Page 10:
A9: Couche par couche, des entrées vers les sorties, via des fonctions d'activation sur chaque
neurone.
Page 11:
A10: Par rétropropagation du gradient de l'erreur pour modifier les poids des couches.
Page 12:
Q11: Quel est le critère d'optimisation pour l'apprentissage d'un perceptron multicouches ?
A11: Le critère des moindres carrés, qui minimise la somme des erreurs quadratiques entre
les sorties calculées et désirées.
Page 13:
Page 14:
Page 15:
Page 16:
A15: On cherche à minimiser une fonction objectif sous contrainte d'une marge minimale
entre classes.
Page 17:
Q16: Comment résout-on le problème d'optimisation SVM ?
A16: Par la méthode des multiplicateurs de Lagrange pour obtenir un problème dual.
Page 18:
A17: Un point pour lequel le multiplicateur de Lagrange est non nul, situé sur la marge.
Page 19:
A18: En introduisant des variables d'écart pour accepter que certains points soient mal
classés.
Page 20:
Page 21 :
Q20 : Comment traiter le cas où les données ne sont pas linéairement séparables avec un SVM
?
A20 : En projetant les données dans un espace de plus grande dimension où elles deviennent
linéairement séparables.
Page 22 :
Q21 : Comment projeter les données dans un autre espace avec un SVM ?
A21 : En utilisant une fonction noyau qui calcule un produit scalaire dans le nouvel espace.
Page 23 :
Q22 : Quels sont les noyaux courants utilisés dans les SVM ?
Page 24 :
A23 : Soit en faisant un SVM par classe contre les autres (un-contre-tous), soit un SVM par
paire de classes (un-contre-un).
Page 25 :
A24 : M SVM.
Page 26 :
Page 27 :
A26 : Elle peut donner de meilleures performances en séparant chaque paire de classes.
Page 28 :
Q27 : Quels sont les avantages des SVM par rapport aux réseaux de neurones ?
A27 : Meilleures garanties théoriques, pas de problèmes de minimas locaux, adaptabilité par
les noyaux.
Page 29:
Q28: Quel est l'inconvénient des SVM par rapport aux réseaux de neurones?
A28: Le temps d'entraînement peut être beaucoup plus long pour des problèmes complexes.
Page 30:
Q29: Que faire si les données ne sont pas linéairement séparables avec un SVM?
A29: Utiliser une projection dans un espace de plus grande dimension via une fonction noyau
pour rendre possible une séparation linéaire.
Page 31:
A30: Noyau linéaire, polynomial, Gaussien RBF. Le choix du noyau influence les
performances.
Page 32:
Page 33:
Q32: Quel est l'avantage de la méthode un-contre-un pour les SVM multiclasses?
A32: Elle construit des séparateurs optimisés entre chaque paire de classes plutôt que contre
le reste.
Page 34:
A33: Le nombre de SVM croît quadratiquement avec le nombre de classes, ce qui augmente la
complexité.