Académique Documents
Professionnel Documents
Culture Documents
premières recherches en IA menées par des scientifiques tels que John McCarthy, Marvin Minsky et Claude
Shannon,
ont tenté de créer des machines capables de réaliser des tâches qui étaient considérées comme nécessitant de
l'intelligence.
1960
la recherche en IA a connu un essor important, grâce à l'augmentation de la puissance de calcul et au
développement de nouveaux algorithmes et modèles de machine learning.
développés pour résoudre des problèmes tels que la reconnaissance de caractères, la traduction automatique et les
jeux de stratégie comme le jeu d'échecs
1970/80
absence de progrès significatifs dans la création de systèmes d'IA qui pouvaient rivaliser avec l'intelligence
humaine.
1990/2000
recherche en IA a connu un renouveau grâce à l'essor de l'informatique distribuée, du big data et des algorithmes
d'apprentissage en profondeur.
Aujourd'hui
omniprésente dans notre vie quotidienne (assistants vocaux, les voitures autonomes, les systèmes de
recommandation ou les chatbots)
entreprises et les gouvernements du monde entier investissent des milliards de dollars dans la recherche en IA,
dans l'espoir de créer des systèmes qui pourront résoudre certains des plus grands défis de notre époque, tels que
la lutte contre le changement climatique, la découverte de nouveaux médicaments et la création d'emplois plus
productifs.
Les transports : l'IA est utilisée pour la conduite autonome des voitures, des camions et des drones, la planification de
routes plus efficaces, l'optimisation de la logistique, etc.
L'industrie manufacturière : l'IA est utilisée pour l'optimisation de la chaîne de production, l'analyse des données de
maintenance, la surveillance de la qualité, etc.
La finance : l'IA est utilisée pour la détection de fraudes, la gestion de portefeuilles, la prédiction de l'évolution des
marchés, etc.
Les services publics : l'IA est utilisée pour la détection des anomalies dans les réseaux électriques, la gestion des
déchets, la prédiction des catastrophes naturelles, etc.
Le marketing : l'IA est utilisée pour la segmentation des clients, la recommandation de produits, la personnalisation des
offres, etc.
L'éducation : l'IA est utilisée pour la personnalisation de l'apprentissage, l'analyse des données des élèves, l'élaboration
de cours en ligne, etc.
Fiche de révision 1
Si tu vois Floo c'est que tu vois pas flou
Les jeux vidéo : l'IA est utilisée pour la création d'adversaires virtuels plus réalistes, la génération procédurale de
niveaux, la simulation de comportements humains, etc.
Les chercheurs en IA : les chercheurs en IA travaillent dans les universités, les centres de recherche gouvernementaux
et les entreprises privées. Ils sont à l'avant-garde de la recherche en IA, développant de nouvelles techniques et
modèles pour améliorer la performance et la fiabilité des systèmes d'IA.
Les gouvernements : les gouvernements jouent un rôle important dans la réglementation de l'IA et dans la promotion de
son développement dans certains secteurs clés. Certains gouvernements ont également créé des centres de recherche
en IA et investi dans des programmes de formation en IA.
Les startups en IA : de nombreuses startups ont été créées ces dernières années pour développer des technologies
d'IA innovantes dans des domaines spécifiques, comme la santé, les transports, les finances et l'énergie.
Les utilisateurs finaux : les utilisateurs finaux, qu'il s'agisse de consommateurs ou d'entreprises, sont les bénéficiaires
des produits et services basés sur l'IA. Ils ont également un rôle important à jouer dans l'adoption et l'utilisation de l'IA,
en fournissant des données pour entraîner les modèles d'IA et en évaluant l'efficacité des systèmes d'IA.
2. Confidentialité des données : L'utilisation de l'I.A. peut impliquer la collecte de grandes quantités de données sur les
utilisateurs, ce qui peut soulever des préoccupations en matière de protection de la vie privée et de la confidentialité.
3. Automatisation du travail : L'utilisation de l'I.A. peut entraîner la suppression d'emplois traditionnels ou la réduction des
heures de travail pour les travailleurs humains, ce qui peut avoir des répercussions sociales et économiques
importantes.
4. Responsabilité : Il peut être difficile de déterminer qui est responsable en cas d'erreur ou de dommage causé par une
décision prise par un algorithme d'I.A. Cela peut soulever des questions de responsabilité légale et de transparence.
5. Discrimination : L'utilisation de l'I.A. peut entraîner des formes de discrimination, notamment la discrimination
automatisée, qui peut avoir un impact négatif sur certaines populations, telles que les minorités ethniques ou les
personnes handicapées.
6. Sécurité : L'I.A. peut être utilisée pour créer des armes autonomes, qui peuvent poser des risques pour la sécurité
internationale et la stabilité.
7. Éthique de la recherche : L'utilisation de l'I.A. peut soulever des questions éthiques concernant la collecte, l'utilisation et
la publication des données de recherche, ainsi que la protection des sujets de recherche.
import os
import tarfile
from six.moves import urllib
DOWNLOAD_ROOT = "https://github.com/ph10r/eiSpeInfoDS/raw/master/"
HOUSING_PATH = os.path.join("datasets", "housing")
HOUSING_URL = DOWNLOAD_ROOT + "housing.tgz"
Fiche de révision 2
Si tu vois Floo c'est que tu vois pas flou
housing_tgz.extractall(path=housing_path) #SOLUTION
housing_tgz.close() #SOLUTION
import pandas as pd
def load_housing_data(housing_path=HOUSING_PATH):
csv_path = os.path.join(housing_path, "housing.csv")
return pd.read_csv(csv_path) #SOLUTION
housing = load_housing_data()
# Premières lignes
housing.head()
# Résumé statistique
housing.describe()
# supprimer un champs
housing.drop("ocean_proximity", axis=1, inplace=True)
Graphiques
# créer un dendogramme
plt.figure(figsize=(10, 7))
dendrogram(linkage(X, method='ward'), orientation='top', distance_sort='descending', show_leaf_counts=True)
plt.show()
Fiche de révision 3
Imputation
L'imputation est l'ajout d'entrée dans des champs vide, pour ne pas fausser le modèle ML. En effet, si une entrée
contient un ou plusieurs champs dont l'entrée est manquante, les prédictions, et leur variance, du modèle de données
seront faussée. Ainsi, nous ajoutons des données inférées à partir de différents paramètres dans ces champs vide.
Imputation univariée
Une approche plus sophistiquée consiste à utiliser le IterativeImputer classe, qui modélise chaque caractéristique
avec des valeurs manquantes en fonction d'autres caractéristiques, et utilise cette estimation pour l'imputation. Il le
fait dans un round-robin itéré mode : à chaque étape, une colonne de caractéristiques est désignée comme sortie
y et le les autres colonnes de caractéristiques sont traitées comme des entrées X .
Note : Cet estimateur est encore expérimental pour le moment, donc on va s’en battre les couilles car à éviter.
Split des données : il faut créer un jeu de données d’apprentissage et un jeu de données de test. Dans le cadre du
projet on faisait 80% d’apprentissage, et 20% de test.
Fiche de révision 4
Si tu vois Floo c'est que tu vois pas flou
Le modèle de régression linéaire est basé sur une équation de la forme Y = aX + b, où Y est la variable dépendante, X
est la variable indépendante, a est le coefficient de régression (ou coefficient directeur) qui représente la pente de la ligne
de régression, et b est l'ordonnée à l'origine, qui représente l'endroit où la ligne de régression croise l'axe des Y .
Le but de la régression linéaire est d'estimer les valeurs des coefficients a et b qui permettent de créer la ligne de
régression qui s'ajuste au mieux aux données observées. Pour cela, on utilise une méthode d'optimisation appelée
méthode des moindres carrés, qui minimise la somme des carrés des écarts entre les valeurs observées de Y et les
valeurs prédites par le modèle.
Une fois que le modèle de régression linéaire est créé, il peut être utilisé pour prédire les valeurs de Y en fonction des
valeurs de X . Cependant, il est important de garder à l'esprit que la régression linéaire suppose que la relation entre les
variables est linéaire et qu'il n'y a pas de relation causale entre les variables.
En résumé, la régression linéaire est une méthode statistique qui permet de modéliser la relation entre une variable
dépendante et une ou plusieurs variables indépendantes en utilisant une équation linéaire. Elle est largement utilisée dans
de nombreux domaines, notamment en économie, en finance et en sciences sociales, pour prédire des valeurs numériques
à partir de variables explicatives.
2. Analyse de tendance : La régression linéaire peut être utilisée pour analyser les tendances temporelles dans les
données. Par exemple, une entreprise peut utiliser la régression linéaire pour analyser l'évolution des ventes au fil du
temps.
3. Modélisation de la relation entre les variables : La régression linéaire peut être utilisée pour modéliser la relation entre
une variable dépendante (Y) et une ou plusieurs variables indépendantes (X). Par exemple, une entreprise peut utiliser
la régression linéaire pour modéliser la relation entre les dépenses de publicité et les ventes.
4. Identification des facteurs de risque : La régression linéaire peut être utilisée pour identifier les facteurs de risque
associés à une variable dépendante (Y). Par exemple, une entreprise peut utiliser la régression linéaire pour identifier
les facteurs de risque associés à la perte de clients.
5. Prévision de tendances futures : La régression linéaire peut être utilisée pour prévoir les tendances futures dans les
données. Par exemple, une entreprise peut utiliser la régression linéaire pour prévoir les tendances futures des ventes
en fonction des tendances passées.
Nous on l’a pas calculée à la main, donc on part sur le fait que soit c’est pas réclamé, soit qu’on se débrouillera.
# imports
import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
# appliquer la regression
regression = LinearRegression()
regression.fit(X, Y)
# prédire
y_pred = regression.predict(X)
# qualité
r_squared = regression.score(X, Y)
print('Coefficient de détermination : ', r_squared)
Fiche de révision 5
La flemme je m'arrête là
Grid/Randomized Search
MAE
RISGE
Le RISGE (Relative Importance Score Gain Estimation) est une mesure de l'importance relative des variables dans un
modèle de classification.
LASSO
La régression LASSO, ou (Plus petit rétrécissement absolue et Opérateur de Selection est une modification de la
régression linéaire. Avec le LASSO, la fonction de perte est modifiée pour minimiser la complexité du model en limitant
la somme des valeurs absolues des coefficients du model ( aussi appelés la L1-norm).
# MSE
lin_mse = mean_squared_error(housing_labels, housing_predictions)
# RMSE
lin_rmse = mean_squared_error(housing_labels, housing_predictions, squared=False)
# MAE
lin_mae = mean_absolute_error(y_true, y_pred)
Fiche de révision 6
Comment bouger la ligne ?
Option 2, rotation dont le point de pivot est le point d’intersection avec l’axe y
Option 3, rotation dont le point de pivot est le point d’intersection avec l’axe x
Perceptron Trick
On prends un learning rate petit, qu’on multiplie par les coordinnées des points pour faire bouger la ligne petit à petit.
Fiche de révision 7
Simple
Le perceptron est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes).
Il a été inventé en 1957 par Frank Rosenblatt1 au laboratoire d'aéronautique de l'université Cornell. Il s'agit d'un
neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de
manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème
assure que la règle du perceptron permet de trouver une séparatrice entre les deux classes.
Multicouche
En intelligence artificielle, plus précisément en apprentissage automatique, le perceptron multicouche (multilayer
perceptron MLP en anglais) est un type de réseau neuronal artificiel organisé en plusieurs couches. L'information circule
de la couche d'entrée vers la couche de sortie uniquement : il s'agit donc d'un réseau à propagation directe
Fiche de révision 8
(feedforward). Chaque couche est constituée d'un nombre variable de neurones, les neurones de la dernière couche
(dite « de sortie ») étant les sorties du système global.
1. Segmentation de la clientèle : La classification automatique peut être utilisée pour segmenter la clientèle en fonction de
leurs comportements d'achat, de leurs préférences et de leurs intérêts communs. Cette segmentation peut aider les
entreprises à personnaliser leur marketing et leurs offres pour chaque groupe de clients.
2. Détection de fraude : La classification automatique peut être utilisée pour détecter les transactions frauduleuses en
examinant les caractéristiques des transactions pour identifier les transactions anormales ou suspectes.
3. Analyse des sentiments : La classification automatique peut être utilisée pour l'analyse des sentiments des clients à
partir des commentaires et des avis. Les commentaires peuvent être classés en fonction des émotions exprimées,
telles que positives, négatives ou neutres, pour comprendre les opinions des clients sur un produit ou un service.
4. Catégorisation de contenu : La classification automatique peut être utilisée pour catégoriser automatiquement le
contenu, tels que des articles, des vidéos, des images ou des documents, en fonction de leur sujet, de leur thème ou
de leur style.
5. Détection de spam : La classification automatique peut être utilisée pour détecter les messages de spam dans les
boîtes de réception des utilisateurs en analysant les caractéristiques des messages pour identifier les messages
suspects.
6. Détection de maladies : La classification automatique peut être utilisée pour diagnostiquer les maladies en analysant
les caractéristiques des symptômes des patients pour identifier les maladies similaires.
Fiche de révision 9
Je crois l’avoir traité avant, sinon rf la fiche de bébou.
https://developers.google.com/machine-learning/crash-course/classification/roc-and-auc?hl=fr
Fiche de révision 10
Fiche de révision 11