Académique Documents
Professionnel Documents
Culture Documents
Présentation Adm
Présentation Adm
Projet ADM
Arbre De Decision
Membres du Le BG
groupe :
Abrane Nardjes
Queen
Zina Zennadi
La plus belle
SOMMAIRE
1 Introduction
2. La visualisation
L’un des grands avantages des arbres de décision est leur cadre prédictif, qui vous permet d’envisager différentes
possibilités et de déterminer en fin de compte le plan d’action qui a le plus de chances de réussir. Cela permet de
protéger vos décisions contre les risques inutiles ou les résultats indésirables.
3. Les arbres décisionnels sont axés sur les probabilités et les données
Les arbres décisionnels offrent une vision équilibrée du processus décisionnel, tout en calculant à la fois le risque et la
récompense, sans
ARBRE DE DECISION :
Se divise en deux sous catégories
1 Description
3 Algorithme de l’arbre
4 Exemple concret
5 Exemple pratique
C’est quoi un arbre de
régression ?
L
es arbres de régression, une variante des arbres de décision, visent à prédire
des résultats que nous considérons comme des nombres réels, tels que la
posologie optimale d'une prescription, le coût du carburant l'année prochaine
ou le nombre de cas de Covid attendus cet hiver. Les modèles de régression cherchent
à déterminer la relation entre une variable dépendante et une série de variables
indépendantes qui se séparent de l'ensemble de données initial.
Données
tabulaires
Arbre de
régression
Principe de
construction
de l’arbre
Dans un arbre de décision, on
distingue deux types de nœuds : le
nœud de décision (Decision
Node) et le nœud terminal (Leaf
Node). Les nœuds de décision
sont utilisés pour prendre des
décisions et ont plusieurs
branches, tandis que les nœuds
terminaux représentent les
résultats de ces décisions et ne
contiennent pas de branches
supplémentaires.
Objectif: découper l’espace des variables explicatives en régions
R1,...,RJ (les feuilles de l’arbre) qui minimisent:
construction
de l’arbre le nombre d’observations dans la feuille Rj. En effet, dans le
CART de base on suppose que yˆ=a
ou a
est une constante à déterminer. Nous verrons qu’il existe des
variantes de type yˆ=Xβ
à chaque étape CART choisit la variable j et le seuil s minimisant
la variance inter-groupe
Alogrithme de
conception
(Processus de sélection des nœuds, calcules nécessaires)
Les étapes générales pour créer un arbre de régression sont les suivantes :
4. Construction de l'arbre.
6. Évaluation de l'arbre.
Construction de l’arbre
Calcul de l'écart type de l'output :
Cela vous donne une idée de la variabilité des valeurs de sortie dans l'ensemble de données
SD =
Construction de l’arbre
Détermination de la meilleure caractéristique (attribut) :
Vous examinez chaque caractéristique (attribut) dans l'ensemble de données et
calculez l'écart type de la variable de sortie pour chaque valeur de cet attribut.
Vous choisissez l'attribut qui donne le plus grand écart type de la variable de
sortie, ce qui signifie que cet attribut divise le mieux les données en groupes
homogènes en termes de la variable de sortie. (La réduction de l'écart type pour
un attribut).
√
Standard deviation of golf players = [( (25 – 39.78)^2 +
(30 – 39.78)^2 + (46 – 39.78)^2 + … + (30 – 39.78)^2
)/14] = 9.32
Exemple
Résumé des écart-types pour l'attribut "Vent"
Critère d’arrêt ?
soit dans le cas ou l’écart type est nul ou bien
Élagage
Grâce a deux critères :
-nombre d’instances < N
ou bien :
- l’écart type du sous ensemble est inferieur à un certain pourcentage établie par les experts.
Conclusion
1 Avantages et inconvénients
3 Domaines d’applications
Avantages