Vous êtes sur la page 1sur 2

ENSET DE M OHAMMEDIA

GLSlD & IIBDCC - 3"111" annee


Examen final en Jngenierie decisio1melle - duree JH30

Exercice I : (7 points)
1. Quelles sont Jes principales faiblesses d'un perceptron ?
2. C'est quoi le role de la fonction d'activation dans un neurone ?
3. Pour le cas des arbres de decision, a quel moment peut-on parler de overfitting (surapprentissage) ? comment
peut on remedier ce probleme?
4. Decrire puis ecrire l'algorithme de K-means.
S. Donner un reseau de neurones d'apprentissage non supervise. Decrire le.
6. Est-ce qu'on peut parler de sur-apprentissage des modeles d'apprentissage non supervise? donner un exemple.

Exercice 2: (6 points)
On considere I' echantillon suivant :
No TO Tl T2 T3 Classe
1 1 () V N A
2 l l V I A
3 1 0 F 01 B I
4 2 I V N A
,:; ') I V n A
6 2 l F N A
7 2 0 F 0 B
8 2 0 V I A
9 1 0 F N B .

10 1 1 \l I B
1l ') 1 l:;' () A
12 2 I F I A
13 - · - ••I ·•·· - ..0 -V 0 B
1. Soit l'ensemble d'apprentissage constitue des exemples {l ,. ., 9 }. Construire l'arbre de
decision.
2. Classer Jes exemples de test

Exercice 3 : (7 points)
Soit le schema suivant qui represente un neurone :

l) En fonction des donnees montrees sur le schema, donner Jes expressions nume-riques qu'il faut puis
calculer la sortie correspondante
2) Calculer Loss trouvee dans la sortie sachant que le resultat attendu est )=O. 1

3) Eu se basant sur l'algvrithme de bacr(propagaiion
1 L • 1
et c,,airuuJ ' .
e, ecnre 1•'express1on
. ue...1 ac._n.u
owl
4) A partir de 3), ecrire )' expression numerique de ill.ass
owl
Les calculs et fonnules suivants peuv ent vous servir:
1 iJpredi ct ed == __ 1_ (l - _ _1_}' Los s ==
1 2
predicted= f(s) = 1 + e-s iJs 1 + e-s 1 + e-s 2 (desired - predicted)

Pro_fessem· Z. EN-NAJMA.1VJ Page J/2


ENSE T DE MOl-!A MMED IA

I
1,.''a211 e 1=2.7I
-j

Rappel de Chain rule:


c;
....,, on, a TII -- Flu
I(t / I ot " - ,!:1(A
'- &,Irrlv) alors
- 'I, dy dy du
- = -1"-
dx du dx
5) Queile est la difference entre un parametre et un hyperpa rametre
dans l'algori thme de gradient
descent
6) En se basant sur !es reponses des questions precedentes, ecrire l'algori
thme de gradient descent pour
trouver !es poids qui minimisent la fonction Loss
7) En deux itcrnti0ns de l'algorithmc, affi chcr pour chaque iteration la
valcur du nouvea u bias

T'r,,f; .1.<l'ur l [ \'- '\'.~ J,\ I.I '\ I

Vous aimerez peut-être aussi