Académique Documents
Professionnel Documents
Culture Documents
Cours
Cours
pour la Finance
Cours
2022/2023
François Desmoulins-Lebeault
Alain Guéniche
Cours
A. Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
B. Distributions de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
C. Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
D. Risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
E. Ratio de Sharpe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Ouvrages de référence
2
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
• Les rentabilités d’une action sur une période donnée. Les valeurs peuvent se situer ici vraiment
n’importe où entre −∞ et +∞. Il s’agit donc d’une variable aléatoire continue.
• Le volume de transaction d’une action donnée à un moment. Le nombre de titres échangés est un
entier naturel. Il s’agit donc d’une variable aléatoire discrète.
• Le cours ultérieur d’une action. Les valeurs peuvent être n’importe où entre 0 et +∞ et par
conséquent sont considérées comme variables aléatoires continues (plus exactement, elles devraient
être une variable discrète comme les valeurs ne sont que des points avec maximum quatre décimales
séparés par le "pas de cotation" ("tick" en anglais), mais la complexité ajoutée fait que cette
modélisation est très rare).
• L’état "défaillant/non défaillant" à un moment. Il s’agit d’une variable aléatoire discrète vu que
l’ensemble est réduit à un nombre fini de valeurs ("défaillant" et "non défaillant").
Si une variable aléatoire X : Ω → R définie sur un espace probabilisé (Ω, A, P ) est donnée, on peut se
demander "quelle est la probabilité que la valeur de X soit égale à a ?". Ce qui correspond à la probabilité
de l’évènement {ω : X (ω) = a}, souvent raccourci à P (X = a) ou p X (a).
B. Distributions de probabilité
La distribution de probabilité de X est obtenue en rassemblant les probabilités correspondant à
toutes les valeurs possibles qu’une variable aléatoire réelle X peut prendre sur une plage donnée. Cette
distribution de probabilité ne dépend plus de l’espace de probabilité utilisé pour définir X et ne décrit
que les probabilités des différentes valeurs prises par X . Une telle distribution de probabilité est toujours
décrite par sa fonction de répartition F X (x) = P (X ≤ x) et quelques fois également par sa fonction de
densité p X .
Ces distributions de probabilité sont un moyen pour nous de décrire ce que nous pensons pouvoir se
produire pour l’élément que nous avons identifié en tant que variable aléatoire. Nous associons donc une
"chance de réalisation" à chaque valeur possible de la quantité étudiée.
C. Moments
Nous pouvons définir le moment ordinaire d’ordre n d’une fonction continue réelle f (qui pourrait
être la fonction de densité d’une variable aléatoire) comme :
Z +∞
µn = x n f (x)dx
−∞
3
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
De toute évidence, si nous disposons de la fonction de répartition F nous pouvons également écrire
µn s comme :
x − µ1 n
Z +∞ µ ¶
µn s = p dF (x)
−∞ µ2c
La forme discrète ou échantillonnale du moment d’ordre n sera :
N ³ x − m ´n
X i
mns =
i =1 s
Exemple numérique Imaginez que nous ayons 5 rentabilités, 1%, −2, 2%, 0, 1%, −0, 3% et 1, 3%
pour une action donnée. La somme des valeurs est −0, 1%. Comme il y a 5 valeurs, la moyenne
est m = −0, 1%/5 = −0, 02%. Pour chaque observation, la valeur au carré en excès de la moyenne,
(x i − m)2 devient : (1% + 0, 02%)2 = 0, 0104%, (−2, 2% + 0, 02%)2 = 0, 0475%, 0, 00014%, 0, 0008% et
0, 0174%. Leur somme est 0, 0763%. En divisant cette valeur par le nombre d’observations moins
un, on obtient 0, 0763%. Il s’agit de la variance échantillonnale du groupe de rentabilités. Prendre
la racine carrée de cette valeur donne 1, 381%, l’estimation de l’écart-type de notre échantillon.
Les moments ordinaires donnent une indication quant à la forme de la fonction mais sont assez
difficiles à comprendre... Cependant, le premier de ces moments ordinaires est bien connu : c’est la
moyenne. Les moments centrés et, encore mieux, les moments normalisés, sont plus faciles à comprendre,
interpréter et comparer.
La Moyenne le premier moment ordinaire, c’est le centre de masse de la distribution, le point tel qu’il y a une
probabilité de 50% d’être en-dessous et de 50% d’être au-dessus. Son estimateur échantillonal
est souvent noté m.
La Variance c’est le second moment central et il décrit la quantité de concentration de masse autour de la
moyenne. Sa racine carrée est l’écart-type, la distance typique par rapport à la moyenne des
observations. L’estimateur échantillonnal non biaisé de la variance (resp. écart-type), souvent
noté s 2 (resp. s), est donné par la fonction Excel "VAR.S()" (resp. "ECARTYPE.STANDARD()")
calculée comme suit :
1 X n
s2 = (x i − m)2
n − 1 i =1
Le "n − 1" au dénominateur est la correction de biais. Comme m est aussi estimé à partir des
données, il n’y a que "n −1" différentes valeurs possibles dans un échantillon de taille n, vu que la
4
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
dernière peut être connue à partir des n −1 valeurs précédentes et la valeur de m. Cette correction
supprime totalement le biais de l’estimation de la variance. Elle supprime partiellement le biais
de l’estimation de l’écart-type.
L’Asymétrie c’est le troisième moment normalisé, appelé "skewness" en anglais, et mesure le niveau d’asymétrie
autour de la moyenne. Une valeur négative indique une propension à avoir des valeurs sous
la moyenne, une valeur positive valorise au-dessus de la moyenne. Une distribution normale,
comme toute distribution symétrique, a toujours un coefficient d’asymétrie de zéro. Il existe sur
Excel une forme "non biaisée" :
n n ³ x − m ´3
X i
Skew =
(n − 1)(n − 2) i =1 s
L’Aplatissement c’est le quatrième moment normalisé, aussi appelé "kurtosis", et mesure la "finesse" relative des
queues (évènements éloignés de la moyenne) comparée au "centre" (évènements proches de la
moyenne) de la distribution. C’est une bonne façon de capturer la propension d’une variable
aléatoire à donner des "valeurs extrêmes". La valeur de ce moment pour une distribution normale
est toujours de 3. Les distributions avec un kurtosis inférieur à 3 sont dites platykurtiques, tandis
que celles avec un kurtosis supérieur à 3 sont dites leptokurtiques. Ce moment existe sur Excel
sous une forme en "excès d’aplatissement" (normalisé en soustrayant 3) non biaisée :
" #
n(n + 1) X n ³ x − m ´4
i 3(n − 1)2
Kurt = −
(n − 1)(n − 2)(n − 3) i =1 s (n − 2)(n − 3)
En termes financiers, il semble logique et cohérent (la recherche comportementale et théorique l’ont
établi) que la plupart des agents vont présenter une aversion pour la variance, un goût pour un coefficient
d’asymétrie positif et une aversion pour le kurtosis... Nous pourrions utiliser ces éléments pour définir les
objectifs d’un portefeuille.
Suite de l’exemple Ainsi sur nos 5 rentabilités, 1%, −2, 2%, 0, 1%, −0, 3% et 1, 3% nous avons calculé
que la moyenne échantillonnale est m = −0, 02% et l’estimation de l’écart-type s = 1, 381%. Si nous
voulons obtenir le kurtosis, pour chaque observation il nous faut enlever la moyenne, puis diviser
par l’écart-type et enfin élever le résultat (toujours pour chaque point) à la puissance 4. Ce qui
³ ´4
donne 1%+0,02%
1,381% = 0, 298, 6, 210, 0, 0057%, 0, 0017 et 0, 835. Leur somme donne 7, 345. Diviser ce
nombre par le nombre d’observations donne une estimation biaisée du kurtosis de 1, 469. Utiliser
la formule Excel donne une estimation "corrigée du biais" de 1, 181, en excès de 3, soit un kurtosis
de 4, 181. Ces rentabilités proviennent d’une série qui semble un peu plus susceptible de présenter
des évènements extrêmes qu’une distribution normale. Cela illustre également que le kurtosis est
difficile à manipuler sur des échantillons très petits.
D. Risque
Les variables aléatoires étant, eh bien... aléatoires, nous leur associons intuitivement la notion de
risque. Ces résultats financiers dans le futur sont très probablement risqués. Mais qu’appelons-nous
"risque", exactement ?
Le dictionnaire Merriam-Webster défini le risque comme :
5
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
• ...
E. Ratio de Sharpe
Un agent averse au risque cherchera à réduire la variance, et augmenter la moyenne, pour une variable
aléatoire financière donnée, bien souvent les rentabilités d’un investissement. Cependant, ces deux
objectifs se contredisent et la question de quelle part de moyenne peut-on sacrifier afin de réduire la
variance (ou écart-type) ou réciproquement quelle part de variance supplémentaire peut-on accepter afin
d’augmenter la moyenne des rentabilités est très importante. De tout évidence cela rejoint les moments
de la distribution d’une variable aléatoire représentant les rentabilités dudit investissement.
William Sharpe a proposé le ratio qui porte aujourd’hui son nom, pour répondre à ces questions. Le
ratio de Sharpe est défini comme suit :
E [r i − r f ] E [r i − r f ]
Si = =p ,
σi var[r i − r f ]
Où r i est la rentabilité de l’actif i , r f le taux sans risque, ou rentabilité d’un investissement sans risque
(on l’approxime habituellement par le rendement procuré par les obligations d’État à court terme,
1 La "fonction d’utilité" est un outil utilisé en économie qui permet de modéliser le niveau de satisfaction qu’un agent retire
d’une quantité consommée. C’est une simplification utile de comment les humains prennent leurs decisions économiques
concernant la consommation, l’investissement, le risque pris, etc.
6
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
typiquement OAT 3 mois en France) et σi est l’écart-type des rentabilités de i , nettes du taux sans
risque, r f , et évidemment, S i est le ratio de Sharpe de l’actif i .
On peut aussi utiliser le ratio de Sharpe pour comparer la performance d’un portefeuille à celle d’un
benchmark et par conséquent utiliser les rentabilités du benchmark à la place du taux sans risque.
Le ratio de Sharpe permet d’évaluer la rentabilité par unité de risque (en considérant l’écart-type
comme "le risque") et permet aux investisseurs de comparer différents investissements entre eux. On
pourrait remarquer que l’écart-type n’inclut aucune notion de risque systématique ou idiosyncratique et
par conséquent pourrait ne pas être un bon élément pour comparer les rentabilités. Pour cette raison il
est plus pertinent de comparer les ratios de Sharpe de portefeuilles d’une certaine taille plutôt que les
ratios de Sharpe d’actions individuelles, même si l’on peut considérer que la plupart des entreprises sont
déjà, dans une certaine mesure, des portefeuilles diversifiés.
Suite de l’exemple Ainsi sur nos 5 rentabilités journalières, 1%, −2, 2%, 0.1%, −0, 3% et 1, 3%
nous avons calculé que la moyenne échantillonale est m = −0, 02% et l’estimation de l’écart-type
s = 1, 381%. Si nous supposons que (ce qui se rapproche de la vérité en ce moment) le taux sans
risque sur une horizon journalière n’est pas significativement différent de 0, nous pouvons estimer
E (R i −r f )
le ratio de Sharpe de ces actions. S i = σi = −0,02%−0
1,381% = −1, 45%. Cette valeur est négative,
ce qui signifie que le "gain" que nous réalisons par unité de risque accepté (tel que mesuré par
l’écart-type) est négatif : pas bon !
7
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
1 X n ³ x − m ´n
i
mn− = 1xi ≤T ,
n − 1 i =1 s
et le symétrique pour m n+ .
Un gros avantage de ces statistiques est qu’elles se préoccupent des "chances de résultats négatifs"
et par conséquent se rapprochent de ce que nous entendons "naturellement" par risque. Nous voulons
éviter d’avoir une probabilité trop élevée de perte mais, pour la plupart des gens, avoir une probabilité de
gain important n’est pas vraiment un problème !!
Multiplier les semi-moments d’ordre supérieur par la variance ou l’écart-type (pour maintenir une
comparabilité au niveau de la taille) pourrait procurer des approximations du risque qui conduiraient à
des stratégies d’optimisation de portefeuille intéressantes. Ces ratios correspondants pourraient être :
ri − r f
M Si = .
mn− s
Jouer avec différents ratios pourrait conduire à une optimisation de portefeuille qui répondrait mieux
aux besoins et préférences d’investisseurs spécifiques.
− hypothèse alternative
Ces hypothèses sont toujours formulées au niveau de la population visée. L’échantillon servira à
trancher entre les deux hypothèses.
Deux approches :
− Test statistique
− Intervalle de confiance
Quelle que soit notre décision, elle peut être erronée à cause des fluctuations aléatoires :
• Soit en rejetant H0 alors qu’elle est vraie : P(rejeter H0 | H0 vraie). Ce risque d’erreur est appelé
risque de première espèce, noté α ;
• Soit en acceptant H0 alors qu’elle est fausse : P(ne pas rejeter H0 | H1 vraie). Ce risque d’erreur est
appelé risque de seconde espèce, noté β.
8
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Décision
Accepter H0 Rejeter H0
Réalité
Décision correcte
Erreur de première espèce
H0 vraie 1 - α Vrais positifs
α Faux positifs
Seuil de confiance
Décision correcte
H0 fausse Erreur de deuxième espèce
1 - β Vrais négatifs
(H1 vraie) β Faux négatifs
Puissance du test
Remarque : un test unilatéral est plus puissant qu’un test bilatéral (meilleure capacité à identifier une
différence réelle).
On cherche à minimiser ces deux types d’erreur, mais en pratique il faut trouver un compromis. Il y a
en effet une interdépendance entre α et β. Si α est tiré vers le bas, alors β monte :
Ex : Une personne est jugée pour un délit commis. Le juge doit minimiser la probabilité de se tromper
en affirmant que la personne est coupable :
½
H0 : prévenu innocent
H1 : prévenu coupable
L’erreur de première espèce consiste à condamner le prévenu alors qu’il est innocent, tandis que
l’erreur de deuxième espèce est de l’acquitter alors qu’il est coupable. Si on rejette H0 , c’est que l’on
considère que le test (de culpabilité) permet de distinguer le prévenu, et donc que le test est positif. Rejeter
à tort H0 (erreur de 1ère espèce), c’est par conséquent la probabilité d’avoir un test qui sera positif par
erreur (un faux positif).
• Si α est trop grand, on va rejeter très souvent H0 , mais le risque de se tromper est grand...
9
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Risque α
Seuil de confiance 1 − α
Risque β
Puissance 1 − β
En pratique, vu que l’on raisonne sous H0 , on fixera donc le risque α de façon assez arbitraire, et le
risque β s’ajustera automatiquement.
Test statistique
Cette approche consiste à calculer une statistique de test (ST) qui va permettre de rejeter ou non
l’hypothèse H0 . Il s’agit simplement d’une formule à appliquer une fois l’échantillon obtenu. La valeur
calculée étant susceptible de varier d’un échantillon à l’autre, une ST est définie comme une v.a.
La probabilité pour que la statistique de test STcal c dépasse, sous l’hypothèse H0 , la valeur seuil
ST seui l , est appelée probabilité critique (pc), ou p-value en anglais. Plus cette probabilité est faible, plus
forte est la contradiction entre H0 et le résultat observé avec l’échantillon. Elle est fournie directement
par les logiciels statistiques et permet de mesurer la compatibilité de H0 avec les données de l’échantillon.
Pour un seuil de significativité α donné, on compare pc et α, afin d’accepter ou de rejeter H0 :
10
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
• Si pc > α : H0 acceptée car rien ne permet de la rejeter (il convient de s’exprimer avec précaution).
Les données ne sont pas incompatibles avec H0 . La différence avec la norme est non statistiquement
significative, et n’est pas suffisamment importante par rapport aux fluctuations aléatoires pour
pouvoir raisonnablement exclure qu’elle soit un artefact dû au hasard.
Fluctuation de la ST due à l’échantillonnage (sous H0 ) :
αseui l αseui l
p-value p-value
0 ST 0 STcal c
c al c
ST seui l ST seui l
H0 acceptée H0 refusée
Ex : Un économiste conclut qu’une différence entre des moyennes d’échantillon est "statistiquement
significative au seuil de 1%". On peut affirmer que :
• pc ≤ 1% afin de pouvoir rejeter H0 . En d’autres termes, la statistique de test doit être suffisamment
improbable pour pour permettre de rejeter l’hypothèse nulle;
• S’il n’y avait pas de différence entre les moyennes de population, la probabilité d’en observer une
entre les moyennes d’échantillon serait de 1% ou moins ;
• La conclusion de l’économiste est une preuve solide qu’il existe une différence entre les moyennes
de population. Cependant cela n’indique pas si, oui ou non, cette différence est assez grande pour
revêtir une importance pratique.
Signification statistique et signification au sens commun (économique) sont deux concepts entièrement
différents. Une ST est une v.a. à cause de l’échantillonnage des individus mesurés. L’hypothèse H0
donne une distribution à la ST. L’échantillon donne une valeur à la ST. La p-value indique si cette
valeur est cohérente avec la distribution (et donc avec l’hypothèse H0 )
11
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
− H0 = respect de la norme
H0 : µ = µ0 H0 : µ = µ0 H0 : µ = µ0
½ ½ ½
ou ou
H1 : µ ̸= µ0 H1 : µ > µ0 H1 : µ < µ0
Le seuil d’acceptabilité, ou risque d’erreur admis, sera ici la probabilité d’accepter H1 alors que H0
est vraie. La région critique est représentée par la probabilité α, soit l’ensemble des valeurs observées de
la statistique de test provoquant le rejet de l’hypothèse nulle. Et la zone d’acceptation, elle, contiendra
l’ensemble des valeurs observées de la statistique provoquant l’acceptation de l’hypothèse nulle, soit la
probabilité (1–α).
Notation : la ST seui l est notée z lorsqu’elle est lue dans une table de la loi normale, et t dans une table
de Student. Et on indique en indice α lorsqu’il s’agit d’un test unilatéral, et α/2 en bilatéral. Quant à la ST
on la notera alors respectivement Z et T .
• Pour H1 : µ ̸= µ0 :
12
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
• Pour H1 : µ > µ0 :
− Si σ connu : Z < z α
− Si σ inconnu : T < t α
• Pour H1 : µ < µ0 :
− Si σ connu : Z > −z α
− Si σ inconnu : T > −t α
Ex : Un récent article dans les Échos affirme que les taux à 1 an sont, en moyenne, à moins de 4%. Un
petit échantillon révèle les taux suivants (en %) : 2,8 ; 3,3 ; 4,4 ; 2,8 ; 4,1 ; 4,2 ; 3,6. Peut-on conclure au seuil
de 1% que les taux sont inférieurs à 4% ?
H0 : µ = 4%
½
H1 : µ < 4%
Les statistiques de test sont données dans le mémorandum. Dans le cas d’une moyenne, la statistique
13
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
de test est égale à la moyenne échantillonnale que l’on centre et que l’on réduit :
³ ´
X −E X X − µ0
ST = ³ ´ = ∼ Tn−1
σ X S′
p
n
³ ´ ³ ´ σ
vu que E X = µ et que sous H0 , µ = µ0 , σ X = p et σ étant inconnu, on utilise l’estimateur non biaisé
n
S ′ . Cette statistique de test suit une loi normale centrée réduit si l’écart-type de la population est connu,
et de Student à n − 1 degrés de liberté (ddl) s’il ne l’est pas. Comme σ est inconnu, elle suit donc une loi
de Student. De plus, l’échantillon étant petit, on ne peut utiliser le théorème central limite (TCL) pour
approximer la loi de Student par la loi normale. Et enfin, la population étant supposée infinie (N > 20n),
le coefficient d’exhaustivité est négligeable.
3, 6% − 4%
• STc al c = = −1, 60
0, 661%
p
7
• Seuil pour une probabilité unilatérale de 1% : en regardant dans la table de Student p. 7 du
mémorandum à 6 ddl et α = 2% on trouve ST seui l = 3, 14 = −3, 14 (symétrie), en n’oubliant pas que
la table fournit la proba pour un test bilatéral et donc qu’il faut regarder la colonne correspondant à
un alpha de 2% de façon à avoir à gauche α/2 = 1%.
⇒ H0 n’est donc pas rejetée et est acceptée au seuil de 99% : la moyenne des taux n’est pas significativement
différente de 4%, ce qui contredit l’affirmation de l’article des Échos.
Rejet de H0 Acceptation de H0
1% 99%
p-value
STcal c 0
-1,60
ST seui l
-3,14
14
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Intervalle de confiance
On peut aussi construire une région d’acceptation pour les statistiques de l’échantillon. Si la
moyenne de l’échantillon appartient à la région d’acceptation, alors l’hypothèse H0 ne sera pas rejetée,
et donc acceptée au seuil α. Et inversement, si la moyenne de l’échantillon n’appartient pas à la région
d’acceptation, alors l’hypothèse H0 sera rejetée, et par conséquent H1 sera acceptée au seuil α. Ainsi la
zone d’acceptation est :
• Pour H1 : µ ̸= µ0 :
σ σ
· ¸
− Si σ connu : x ∈ µ0 − z α/2 × p ; µ0 + z α/2 × p
n n
′
s s′
· ¸
− Si σ inconnu : x ∈ µ0 − t α/2 × p ; µ0 + t α/2 × p
n n
• Pour H1 : µ > µ0 :
σ
− Si σ connu : x < µ0 + z α × p
n
s′ s
− Si σ inconnu : x < µ0 + t α × p ou x < µ0 + t α × p
n n −1
• Pour H1 : µ < µ0 :
σ
− Si σ connu : x > µ0 − z α × p
n
s′ s
− Si σ inconnu : x > µ0 − t α × p ou x > µ0 − t α × p
n n −1
X − µ0
−t α/2 ≤ ³ ´ ≤ t α/2
σ X
15
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Ex : On prélève 150 barils de 5 Kg et on constate que le poids moyen est de 4,980 Kg, plus ou moins
0,055 Kg. Doit-on vérifier les machines au seuil de signification de 5% ?
H0 : µ = 5
½
H1 : µ ̸= 5
Sous H0 :
s′
µ ¶ r
′ 150
X ∼ N 5; p où s = × 0, 055 = 0, 0552
150 149
vu que σ est inconnu mais, l’échantillon étant grand, on peut approximer la loi de Student par la loi
normale (TCL).
S’agissant d’un test bilatéral, on cherche z α/2 , or la table de la loi normale en p. 6 du mémorandum donne
la probabilité à gauche du quantile. Il faut donc regarder à :
H0 est acceptée si :
s′
· ¸
x ∈ µ0 ± z α/2 × p
n
· ¸
0, 0552
⇔ x ∈ 5 ± 1, 96 × p
150
⇔ x ∈ [4, 991; 5, 009]
Or x = 4, 980 ∉ intervalle d’acceptation, donc H0 rejetée au profit de H1 au seuil de 5%. Avec 5% de chances
d’avoir tort, il faut donc vérifier les machines.
4, 980 − 5
Z= = −4, 44
0, 0552
p
150
16
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Récapitulatif
À cause des fluctuations aléatoires d’échantillonnage, on peut se retrouver avec un échantillon qui ne
soit pas représentatif et nous induise en erreur.
Ex : la moyenne de notre échantillon montre une différence par rapport à la norme, ce qui nous fait
rejeter H0 , alors que la valeur véritable du paramètre de la population est en fait égale à celle proposée
par l’hypothèse nulle.
En définissant le seuil de signification du test, α, on fixe donc la probabilité maximale de se tromper que
l’on est prêt à accepter.
Ex : si l’estimateur de la moyenne est distribué normalement, il a 5 chances sur 100 de présenter un écart
à la moyenne supérieur à 1, 96σ. Autrement dit, 95% des moyennes d’échantillon sont distribués dans
une étendue d’environ 4 écart-types.
La zone de rejet est la zone pour laquelle la différence entre la moyenne de l’échantillon et la norme
lorsque H0 est vraie n’a qu’une faible probabilité de se produire (5%).
Mais la différence peut être positive ou négative, vu que dans le cas d’un test bilatéral la seule conclusion
possible est que le paramètre diffère de la valeur supposée en hypothèse, peu importe qu’il soit plus grand
ou plus petit. On doit donc partager la probabilité d’erreur (α) en deux parties égales de chaque côté de la
distribution, soit α/2 = 2, 5%.
Lorsque l’on est en mesure de spécifier une direction particulière pour l’hypothèse alternative, on
préfèrera conduire un test unilatéral. Dans ce type de test, il n’y a qu’une seule région de rejet, située du
côté spécifié par H1 : à gauche lorsque la valeur présumée est supérieure (µ < µ0 ), à droite lorsqu’elle est
présumée inférieure (µ > µ0 ).
Ex : si on pressent que la moyenne de la population est supérieure à une certaine valeur (H1 : µ > µ0 ),
on va calculer l’intervalle d’acceptation, ce qui revient à déterminer un intervalle de valeurs typiques
pour la statistique de test. Si H1 est vraie, alors la moyenne que l’on trouvera dans l’échantillon tendra à
prendre des valeurs plus grandes que celles qu’elle ne prendrait si H0 était vraie. On va donc dire que les
valeurs en-dessous d’un certain seuil (le quantile z) sont typiques de H0 , et que celles qui sont au-dessus
indiquent une préférence pour H1 . On fixe ce seuil de telle sorte que 95% du temps, si H0 est vraie, alors la
statistique de test est en-dessous de ce seuil : ainsi, il doit être pris égal au quantile z 95% = 1, 645, comme
on peut le lire sur la table de la loi normale centrée-réduite. L’intervalle à droite, ]1, 645; +∞[ est donc
l’intervalle de rejet de H0 . Si la valeur calculée sur les observations pour la statistique de test tombe
dedans, alors on rejette H0 et on accepte H1 au seuil de 5%.
17
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
H0 : µ A = µB H0 : µ A = µB H0 : µ A = µB
½ ½ ½
ou ou
H1 : µ A ̸= µB H1 : µ A > µB H1 : µ A < µB
σ2A σ2B
à ! à !
X A ∼ N µA , et X B ∼ N µB ,
nA nB
³ ´ ³ ´ ³ ´ ³ ´ σ2 σ2 ³ ´
− V (∆) = V X A − X B = V X A + V X B − 2Cov X A , X B = A + B avec Cov X A , X B = 0
n A nB
Ainsi :
s
σ2A σ2B
• Si σ A et σB connus (cas rare) : ∆ ∼ N µ A − µB ; +
nA nB
∆ − E (∆) ∆ − µ A − µB
¡ ¢
⇒ Soit Z = p = s ∼ N (0, 1)
V (∆) σ2A σ2B
+
n A nB
∆
⇒ Or sous H0 : µ A = µB , µ A − µB = 0, donc Z = s ∼ N (0, 1)
σ2A σ2B
+
nA nB
∆
• Si σ A et σB inconnus : T = s ∼ T(n A −1)+(nB −1)
s ′2
A s B′2
+
nA nB
18
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Zone d’acceptation de H0 :
σ connu σ inconnu
s s
σ2A σ2B s ′2
A s ′2
H1 : µ A ̸= µB ∆ ∈ ±z α/2 × + ∆ ∈ ±t α/2 × + B
n A nB n A nB
s s
σ2A σ2B s ′2
A s ′2
H1 : µ A > µB ∆ < zα × + ∆ < tα × + B
n A nB n A nB
s s
σ2A σ2B s ′2
A s ′2
H1 : µ A < µB ∆ > −z α × + ∆ > −t α × + B
n A nB n A nB
Hommes (X A ) 47 45 53 49 56 54 48 51 48 49
Femmes (X B ) 43 46 42 44 50
Un homme prétend qu’il n’y a pas de différence entre les salaires des hommes µ A et ceux des femmes
µB .
H0 : µ A = µB
½
H1 : µ A ̸= µB
10
• x A = 50, s 2A = 10, 6 et s ′2
A = × 10, 6 = 11, 8
9
5
• x B = 45, s 2A = 8 et s B′2 = × 8 = 10
4
∆
T=r ∼ T13
11, 8 10
+
10 5
On cherche t α/2 dans la table de Student à 13 ddl et α = 0, 05, et on trouve t α/2 = 2, 16.
H0 est acceptée si :
19
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
− H0 = respect de la norme
( ( (
H0 : σ2 = σ20 H0 : σ2 = σ20 H0 : σ2 = σ20
ou ou
H1 : σ2 ̸= σ20 H1 : σ2 > σ20 H1 : σ2 < σ20
n × S2
− Si µ connue (cas rare) : loi du Khi-deux à n degrés de liberté, ∼ χ2n
σ20
n × S2 (n − 1) × S ′2
− Si µ inconnue : loi du Khi-deux à n − 1 degrés de liberté, ∼ χ2n−1 ou ∼ χ2n−1
σ20 σ20
Zone d’acceptation de H0 :
µ connue µ inconnue
Même si une loi du Khi-deux est asymétrique, on pourra utiliser une table pour trouver les quantiles.
La seule différence par rapport à une loi normale ou de Student, est qu’on ne pourra pas exploiter la
symétrie pour trouver le quantile à l’opposé. Par exemple, en bilatéral et lorsque µ est connue, il faudra
chercher C1 et C2 tel que :
³α´ α
− C 1 = χ2n ⇒ cf. table Khi-deux à n et , en utilisant la table p. 10 du mémorandum
2 2
donnant la probabilité d’une valeur inférieure au quantile χ2
³ α´ α
− C 2 = χ2n 1 − ⇒ cf. table Khi-deux à n et 1 −
2 2
20
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
f χ2
¡ ¢
α/2
α/2
1−α
χ2
0 C1 C2
H0 : σ2 = 605
½
H1 : σ2 ̸= 605
( ( (
H0 : σ2A = σ2B H0 : σ2A = σ2B H0 : σ2A = σ2B
ou ou
H1 : σ2A ̸= σ2B H1 : σ2A > σ2B H1 : σ2A < σ2B
21
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Zone d’acceptation
La zone d’acceptation de H0 est :
α/2
1−α α/2
0 f α/2 f 1−α/2
1−α α
0 f 1−α
Acceptation de H0 Rejet de H0
22
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Ex : Des canards d’élevage sont traditionnellement nourris au maïs grain complémenté avec du soja,
du colza et du tournesol. Pour des raisons économiques, on expérimente de remplacer le soja par des
drèches de maïs.
L’alimentation de type B va-t-elle provoquer une plus grande dispersion du poids des canards ?
• n A = 50 et s 2A = 105 623g
• n B = 50 et s B2 = 129 600g
(
H0 : σ2A = σ2B
H1 : σ2A < σ2B
nB 50
× s B2 × 129 600 129 600
nB − 1
F= n = 49 = ≈ 1, 23
A 50 105 623
× s 2A × 105 623
nA − 1 49
⇒ H0 acceptée si F < f 1−α (n B − 1; n A − 1), or 1, 23 < 1, 60 donc on ne rejette pas H0 . Avec 5% de chance
de se tromper, l’alimentation de type B ne provoque donc pas une plus grande dispersion du poids des
canards.
enfants issus de parents de grande taille avait tendance à régresser (ou diminuer) pour s’approcher de la grandeur moyenne de la
population. Il qualifia ce phénomène de régression à la moyenne. Par la suite, le terme de "régression", qui décrivait ce résultat
particulier, a été appliqué à la méthode, même s’il serait plus approprié de parler "d’estimation" ou "de prévision".
23
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Séries temporelles
Supposons que nous avons les données suivantes (en %) sur les rentabilités en excès du taux sans
risque du portefeuille XXX, ainsi que celles d’un indice de marché :
1 17,8 13,7
2 39 23,2
3 12,8 6,9
4 24,2 16,8
5 17,2 12,3
De prime abord, le beta du portefeuille XXX semble positif, mais nous voulons en savoir plus sur la
relation entre ce portefeuille (x) et l’indice de marché (y) d’après les données en notre possession.
Pour étudier cette relation, nous disposons donc de n observations différentes de Y et X, qui peuvent
être numérotées : le couple (y i , x i ) correspond à la i -ème observation effectuée. La première étape serait
de dessiner un nuage de points de ces deux variables à partir de leurs coordonnées :
La silhouette de ce nuage de points est une première indication précieuse sur la nature de la relation
entre Y et X. On remarque que cette silhouette est étirée dans une direction : une relation linéaire entre Y
et X est donc envisageable. Autrement dit, y, la valeur prise par la v.a. Y, semble dépendre de x, celle que
prend X.
Une relation linéaire prend la forme f (x) = bx, où b est un nombre réel appelé coefficient de la
fonction linéaire ou coefficient de proportionnalité, ou encore pente. Une fonction affine, elle, est de
la forme f (x) = a + bx, où a est l’ordonnée à l’origine ou constante. Dans les deux cas la variation de
24
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
y est proportionnelle à la variation de x. La seule différence est que dans le premier cas la droite passe
par l’origine, tandis que dans le second elle coupera l’axe des ordonnées au-dessus ou au-dessous de 0
suivant si la constante est positive ou négative.
Ex :
Liaison linéaire positive Liaison linéaire négative Liaison non linéaire Absence de liaison
Y = a + bX
Par contre, l’équation Y = a + bX est complètement déterministe, ce qui n’est pas réaliste : on voit
bien que les points ne sont pas parfaitement alignés. Autrement dit, la valeur de Y ne peut pas être
exactement déduite de la valeur de X. On ajoute donc un terme d’erreur aléatoire, noté u. Ce terme
d’erreur, appelé aussi résidu, va permettre de prendre compte les influences aléatoires extérieures sur
y t que nous ne pouvons modéliser, tout comme les erreurs de mesure. Formulé plus simplement, il
représente la déviation entre ce que le modèle prédit et la réalité. L’équation devient :
y t = α + βx t + u t
où t = 1, 2, 3, 4, 5
25
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
¢2
On cherche donc à minimiser 5t =1 y t − ŷ t , ce qui revient à minimiser la somme des carrés des
P ¡
résidus 5t =1 u t2 , soit u 12 + u 22 + u 32 + u 42 + u 52 :
P
T T ¡ ¢2 T £ ¢¤2
u t2 = y t − α + βx t
X X X ¡
y t − ŷ t = où t = 1, . . . , T
t =1 t =1 t =1
26
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
β̂ = (X ′ X )−1 X ′ y
µ ¶
−1, 74
Reprenons notre exemple. On trouve β = , soit :
1, 64
ŷ t = −1, 74 + 1, 64x t
Supposons à présent qu’un analyste financier prévoit l’année prochaine une rentabilité du marché de
10% en excès du taux sans risque. Quelle est alors la rentabilité prévue pour le portefeuille XXX ?
Décomposition de la variance
La variance empirique de Y, appelée variance totale de Y (notée SCT pour Somme des Carrés Totale),
peut se décomposer en deux parties additives :
• la première dite variance expliquée (notée SCE pour Somme des carrés Expliquée) est, comme son
nom l’indique, la variance de ce qui, dans Y, peut être expliqué par la modèle linéaire ;
27
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
• la seconde, dite variance résiduelle (notée SCR pour Somme des Carrés des Résidus), est, symétriquement,
la variance de ce qui, dans Y, ne peut l’être.
P¡ ¢2 P ¡ ¢2 P ¡ ¢2
Ainsi SCT = SCE + SCR, soit yi − y = ŷ i − y + y i − ŷ i
⇒ Plus la variance résiduelle est faible, plus le modèle linéaire permet d’expliquer une grande partie
des variations observées de Y dans les données.
Coefficient de détermination
Sachant que les variations observées peuvent être mesurées par la variance empirique de Y, et que les
variations expliquées peuvent l’être par la variance des valeurs prévues pour Y par le modèle, il s’ensuit
une définition naturelle du coefficient de détermination R 2 :
SC E
R2 =
SC T
Il mesure ainsi la variance de Y expliquée par le modèle. Du fait du caractère additif des variances
expliquée et résiduelle, son complément à 1 est bien la part de la variance qui n’est pas expliquée :
SC R
1–R 2 =
SC T
Par construction (rapport de deux variances et vu que SCE ≤ SCT), il est toujours compris entre 0 et 1.
Plus on se rapproche de 1, plus le modèle permet de prévoir les variations de Y, et plus il est proche de 0,
plus le modèle échoue.
Remarque : il y a bien d’autres considérations que le R 2 , et un modèle avec un faible R 2 n’est pas
nécessairement à jeter. Pour qui a soif (de connaissance bien sûr), quelques gouttes dans la gourde valent
mieux que rien du tout.
Cov(X , Y )2
R2 =
V (X )V (Y )
28
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
C’est donc la théorie et non l’économétrie qui indique le sens de la causalité. Comme le disait un vieux
sage3 , "l’économétrie est à une théorie, ce que le lampadaire est à l’ivrogne : il le soutient plus qu’il ne
l’éclaire."
Pour tenir compte de cette particularité, on introduit un nouveau concept qui lui ne contient aucune
idée de causalité : celui de corrélation entre X et Y. L’intensité de cette corrélation est mesurée par le
coefficient de corrélation, qui se trouve être égal à la racine carrée du R 2 :
Cov(X , Y )
r=
σ(X )σ(Y )
Il apporte la même information sur la qualité de la liaison que le coefficient de détermination mais, étant
compris entre −1 et 1, il présente l’avantage de comporter un signe qui indique si la relation est positive
ou négative. Plus r est proche de 0, plus la relation linéaire entre les variables est faible. Plus il s’approche
de −1 ou 1, est plus la relation linéaire, négative ou positive, entre les variables est forte.
Remarque : dans le cas où il y a plusieurs variables explicatives, une telle symétrie n’est plus de mise
(la part de Y expliquée par X 1 , X 2 , . . . fait sens, mais pas la part de la variance de X 1 , X 2 , . . . expliquée par Y)
et on préfèrera calculer le coefficient de détermination multiple qui lui, basé sur l’analyse de variance, se
généralise sans mal.
SC R/(n − k − 1) n −1 ¡
R a2 j = 1– 1 − R2
¢
= 1−
SC T /(n − 1) n −k −1
2. V (u t ) = σ2 : la variance des erreurs est constante et finie pour toutes les valeurs de x t ;
3. Cov(u i , u j ) = 0 : les erreurs sont statistiquement indépentantes les unes des autres ;
29
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
On peut formuler des hypothèses alternatives et additionnelles mais nous ne nous attarderons pas
dessus. Nous n’aborderons pas non plus les conséquences d’infractions à ces hypothèses, les moyens de
les diagnostiquer, ni la thérapeutique pour y remédier.
• "Best" : signifie que l’estimateur MCO β̂ a une variance minimale parmi les estimateurs linéaires
non biaisés.
Convergence/Biais/Efficacité
• Convergence : les estimateurs des moindres carrés α̂ et β̂ sont dits convergents, c’est-à-dire que
leurs valeurs estimées convergent vers les vraies valeurs à mesure que la taille d’échantillon croît à
l’infini.
• Biais : les estimateurs des moindres carrés α̂ et β̂ sont non biaisés, c’est-à-dire E (α̂) = α et E β̂ = β.
¡ ¢
En moyenne, leurs valeurs estimées sera donc égale aux vraies valeurs.
• Efficacité : un estimateur β̂ du paramètre β est dit efficace s’il n’est pas biaisé et qu’aucun autre
estimateur non biaisé ne possède une variance inférieure. Si l’estimateur est efficace, on minimise
la probabilité d’être éloigné de la vraie valeur de β.
Tests de significativité
Significativité des variables explicatives
Une variable contribue-t-elle de façon significative (statistiquement parlant) à l’explication de la
variable Y ? Pour répondre à cette question, on testera systématiquement les coefficients α et β par
rapport à zéro. Les coefficients sont aussi quelques fois présentés avec leur intervalle de confiance,
comme nous le verrons dans l’exemple avec Excel.
En règle générale, les logiciels de statistiques fournissent directement les "t -stat" ou les "p-value", et
il ne reste plus qu’à comparer ces valeurs à des "valeurs seuils".
H1 : X agit sur Y ⇔ β ̸= 0
30
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
SC E /1
où F = , suit la loi de Fisher à (1, n − 2) degrés de liberté.
SC R/(n − 2)
On comprend aisément que si la variance expliquée est faible et la variance résiduelle grande, alors F
sera faible. Une bonne régression devrait donc donner des variations expliquées élevées et des variations
résiduelles faibles. Un F élevé est donc souhaitable par rapport à F seui l . Dans la formulation suivante, on
voit bien que F tend vers l’infini quand R 2 tend vers 1 :
(n − 2)R 2
F=
1 − R2
Cliquer sur "Atteindre. . . " en bas de la fenêtre puis cocher "Analysis ToolPak".
On régresse donc la rentabilité du portefeuille XXX sur l’indice de marché, et on obtient le rapport
détaillé suivant :
31
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
• Coefficient de détermination multiple : dans le cas à deux variables, cela correspond simplement
au coefficient r de corrélation linéaire qui permet de mettre en évidence une liaison entre deux
types de séries de données statistiques. Vous pouvez aussi l’obtenir avec COEFFICIENT.CORRELA-
TION(B2:B6;C2:C6) ou PEARSON(B2:B6;C2:C6).
Remarque : dans le cas où il y a plusieurs variables explicatives, Excel proposera malgré tout un
coefficient de corrélation multiple égal à la racine carrée du R 2 , mais cela a peu de sens comme
nous l’avons vu précédemment.
• Tableau d’analyse de variance : on retrouve ici la SCE, SCR et SCT, avec leurs degrés de liberté
respectifs. Les moyennes des sommes des carrés en tenant compte des ddl sont également
indiquées, avec en premier SCE/1 puis SCR/(n-2).
Vérifions manuellement :
¡ ¢2 ¡ ¢2 ¡ ¢2
Observation y ŷ yi − y y i − ŷ i ŷ i − y
32
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
probabilité critique ou p-value est en effet de 70,14%. On a donc 70% de chance de se tromper
en rejetant l’hypothèse "H0 : α = 0". Autant dire qu’on ne rejette pas l’hypothèse nulle. Cela est
confirmé par la t -stat égale à −0, 42 ((α̂ − 0)/σ̂α̂ ), très loin de la valeur seuil à −2, 1318 pour un
niveau de confiance à 95% (cf. loi de Student à 4 ddl et p = 95% dans le mémorandum p. 8 ou
LOI.STUDENT.INVERSE.N(0,05;4)) si l’on considère un test unilatéral avec "H1 : α < 0", ou d’une
valeur seuil à 2,776 en valeur absolue si l’on considère un test bilatéral "H1 : α ̸= 0" (cf. loi de
Student à 4 ddl et α = 5% dans le mémorandum p. 7 ou en utilisant la fonction LOI.STUDENT.
INVERSE(0,05;4) ou LOI.STUDENT.INVERSE.BILATERALE(0,05;4)).
• β̂ en B18 : lorsque x varie d’une unité, y varie dans le même sens de 1,64 unités, toutes choses
égales par ailleurs. Ce coefficient beta (qu’on pourra également obtenir en faisant PENTE(B2:B6;
C2:C6) ou Cov(X,Y) / V(X)), est lui significativement supérieur à 0 à 99%. Sa t -stat = 6,20 est en
effet largement supérieure à la valeur t seui l = 3, 7469 (cf. loi de Student à 4 ddl et p = 99% dans le
mémorandum p. 8) d’un test unilatéral avec "H1 : β > 0". On rejette donc l’hypothèse nulle au profit
de l’hypothèse alternative.
• En C17 et C18 vous avez les erreur-types σ̂α̂ et σ̂β̂ des estimateurs α̂ et β̂. Une fois l’estimation
de la valeur y calculée, une question vient en effet naturellement : "Jusqu’à quel point peut-on
se fier à cette estimation ?". L’erreur-type de l’estimation répond à cette question en mesurant
la dispersion des points autour de la droite de régression : plus cette mesure est petite, plus
la prévision est susceptible d’être fiable. L’erreur-type permet donc de quantifier le degré de
variation
q (ouPerreur) possible associéq à une estimation obtenue à partir de la droite de régression.
σ̂α̂ = σ̂u /( i x i − nx ) et σ̂β̂ = x 2 × σ̂2α̂ + σ̂2u /n
2 2 2
• Enfin en colonnes F et G vous avez les intervalles de confiance des estimateurs α̂ et β̂. La t -stat à 3
ddl (n−k−1) et α = 5% est de 3,182 (cf. table p. 7 du mémorandum, ou LOI.STUDENT.INVERSE(0,05;
3)). L’IC est donc le coeff +/- t × erreur-type.
Remarque : Excel fournit par défaut un IC à 95% (colonnes F et G), puis un IC au niveau de confiance
spécifié (colonnes H et I, tronquées ici car ayant demandé 95%, on se retrouve avec deux fois la
même chose).
33
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Lorsqu’on fait la somme des résidus, on trouve bien 0, et lorsqu’on ajoute les résidus au carré, on
retrouve bien SCR.
E (r i ) = r f + βi · E r m − r f
¡ ¢
Il relie la rentabilité d’un titre i à la rentabilité du portefeuille de marché. Portefeuille de marché qui, à
l’équilibre, est le seul portefeuille efficient, c’est-à-dire offrant la meilleure rentabilité pour un niveau de
risque donné. Tous les investisseurs sont alors supposés détenir le portefeuille de marché, et leur attitude
face au risque ne s’exprime que dans la proportion de leur richesse qu’ils allouent entre ce portefeuille et
un emprunt ou prêt réalisé au taux sans risque.
Les investisseurs doivent donc être rémunérés pour tout investissement sur la durée, la valeur
temporelle de l’argent étant représentée par l’actif sans risque r f (par exemple les bons du trésor 1 mois),
et pour supporter un risque supplémentaire, le risque systématique, capturé par β. La rémunération pour
¡ ¢
ce risque de marché est donnée par la prime de risque de marché, E r m − r f . Le risque idiosyncratique,
quant à lui, pouvant être éliminé au moyen d’une diversification, ne requiert pas de rémunération. Cette
diversification on l’obtient en ajoutant des titres à son portefeuille, des titres qui soient imparfaitement
corrélés entre eux.
• β > 1 signifie que le titre réagit plus fort que le marché et doit donc être davantage rémunéré ;
• β < 1 signifie que le titre amortit les réactions de la Bourse, et par conséquent requiert une
rémunération moindre.
Il s’obtient donc en régressant les rentabilités de ce titre i , en excès du taux sans risque, sur les
rentabilités du portefeuille de marché, elles aussi en excès du taux sans risque, au cours d’une période
donnée. On peut également le calculer de la façon suivante :
Cov (r i , r m )
βi =
V (r m )
34
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Rappel
Covariance
La covariance, Cov(X,Y), indique la façon dont deux variables aléatoires évoluent l’une par rapport à
l’autre. Si la covariance est positive, les deux variables évoluent dans le même sens. Si elle est négative,
elles évoluent l’une à l’inverse de l’autre.
Remarque : la variance n’est rien d’autre que la covariance de la variable avec elle-même : V(X) = Cov(X,X)
Corrélation
Le coefficient de corrélation, ρ(X , Y ), mesure l’intensité de la liaison entre deux variables aléatoires. Par
construction, la valeur de ce coefficient est toujours compris entre −1 et +1.
Cov(X , Y )
ρ(X , Y ) =
σ X σY
Le portefeuille de marché
Sur le plan pratique, il est d’usage de mesurer la valeur du portefeuille de marché en utilisant un
indice boursier regroupant toutes les actions du marché, pondérées par leur capitalisation boursière.
Supposons que les investisseurs n’incluent pas dans leur portefeuille un titre. La demande pour ce
titre étant nulle, son cours chute. Ce faisant, il devient plus attractif que les autres titres, ce qui incite
les investisseurs à l’inclure dans leur portefeuille optimal. À l’équilibre, tous les titres seront donc inclus
dans le portefeuille de marché, à proportion de leur valeur de marché (cours × nombre de titres en
circulation). La seule question est donc le prix auquel les investisseurs seront prêts à inclure un titre dans
leur portefeuille.
Test du MEDAF
La principale implication du MEDAF est qu’à l’équilibre, le portefeuille de marché est efficient (couple
rentabilité/risque optimal). Cette efficience du portefeuille de marché implique que :
Fama-MacBeth (1973) dérivent ainsi quatre conditions pour tester ces hypothèses :
• C1 : Avec des prêts et emprunt au taux sans risque, la rentabilité espérée des actifs zero-beta4 est
égale au taux sans risque, et la constante devrait être égale au taux sans risque, soit E (γ̃0,t ) = r f . De
façon équivalente, en utilisant les rentabilités en excès du taux sans risque, on teste E (γ̃0,t ) = 0.
• C2 : Un risque plus élevé devrait s’accompagner d’une rentabilité espérée plus élevée.
• C3 : La relation entre la rentabilité espérée d’un titre et la covariance avec le portefeuille de marché
est linéaire.
rentabilités des autres titres compense exactement la variance des rentabilités de ce titre. Un tel actif risqué est alors considéré
comme sans risque au sens où il ne contribue en rien à la variance des rentabilités du marché.
35
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
où βi ,t −1 est le beta du titre i obtenu dans une régression temporelle, et s i ,t −1 représente l’écart-type des
résidus de cette régression.
2) Régressions en coupe transversale pour obtenir les primes de risque γ̂ à chaque date
Remarque : avec une régression en coupe transversale (dite aussi en coupe instantanée), on effectue
simplement une régression sur des données à un même instant t . Au lieu d’avoir par exemple les données
d’une seule entreprise à plusieurs dates dans le cas de séries temporelles, on considère les données de
plusieurs entreprises à une même date.
Les valeurs des coefficients de cette régression fournissent des indications fondamentales sur la
validité empirique du MEDAF :
• La constante γ̂0,t représente l’erreur d’évaluation (pricing error), c’est-à-dire la moyenne des
rentabilités en coupe transversale qui demeure non expliquée par le modèle. Si E (γ̃0,t ) = 0, alors
l’hypothèse C1 est confirmée par les données.
• γ̂1,t représente la prime de risque de marché et reflète la capacité du beta à expliquer les rentabilités
moyennes en coupe transversale. Si E (γ̃1,t ) > 0, alors les données valident l’hypothèse C2.
• γ̂2,t teste la linéarité de la relation entre rentabilités espérées et beta de l’hypothèse C3. Si E (γ̃2,t ) = 0,
alors l’hypothèse de linéarité n’est pas rejetée.
• Enfin, γ̂3,t indique si d’éventuelles mesures de risque contribuant systématiquement aux rentabilités
moyennes observées sont manquantes, en-dehors de beta (C4). Si γ̂3,t = 0, alors le beta du marché
est la seule mesure de risque.
36
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
parallèles de même largeur et compter les aiguilles qui tombent à cheval sur une rainure du parquet
permet d’approximer la valeur de π.
L’idée précise de la simulation de Monte Carlo est apparue au milieu du X X e siècle avec le projet
Manhattan sur les armes nucléaires. Stanislaw Ulam, un mathématicien polonais a eu l’idée originale,
en essayant de déterminer combien de mains d’un certain type pourraient être obtenues dans un jeu de
carte, et puis a travaillé dessus avec le brillant John von Neumann qui a sauté sur l’idée et programmé le
premier ordinateur (ENIAC) qu’il a développé pour effectuer la simulation. Cela a massivement accéléré
les calculs requis pour déterminer les premières armes nucléaires et l’essentiel de la physique nucléaire
moderne.
Les mathématiques sous-jacentes sont très basiques et simples (du moins pour des simulations
basiques) mais la puissance de la méthode lui permet d’être, conjointement avec les ordinateurs, un
élément extrêmement important du savoir moderne. Par exemple, la première (et probablement aussi
l’actuelle) itération du moteur de recherche de Google est basée sur Monte Carlo.
• générer aléatoirement une grande quantité d’inputs avec ces distributions sur ce domaine
En pratique la principale difficulté ici est la génération d’un nombre important d’inputs sur un
domaine donné suivant une distribution définie. Pour y parvenir nous avons besoin de la fonction
de répartition inverse de cette distribution. Cette fonction de répartition inverse renvoie, pour une
probabilité p donnée, le niveau X tel que P (x ≤ X ) = p. Nous savons que les probabilités résident, par
construction, entre 0 et 1. Par conséquent obtenir des nombres aléatoires uniformes entre 0 et 1 permet
d’obtenir des nombres distribués selon la fonction de répartition désirée, sur son domaine de définition.
C’est une des raison pour laquelle chaque langage de programmation ou logiciel avec une orientation
"calcul" incluera un ou plusieur générateurs de nombres aléatoires produisant des valeurs entre 0 et 1. La
qualité de la simulation de Monte Carlo reposera essentiellement sur le caractère aléatoire des nombres
entre 0 et 1 qui servent comme les "graines" ("seeds" en anglais) des échantillons aléatoires sur lesquels
se basent ensuite les calculs.
37
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
avons un carré unitaire dans lequel un quart du cercle unitaire est inscrit. L’aire du carré ordinaire est de
toute évidence A t = 12 = 1 et l’aire de la partie à l’intérieur du "quart de cercle" est A c = 14 π12 = π4 .
Chaque point dans ce carré unitaire aura ses coordonnées dans (1, 0)x(1, 0). Si nous générons deux
variables aléatoires, chacune entre 0 et 1, nous avons de facto généré un point aléatoire dans notre carré.
Nous pouvons obtenir un nombre aléatoire entre 0 et 1 sur Excel en utilisant la fonction "ALEA()" dans la
version française, ou "RAND()" en anglais. Faisons cela dans deux colonnes adjacentes.
Maintenant que nous avons généré les inputs, passons à la partie "calculs déterministes". Nous devons
déterminer pour chaque point s’il tombe à l’intérieur du quart de cercle ou en dehors. En supposant que
le centre du cercle unitaire soit au point (0,0) (on pourrait se placer à n’importe quel coin du carré mais
les calculs seraient un peu plus complexes), comment devrions-nous nous y prendre ? Eh bien, si on se
rappelle que l’équation d’un cercle est r = x 2 + y 2 , avec r le rayon, x et y les deux coordonnées de chaque
point, on peut voir que n’importe quel point pour lequel on dispose des coordonnées, si la somme des
coordonnées au carré est inférieure ou égale à 1, le point sera à l’intérieur ou sur le cercle, si la somme est
supérieure à 1, le point sera à l’extérieur du cercle.
Utilisons donc la fonction "SI()" (ou "IF()" en anglais) pour avoir un 1 pour chaque point variable que
nous avons généré qui tombe à l’intérieur du quart de cercle unitaire et 0 autrement. La fonction pourrait
se lire "= SI(A12 + B 12 >= 1; 0; 1)" ou "= IF(A12 + B 12 >= 1, 0, 1)".
Á présent nous disposons d’une colonne de zéros et de uns qui proviennent des points générés
aléatoirement se situant à l’intérieur ou à l’extérieur du cercle unitaire. Puisque l’aire totale du carré
unitaire est 1 (12 , vraiment) et l’aire du quart de cercle unitaire est π /4 , si les points sont vraiment dispersés
de façon aléatoire dans notre carré unitaire, le ratio entre les points à l’intérieur (identifié par un "1" dans
notre dernière colone) et le nombre total de points aléatoires devrait être multiplié par 4 pour arriver à
une estimation de π.
38
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
(capital expenditure). Les cash-flows suivants, par contre, sont dans le futur et seulement plus ou moins
estimés. Tels qu’ils sont, on pourrait leur assigner différentes probabilités à différents niveaux. Cela ferait
clairement de ces cash-flows une série de variables aléatoires. Et clairement le niveau de la variance (ou
de façon équivalent l’écart-type) de ces variables augmenterait avec le temps : le premier cash-flow n’est
pas entièrement connu mais on peut être certain que la plupart des valeurs possibles seront proches
de la valeur moyenne (qui est généralement considérée comme "LA" valeur). Le cash-flow en année 5
par exemple sera typiquement très incertain vu qu’il est quasiment impossible de prévoir les conditions
économiques, politiques etc. qui prévaleront aussi loin dans le futur.
De plus, il pourrait y avoir différents niveaux de corrélation entre les différents cash-flows : si la
première année est un franc succès les objectifs de la seconde seront sans doute plus facilement atteints
que si cette première année a été difficile.
Par conséquent la VAN et le TRI (tout comme les autres indicateurs de performance statistiques) sont
de ce fait des variables aléatoires et en savoir plus que leur moyenne serait optimal. Un projet avec une
VAN (moyenne) de 5 millions pourrait avoir 45% de chance de finir avec une VAN négative et un autre
projet avec une VAN (moyenne) de seulement 3,5 millions pourrait avoir 90% de chance de se retrouver
en fait avec une VAN supérieure à 2 millions. Auquel cas le second projet est sans doute préféré malgré sa
VAN moyenne plus faible.
De façon à explorer ces propriétés de répartition (moments ou probabilité d’être positif etc.) de la
VAN ou du TRI, mener une simulation de Monte Carlo semble tout indiqué. C’est en particulier le cas si
nous voulons avoir différents niveaux ou types de variabilité pour les composants des cash-flows (certains
coûts peuvent être fixes, d’autres peuvent varier légèrement, et les ventes pourraient être très volatiles,
certains éléménts pourraient être bornés et forcés à être positifs ou inférieurs à un certain seuil...) ou la
dépendance entre les multiples années pourraient être grandement complexifiée. Indubitablement cela
requiert une simulation de Monte Carlo pour comprendre.
C
yc •
yb B
•
ya A
•
x
xa xb xc
39
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
D’après le théorème de Thalès, les côtés correspondants aux deux triangles ont des longueurs
proportionnelles :
xb − x a y b − y a
=
xc − x a yc − y a
Autrement dit, le ratio des différences dans une quantité est égal au ratio des différences correspondantes
dans une autre quantité.
Il en résulte :
yb − y a
x b = x a + (x c − x a ) ×
yc − y a
Ex : Une société considère un projet d’investissement dont les flux de liquidité sont les suivants :
Année 0 1 2
Flux −4 000 2 000 4 000
À partir des points A et B dont on connait les coordonnées, respectivement (0%,2 000) et (50%,−889),
on pourrait déduire par interpolation linéaire le TRI, le taux qui annule la VAN :
VAN(0%) = 2 000
VAN(50%) = −889
0 − 2 000
Soit 0% + (50% − 0%) × = 34, 62%
−889 − 2 000
Problème : on voit bien que ce taux est surestimé vu que la courbe de la VAN, en bleu, passe sous la
droite sécante (AB), et que le vrai TRI se situe par conséquent davantage autour de 28%.
Pour obtenir une estimation du TRI satisfaisante, il conviendra donc d’encadrer au plus près la vraie
valeur. Une interpolation linéaire à partir des VAN obtenues avec des taux de 25 et 30% donnera ainsi :
VAN(25%) = 160
40
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
VAN(30%) = −94, 67
soit un TRI interpolé de 28,14%, qui s’approche bien plus du vrai TRI qui s’élève à 28,08% d’après la
fonction Excel.
La VAN étant plus proche de 0 avec un taux de 30% que de 25%, un perfectioniste pourrait approcher
encore davantage la vraie valeur par interpolation en affinant par exemple à partir des valeurs suivantes :
VAN(27%) = 54,81
VAN(29%) = −45, 91
L’interpolation linéaire fait donc sens même en cas de fonction non linéaire quelconque, étant donné
que la courbure relative est proportionnelle à l’échelle. Avec deux points "très proches", l’approximation
linéaire sera par conséquent bonne. Et plus précisément, pour toute courbure d 2 f (x)/d x 2 , il existe un t
£ ¤
tel que le segment f (x), f (x + t ) peut être considéré linéaire pour un niveau d’approximation donné.
Autrement dit, la fonction f peut être approchée en tout point par une fonction affine tangente. Ceux qui
souhaitent aller plus loin pourront s’intéresser à l’algorithme de Newton-Raphson, et plus généralement à
celui de descente de gradient.
Les applications de l’interpolation linéaire sont multiples. Elle permettrait dans la même veine
d’approcher le délai de récupération du capital investi, ou payback en anglais, (temps au bout duquel le
montant cumulé des cash-flows, actualisés aux taux de rentabilité minimum exigé par l’entreprise, est
égal au capital investi), autrement dit le temps nécessaire pour commencer à rentabiliser l’investissement
initial.
Ex : En année 3 le cumul des CFs actualisés est de −33K€, et 46K€ en année 4. Le payback se situe
donc quelque part entre la 3e et la 4e année.
f(3) = −33
f(4) = 46
0 − (−33)
soit x = 3 + (4 − 3) × = 3, 42 soit 3 ans et 5 mois du fait d’un joli produit en croix :
46 − (−33)
1 an = 12 mois
donc 0,42 an = 0, 42 × 12/1 = 5,01 mois
On pourrait aussi utiliser l’interpolation linéaire pour approcher le quantile lors des tests d’hypothèses.
Ex : Mettons que l’on cherche le quantile de façon à avoir une probabilité de 1% d’être dépassé,
P (Z < z α ) = 0, 99, une lecture de la table de la loi normale donne :
f(2,32) = 0,9898
f(2,33) = 0,9901
z α − 2, 32 0, 99 − 0, 9898
Par interpolation linéaire, nous avons donc : =
2, 33 − 2, 32 0, 9901 − 0, 9898
0, 99 − 0, 9898
Soit z α = 2, 32 + (2, 33 − 2, 32) × = 2, 32637
0, 9901 − 0, 9898
La vraie valeur que l’on pourrait obtenir avec Excel, LOI.NORMALE.STANDARD.INVERSE.N(0,99), est
de 2,32635. L’approximation fournie par l’interpolation linéaire est donc tout à fait satisfaisante.
41
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
yb B
•
β
ya A
•
x
xa xb
xa
xb = y b ×
ya
Ex : Combien reçoit en euros un exportateur qui a vendu pour 50 000$ US de biens, sachant que le
cours EUR/USD est actuellement de 1,0226 ?
La relation entre EUR et USD est linéaire, avec un coefficient directeur de 1,0226 :
42
Méthodes Quantitatives Avancées pour la Finance – Cours – 2022/2023
Ex : Quel est le taux d’imposition d’une société dont le bénéfice avant impôts est de 640 M€ et le
montant d’impôts payé est de 256 M€ ?
f(100%) = 640
f(???) = 256
soit un taux d’imposition effectif de 256 × 100%/640 = 40%
43