Vous êtes sur la page 1sur 46

Gestion de portefeuille

et Analyse du Risque
Pr Fouad AMARA
1) Introduction
2) Théorie moderne du portefeuille
3) Le CAPM
4) La méthode APT
5) Finance comportementale
6) Le ratio de Sharpe
7) Le ratio de Treynor
8) L'alpha de Jensen
9) La volatilité et l'écart-type
10) La covariance et la variance
11) La corrélation
12) Le Beta
13) La VAR (value at risk)
14) Gestion active et passive
15) Gestion traditionnelle et alternative
16) Exemples de gestion traditionnelle
17) Stratégies de gestion alternative
18) La formule de kelly

Les différents aspects de la gestion de portefeuille sont abordés dans cette


rubrique, des modèles théoriques de base jusqu'aux différents styles de gestion
en passant par l'analyse du risque et de la performance.

Les modèles financiers

En premier lieu, il convient d'exposer les modèles financiers de base qui sont à
l'origine de la finance moderne, et qui ont permis aux gérants de portefeuille
d'appréhender les notions d'évaluation d'actifs financiers, de diversification et de
couple risque/rendement.

Le plus fameux d'entre eux étant la théorie moderne du portefeuille, qui a servi
de base au modèle du CAPM, concurrencé ensuite par le modèle APT. Nous
abordons également la notion de finance comportementale, principale théorie
alternative à l'hypothèse d'efficience des marchés :
La théorie moderne du portefeuille
Le CAPM
La méthode APT
La finance comportementale
Les indicateurs de performance
Que ce soit au niveau des fonds d'investissements ou des portefeuilles-titres, il
existe différentes méthodes pour analyser et mesurer la performance au delà du
simple calcul du rendement.

Les plus connues et utilisées de ces méthodes sont les ratios de Sharpe, de
Treynor et la mesure de l'alpha de Jensen, qui permettent d'évaluer les
rendements de fonds en fonction de leur volatilité ou de leur risque. Ces derniers
sont exposés dans cette rubrique :

Le ratio de Sharpe
Le ratio de Treynor
L'alpha de Jensen

Les outils de gestion du risque


Ces dernières années, les opérateurs financiers doivent composer avec des
instruments financiers toujours plus complexes, des marchés à forte volatilité et
des réglementations de plus en plus strictes.

Dans ce contexte, l'utilisation d'outils de mesure du risque est devenu


systématique et les professionnels ont développé des instruments très
sophistiqués. Néanmoins, il existe bon nombre d'outils constituant la base de la
gestion du risque, à la portée de tous les investisseurs et ayant démontré leur
efficacité. Nous abordons ici les plus célèbres et utilisés d'entre eux :
La volatilité et l'écart-type
La covariance et la variance
La corrélation
Le Beta
La VAR (value at risk)

Les différents modes de gestion

Le développement des marchés financiers et de la diversité de ses acteurs et


produits a conduit à une multitude de modes de gestion de portefeuille
différents. Néanmoins, ils peuvent être segmentés en différentes catégories. On
peut retenir la segmentation en gestion active ou passive, ou bien en gestion
traditionnelle ou alternative. Ces différents styles sont abordés dans les fiches
suivantes, illustrés d'exemples divers :
La gestion active et passive
La gestion traditionnelle et alternative
Exemples de gestion traditionnelle : approches "bottom up" et "top down"
Les principales stratégies de gestion alternative

Outils de "money management"


Enfin, une composante importante de la gestion de portefeuille réside dans la
notion de "money management" qui consiste à gérer ses prévisions de gains et
de pertes ainsi que la taille de ses positions de manière optimale. Nous
approfondissons ici une des plus célèbres méthodes d'allocation d'actifs : celle
de la formule de Kelly.
La formule de kelly, un outil de "money management"

La théorie moderne du portefeuille

La théorie moderne du portefeuille, développée par Harry Markowitz dans les


années 1950, définit le processus de sélection de titres pour créer le portefeuille
le plus efficient possible, c'est à dire qui possède la rentabilité maximum pour un
niveau de risque minimum.

Le concept de diversification est à la base de la théorie. En effet, Markowitz


pense que les différents titres composant un portefeuille ne peuvent être
sélectionnés individuellement et doivent au contraire être choisi selon la
corrélation de leurs variations à celles du reste des actifs du portefeuille.

Ce mode de sélection permet de minimiser le risque pour un niveau de


rendement choisi.

Analysons les différents composants du modèle :

Makowitz présuppose que les investisseurs sont rationnels et averses au risque et


que le marché est efficient. Ainsi, les seuls éléments à prendre en compte sont le
risque et le rendement des titres, car les investisseurs achèteront toujours l'actif
qui présente un rendement optimal par rapport à son niveau de risque. Aucun
investisseur purement rationnel n'achèterait en effet un actif A plus risqué qu'un
actif B mais offrant un rendement inférieur.

Dans le modèle, le rendement d'un portefeuille consistera en la somme des


rendements des actifs qui le composent, pondérés par leur poids.
Soit :
Le risque est défini par la volatilité du portefeuille qui correspond à son écart-
type :

avec la variance que l'on calcule de la manière suivante, pour un


portefeuille composé de deux actifs :

avec :
: covariance entre les deux actifs que l'on peut exprimer en

: la variance de l'actif
et la corrélation entre les deux actifs

Avec ces éléments en main, on peut tester différentes combinaisons d'actifs avec
des pondérations diverses pour calculer le risque et la rentabilité espérée d'un
portefeuille. La diversification par la sélection d'actifs plus ou moins corrélés
permettra d'optimiser cette relation rendement/volatilité.

La frontière efficiente

En définissant les titres par leur rendement et leur niveau de risque, et en


illustrant ce rapport sur un graphique, on peut déterminer une frontière efficiente
sur laquelle se situent les portefeuilles composés de titres individuels offrant le
meilleur rendement pour un certain niveau de risque.

Le portefeuille situé sur la frontière efficiente offre l'espérance de rendement


maximale que l'on peut obtenir en pondérant l'investissement effectué dans les
différents titres.
Ainsi, seuls les portefeuilles situés sur cette ligne devraient logiquement
intéresser les investisseurs rationnels.

L'actif sans risque et la ligne d'allocation des actifs

L'actif sans risque correspond aux obligations étatiques supposées sans risque,
qui payent donc le taux minimal. C'est actif a par définition une variance égale à
0 et son rendement n'est pas corrélé aux autres actifs. Ainsi, les différentes
combinaisons de l'actif sans risque avec un autre actif donneront une différence
de rendement linéaire selon le risque choisi.

On peut représenter l'introduction de l'actif sans risque dans le portefeuille par


une demi-droite tangente à l'hyperbole formée par la frontière efficiente.
L'extrémité gauche de la demi-droite représente un portefeuille composé
uniquement d'actif sans risque. Plus on remonte, plus la proportion en actif sans
risque dans le portefeuille diminue et celle en actifs risqués optimum augmente.
Au niveau du point de tangence, le portefeuille optimal est composé à 100%
d'actifs risqués, et au delà, l'actif sans risque est cette fois emprunté et le
portefeuille possède donc un effet de levier.
Ainsi, l'investisseur devra choisir un portefeuille sur cette droite de tendance
selon le risque choisi : moins risqué en y intégrant de l'actif sans risque, ou plus
risqué avec un effet de levier.

Cette méthode de sélection des actifs est-elle optimale ?

De nombreuses critiques se sont élevées à l'encontre de la méthode de


Markowitz, notamment portées par le fait que le modèle est basé sur une
distribution gaussienne des rendements des titres, ce qui est empiriquement faux,
et que la corrélation entre les actifs d'un portefeuille, présupposée stable dans le
modèle est en fait en variation constante dans la réalité.

La théorie présuppose également un monde parfait constitué d'investisseurs


purement rationnels opérant dans un marché efficient, ce qui est bien entendu
illusoire.

Néanmoins, la théorie moderne du portefeuille a constitué une avancée


importante dans la modélisation mathématique financière, et Markowitz a reçu
le prix Nobel en sciences économiques pour ses travaux en 1990.
Le modèle CAPM

Le "Capital Asset Pricing Model" (CAPM) ou Modèle d'évaluation des


actifs financiers (MEDAF) est le modèle d'évaluation le plus célèbre et le plus
utilisé malgré le fait que sa pertinence empirique soit très discutée.

Créé par Sharpe, Lintner et Mossin dans les années 60 et basé sur des études
réalisées par Markowitz en 1952 (la théorie moderne du portefeuille), cet outil
décrit la relation entre le risque d'un actif financier et la rentabilité espérée de cet
actif.

L'idée générale sur laquelle le modèle CAPM est basée est la suivante : les
investisseurs sont rémunérés par la valeur temps de l'argent et par le risque. La
valeur temps de l'argent est représentée par le taux sans risque, qui correspond
généralement au taux de placement le plus faible mais le moins risqué, type
livret A.

Le risque est représenté par le Beta, rapport historique entre la volatilité de


l'actif et celle du marché.

Voici la formule de base du modèle :

avec :
: rentabilité espérée de l'actif financier
: taux sans risque
: Beta de l'actif financier
: rentabilité espérée du marché

Ainsi le CAPM décrit la rentabilité de l'actif comme la rentabilité de l'actif sans


risque additionnée à une prime de risque marché (rentabilité du marché moins
rentabilité de l'actif sans risque) pondérée par le beta de l'actif.

Voyons comment calculer les composants de la formule :

: comme dit précédemment, le taux sans risque représente le taux de


placement le plus faible mais le moins risqué type "livret A". Nul besoin de le
calculer donc.

: la rentabilité espérée du marché : on prend la rentabilité historique du


marché de référence (par exemple l'indice correspondant à la valeur) sur une
certaine période (2 ans, 5 ans, 10 ans...).

: Le Beta de l'actif financier se définit comme le rapport de la covariance de


la rentabilité de l'actif avec celle du marché à la variance de la rentabilité du
marché.

on a ainsi la formule suivante : Beta = Covariance (R.actif, R.marché) / Variance


(R.marché).

La manière la plus simple de calculer un Beta est la méthode historique. Ainsi,


"R.actif" sera la rentabilité historique de l'actif, de même que "R.marché" sera la
rentabilité historique du marché.

De manière pratique, plus le Beta sera proche de 1, plus les variations du marché
seront suivies de manière équivalente par l'actif.

Pour déterminer si un actif offre une opportunité d'investissement, il faudra


comparer l'espérance de rendement calculée avec le CAPM au rendement prévu
sur la valeur, calculé par exemple de manière fondamentale à partir du PER ou
autres techniques d'évaluations. On peut ainsi déterminer si le prix actuel de
l'actif est à un niveau bas ou élevé.

L'univers du CAPM doit obéir à certaines règles bien précises pour que la
formule de la rentabilité de l'actif fonctionne. Voici les différentes hypothèses de
bases, tirées principalement des travaux de Markowitz sur la théorie moderne du
portefeuille :

- il n'y a pas de coûts de transactions ou de taxes


- la vente à découvert ou l'achat d'un titre n'a aucune incidence sur son prix
- les investisseurs sont averses au risque et rationnels
- tous les investisseurs ont le même horizon d'investissement
- les investisseurs contrôlent le risque de leur portefeuille par la
diversification
- le marché est entièrement libre et tous les actifs peuvent y être échangés.
- les investisseurs peuvent emprunter et prêter des montants illimités au taux
sans risque
- toutes les informations sur le marché sont disponibles pour tous les
investisseurs
- la concurrence sur les marchés et parfaite et non faussée
- tous les actifs financiers peuvent être divisés en actifs de plus petite taille

Vous l'aurez compris, l'univers du CAPM est parfait et ne peut consister qu'en
une approximation grossière du monde réel. C'est pourquoi le modèle du CAPM
est tant controversé et a fait l'objet d'attaques virulentes de la part de nombreux
théoriciens de la finance.

Voici certaines anomalies relevées au fil du temps après des résultats


empiriques concernant le modèle du CAPM :

- il est impossible de calculer avec exactitude la rentabilité espérée du marché,


ce qui fausse le résultat final.

- L'effet taille ou PER n'est pas pris en compte dans le modèle. En effet, il a été
mis en évidence que les titres à faible capitalisation et/ou à faible PER avaient
des rentabilités supérieures aux titres à forte capitalisation et/ou PER élevé.

De nombreuses autres critiques ont été émises à l'encontre du CAPM. Malgré


cela, ce modèle demeure un grand classique et reste l'une des théories les plus
utilisés dans la finance moderne.

L'APT ou Arbitrage pricing theory

Présentation de l'APT

Créé par Stephen Ross, le modèle APT (Arbitrage pricing theory) est l'un des
plus célèbres modèles d'évaluation d'actifs financiers. C'est en quelque sorte le
principal concurrent du modèle CAPM.

L'APT est fondé sur l'idée de base qu'il n'existe pas d'opportunités
d'arbitrages qui durent dans le temps. En effet, un actif A aussi risqué qu'un
actif B, mais plus rentable, verrait sa demande augmenter rapidement, jusqu'à ce
que sa rentabilité redevienne égale à celle de l'actif B, annulant ainsi toute
opportunité d'arbitrage.

L'autre hypothèse de base de l'APT repose dans le fait que l'on peut modéliser
la rentabilité espérée d'une action par une fonction linéaire de différents
facteurs macro-économiques ou propres au secteur de la valeur, pondérés
selon leur impact sur l'action par un coefficient beta spécifique.

Ces facteurs sont divers et variés et peuvent aller des cours du pétrole au PIB
des Etats-Unis en passant par les taux directeurs européens ou le taux de change
d'une paire de devises. Ce sont tous des facteurs susceptibles d'influer le cours
de l'actif étudié.

Ainsi, pour un actif j on aura :


avec :

E(rj) = le rendement espéré de l'actif i


rf = le rendement de l'actif sans risque
RPn = la valeur de la prime de risque associée au nième facteur systématique
influençant le cours de l'actif (ces primes sont supposées avoir une moyenne
nulle)
bjn = le Beta qui représente la sensibilité de l'actif au facteur RPn

L'APT en pratique

D'après le modèle, on obtient le rendement espéré de l'actif en additionnant le


rendement de l'actif sans risque (obligations d'Etat) à une série de facteurs
systématiques pondérés selon la sensibilité de l'actif à ces derniers.

Pour ce faire, nous devons procéder en trois étapes :

1. Identifier les facteurs qui influencent le rendement de l'actif


2. Mesurer l'impact de ces facteurs sur l'actif (Beta)
3. Estimer la valeur de la prime de risque associée à ces facteurs

1. Les facteurs ne sont pas spécifiés dans la théorie de Ross, ils sont déterminés
empiriquement au cas par cas et doivent obéir à certaines règles spécifiques :
- leur impact sur les prix de l'actif se manifeste dans des mouvements inattendus
de ces derniers.
- l'influence de ces facteurs devrait être non-diversifiable, c'est à dire plus
globale que spécifique à une seule entreprise.
- des informations précises et datées doivent être disponibles sur ces facteurs
- la relation entre ces facteurs et l'actif devrait pouvoir être prouvée sur des bases
économiques. On évite par cela tous les facteurs farfelus du type position des
astres dans le ciel.

Voici certains facteurs macro-économiques qui influent de manière récurrente


sur le prix des actifs financiers :
- variations de la croissance du PIB d'un Etat
- variations de l'inflation
- variations des prix des matières premières (pétrole, métaux...)
- variations de la courbe des taux des obligations d'état
- variations du spread de crédit des obligations corporate, c'est à dire la variation
du risque de crédit associé aux entreprises
- ...
Ces facteurs peuvent être représentés par des indices (PIB, inflation) ou prix sur
les marchés de futures (matières premières)...

2. On peut quantifier l'impact de ces facteurs (Beta) sur l'actif par une régression
linéaire des rendements passés de l'actif par rapport à l'évolution des facteurs
choisis.

3. La prime de risque associée à chaque facteur est égale à la différence entre le


rendement apporté par le facteur à l'actif dans le modèle et le rendement de
l'actif sans risque.

Une fois toutes ces étapes réalisées, on peut enfin calculer le rendement espéré
de l'actif.

Bien sûr, l'APT n'est pas un modèle parfait et l'on peut lui opposer nombre de
critiques, notamment le fait que les facteurs ne soient pas évoqués dans le
modèle et qu'il faille les déterminer empiriquement, ce qui impose de lourds
calculs. De même, l'estimation d'un Beta pour chaque facteur rend la tâche
encore plus difficile, et il n'est pas dit que les facteurs et leur influence sur l'actif
restent fixes au cours du temps.

Néanmoins, l'APT est peut-être un modèle plus réaliste que celui du CAPM car
il considère un nombre illimité de facteurs systématiques influant sur le
rendement de l'actif, contre un seul facteur (le marché) et un seul beta pour le
CAPM.

C'est pour cette même raison que l'APT est bien moins utilisé que son
concurrent dans le monde de la finance, car il est beaucoup plus complexe à
mettre en oeuvre que le CAPM.

La finance comportementale

Définition

La finance comportementale est l'un des secteurs de la nouvelle "économie


comportementale" qui consiste à appliquer la psychologie à la finance. Née il y a
une trentaine d'années, cette théorie a été reconnue officiellement en 2002 avec
la remise du prix Nobel d'Economie à ses deux pères qui sont Daniel Kahneman
et Vernon Smith. Son étude porte principalement sur le comportement des
investisseurs lors de leurs prises de décisions.

Par opposition à l'hypothèse de base des marchés efficients, cette théorie va


chercher à mettre en avant les situations lors desquelles, les marchés ne sont pas
rationnels et essayera d'en expliquer les causes par la psychologie des
investisseurs. En d'autres termes, elle va recenser les travers des comportements
humains ainsi que leurs effets sur les marchés afin de les utiliser lors de
stratégies d'investissement.

Selon la théorie financière standard, les marchés financiers aboutissent aux


équilibres les plus efficaces économiquement comme s'ils obéissaient à des
règles purement rationnelles. Le postulat de la finance comportementale est
totalement différent.

Il considère en effet que l'investisseur n'est pas toujours rationnel et que ses
sentiments sont soumis à des erreurs de jugements systématiques (appelées
"biais cognitifs") ou à des facteurs émotionnels comme la peur ou l'excès de
confiance, qui interfèrent lors de sa prise de décisions.

L'expérience de Kahneman et Smith

Afin de mettre en évidence ce manque de rationalité, les fondateurs de cette


théorie sont partis d'une expérience relativement simple.

Prenons par exemple un jeu de loterie dans lequel deux tables sont à votre
disposition. A la première, le jeu est relativement simple... Vous gagnez 1
million d'euros à chaque fois! A la deuxième table, c'est un peu différent, vous
avez 10% de chance de gagner 2,5 millions d'euros, 89% de chance de gagner 1
million d'euros et enfin dans 1% des cas, vous repartez les mains vides! A quelle
table irez vous jouer?

La réponse à cette question est propre à chacun d'entre nous. Néanmoins, la


solution rationnelle serait d'aller à la table numéro 2, car l'espérance de gain y
est de 1,14 million d'euros et donc plus élevée que l'espérance de la table 1 qui
n'est que de 1 million d'euros.

Pourtant, quelques uns d'entre vous préfèreront jouer à la table 1 afin de


s'assurer un gain. Ceci peut s'expliquer par une aversion aux pertes de la part de
certains investisseurs qui peut être plus ou moins marquée selon la personne et
selon le risque.

L'expérience et l'étude du comportement des investisseurs montrent que si l'on


gagne 1000 euros, on aura tendance à les retirer rapidement car on pourrait tout
reperdre le lendemain. A l'inverse si l'on perd 1000 euros lors d'une journée, on
aura tendance à tenir ses positions en espérant "se refaire" lors des prochaines
séances au risque de creuser ses pertes. C'est le vieux dicton du "pas vendu, pas
perdu" qui peut parfois se révéler fatal et qui s'explique par la psychologie des
investisseurs.
Conclusion : Les phénomènes constatés dans cette théorie sont purement de
l'ordre psychologique et rapprochent la finance comportementale à l'économie
comportementale en général.

De plus en plus utilisée lors des crises financières ou simplement lors de


périodes à forte volatilité, la finance comportementale s'intéresse aux
déséquilibres engendrés par le comportement des investisseurs. Très appréciée
par différents fonds d'investissements, elle permet d'élargir son horizon de
placement et donc de s'assurer de meilleurs rendements

Le ratio de Sharpe

Mis en place en 1966 par William Forsyth Sharpe, un économiste américain, le


ratio de Sharpe permet de mesurer la rentabilité d’un portefeuille en fonction du
risque pris. En effet, pour lui, la moyenne des rentabilités ne suffit pas à
effectuer une mesure exacte de la performance.

Le graphique ci-dessus montre que pour deux portefeuilles A et B, et pour une


même volatilité, le portefeuille A possède un rendement plus élevé que le
portefeuille B. On peut également dire que pour un même rendement, le
portefeuille B est plus volatile que le portefeuille A.

Le but de ce ratio étant à terme de pourvoir constituer le portefeuille possédant


le plus faible taux possible de risque, pour un rendement maximum, son
application repose sur plusieurs hypothèses sous-jacentes:
- Un unique portefeuille risqué ne peut être comparé à la fois qu’à un unique
portefeuille sans risque.
- Aversion totale au risque de la part de l’investisseur.
- Distribution selon une loi normale des rendements dans le cadre moyenne-
variance.

Le ratio de Sharpe est le quotient de l’excès de rentabilité par rapport au taux


sans risque divisé par le risque total du portefeuille. En d’autres termes, il
permet de calculer la performance d’un investissement par rapport à celle d’un
placement sans risque.

La formule nécessaire au calcul est donc :

Avec :

De ce résultat ressort que :

-Si le ratio est négatif, on en conclut que le portefeuille sous performe un


placement sans risque et donc il n’est pas logique d’investir dans un tel
portefeuille.

-Si le ratio est compris entre 0 et 1, cela signifie que l’excédent de rendement
par rapport au taux sans risque est plus faible que le risque pris.

-Si le ratio est supérieur à 1, alors le portefeuille surperforme un placement sans


risque et donc il génère une plus forte rentabilité.

Ainsi, on en conclut que plus le ratio est élevé et plus le portefeuille est
performant.

Apprécié des investisseurs, il reste néanmoins limité lorsqu’il s’agit de comparer


un portefeuille d’actions, dont la rentabilité est exprimée en pourcentage, à un
indice boursier.
Le ratio de Treynor

Ce ratio fut créé par l'économiste Jack Treynor en 1965. A l'instar des ratios de
Sharpe et de Jensen, il permet d'évaluer la rentabilité d'un portefeuille par
rapport au risque engagé.

Voici la formule qui permet de le calculer :

Avec RTp le ratio de Treynor, Rp la rentabilité du portefeuille p, Rf le taux


sans risque (rémunération d'une obligation d'état), et Bp le beta du portefeuille
p.

Plus le ratio de Treynor est élevé, plus le portefeuille présente une rentabilité
intéressante par rapport au risque encouru.

En effet, basé sur le modèle du CAPM (MEDAF), ce ratio représente le rapport


entre l'excès de rendement du portefeuille vis-à vis marché et son Beta. Il
correspond donc à la prime de rendement du portefeuille par rapport à celui d'un
investissement dans l'actif sans risque, par unité de risque de marché.

On remarque que le ratio de Treynor ressemble beaucoup à celui de Sharpe,


exception faite qu'il utilise le Beta du portefeuille comme dénominateur au lieu
de l'écart-type.

Ainsi, ce ratio analyse la volatilité relative du portefeuille vis-à-vis de l'indice de


référence, et non pas uniquement la volatilité du portefeuille. Le ratio de
Treynor est donc adapté dans le cadre d'un portefeuille bien diversifié par
rapport à son marché de référence.

L'alpha de Jensen

L'alpha de Jensen, proposé par Michael C. Jensen en 1968 sert à évaluer la


performance d'un fond ou portefeuille d'actifs financiers, à l'instar des ratios de
Sharpe ou de Treynor.

Basée sur le CAPM (MEDAF), cette méthode d'évaluation compare le


portefeuille à analyser à une combinaison de l'actif sans risque et du portefeuille
de marché (voir fiche sur le CAPM).
L'alpha de Jensen mesure donc la surperformance d'un portefeuille par rapport à
sa performance théorique dans le modèle du CAPM.

Voici la formule qui permet d'obtenir l'alpha:

avec :
: l'alpha de Jensen
: la rentabilité espérée du portefeuille
: le taux sans risque
: le Beta du portefeuille
: la rentabilité espérée du marché, de l'actif

Si l'alpha de Jensen est supérieur à 0, cela signifie que le portefeuille bat son
marché de référence.

S'il est inférieur à 0, le portefeuille fait moins bien que ce qui est prévu dans le
modèle du CAPM.

La volatilité dans la mesure du risque

Définitions et caractéristiques

Considérée en finance comme la base de la mesure du risque, la volatilité est par


définition une mesure des amplitudes des variations du cours d’un actif
financier. Ainsi, plus la volatilité d’un actif est élevée et plus l’investissement
dans cet actif sera considéré comme risqué et par conséquent plus l’espérance de
gain (ou risque de perte) sera important.

A l’inverse, un actif sans risque ou très peu risqué (par exemple les Bons du
Trésor ) aura une volatilité très faible car son remboursement est quasiment
certain. En réalité la volatilité d’une obligation correspond à l’évolution du cours
suite à une variation de 1% des taux d’intérêt.

Couramment utilisée pour désigner les oscillations à court terme d’un actif
financier, la notion de volatilité concerne tous les horizons (court, moyen et long
terme) et ne se soucis pas du sens du mouvement (seule l‘amplitude des
mouvements est pris en compte).
Alors que cette notion tient aujourd’hui une place primordiale dans l’étude des
marchés, elle est également énormément utilisée pour diversifier les
portefeuilles, gérer le risque, calculer les prix des options ou encore des
warrants.

Les périodes de forte volatilité se traduisent souvent par des cours relativement
bas ce qui permet aux investisseurs d’anticiper une rentabilité plus élevée.

Différentes données économiques peuvent intervenir dans la détermination du


niveau de volatilité :

- Rumeurs d’OPA
- "Profit warning"
- Endettement de la société
- Annonce de résultats
-…
On distingue deux types de volatilité

- La volatilité historique basée sur les variations historiques que le cours d’un
titre à connu. Elle peut être calculée sur différents horizon de temps suivant
l’analyse désirée. La seule limite à cette méthode et non des moindres, repose
sur le fait qu’il est difficile de se baser sur des données historiques pour prédire
les variations futures. Cette volatilité est la plus simple à calculer car elle ne
nécessite que très peu d’outils mathématiques. Elle est déterminée par l’écart
type dont on rappelle la formule dans le paragraphe suivant.

- La volatilité implicite correspondant au prix du risque d’une option. Elle


représente la volatilité anticipée par les acteurs du marché pour la durée de vie
de l’option et transparaît dans la prime de l’option. Ainsi plus la volatilité
implicite est élevé et plus la prime de l’option sera élevée et inversement.

Trois facteurs influent sur cette volatilité. Il s’agit du prix de l’option, de sa


maturité et du niveau du taux sans risque. Son calcul se base sur le modèle de
Black & Scholes et sur l’algorithme de Newton-Raphson. Bien que présentant
d’importantes limites, notamment celle de surestimer la volatilité, le modèle de
Black & Scholes reste le modèle le plus apprécié et le plus fiable à l’heure
actuelle pour déterminer cette volatilité implicite.

Calcul de l’écart type

Utilisé pour calculer la volatilité d’un actif, l’écart type est relativement simple à
comprendre et à appliquer. Il s'obtient en calculant la racine carré de la variance.
La variance étant calculée en faisant la moyenne des écarts à la moyenne, le tout
au carré.

Ainsi après avoir récupéré l’historique des variations d’un actif, le calcul de
l’écart type peut se décomposer en plusieurs étapes :

- On calcule la moyenne des variations de cet actif sur la durée totale de


l’historique,
- puis, pour chaque période, on détermine la différence entre le cours de clôture
et cette moyenne que l’on met au carré,
- on somme tous ces résultats que l’on divise pas le nombre de périodes,
- et enfin on calcule la racine carrée de la valeur obtenue à l’étape précédente.

Mathématiquement l’écart type se traduit par la formule suivante :


avec :

Variance et covariance

En statistiques comme en finance la variance et la covariance sont deux des


principales mesures utilisées pour mener à bien une étude.

Manipulés par l'ensemble des acteurs financiers, ces deux instruments sont
considérés comme la base de toute étude de risque qu'il faut connaitre à tout prix
avant même d'entreprendre de manipuler un portefeuille d'actif. Nous allons
donc reprendre ces fondamentaux en rappelant les formules mathématiques et
leurs propriétés tout en illustrant avec des exemples concrets.

La variance

La variance est, selon la définition classique, la moyenne des carrés des écarts
par rapport à la moyenne. En termes plus mathématiques elle peut être
considérée comme une mesure servant à caractériser la dispersion d’une
distribution ou d’un échantillon.

La formule de la variance est la suivante :

Grossièrement on peut la voir comme la moyenne des carrés moins le carré des
moyennes. Cette formule intègre des carrés dans le but d’éviter que les écarts
positifs et les écarts négatifs par rapport à la moyenne ne s’annulent.
La dimension de cette mesure étant le carré de la dimension de la moyenne, on
utilise plus souvent l’écart-type qui n’est rien d’autre que la racine de la
variance.

La dimension de cette mesure étant la dimension du carré de la moyenne, on


utilise plus souvent l’écart-type qui n’est rien d’autre que la racine de la
variance.

La variance possède différentes propriétés

- Etant calculée comme l’espérance d’un nombre au carré, la variance est


toujours positive ou nulle.

- Si la variance est nulle, cela signifie que la moyenne des carrés des écarts par
rapport à la moyenne est nulle et donc que la variable aléatoire est une
constante.

- V(aX+b)=a²V(X)
- V(X+Y)=V(X-Y)=V(X)+V(Y)
Prenons un exemple pour illustrer le calcul d’une variance en finance.
Exemple sur un actif

Soit l'actif Société Générale dont on a téléchargé ses cotations de clôture à


chaque fin de mois durant une année.

La moyenne des variations est de -0,4775%.


Sa variance est donc: Var (Soc. G.)= (-0,517+0,004775)² + (0,1587+0,004775)²
+(0,2477+0,004775)² +…+ (-0,1324+0,004775)²/12 =0,01837

Comme la variance est proche de 0 cela signifie que le cours de l’actif ne


s’écarte pas énormément de sa moyenne et donc que les variations ne sont pas
trop importantes.

Ainsi on dit que la variance traduit la notion d’incertitude. Plus la variance est
élevée et plus le cours de l’actif est susceptible de s’éloigner de sa moyenne.

La covariance

La covariance est légèrement différente. Si la variance permet d’étudier les


variations d’une variable par rapport à elle-même, la covariance va permettre
d’étudier les variations simultanées de deux variables par rapport à leur
moyenne respective.

En finance, cette notion permet de mesurer le degré de liaison des fluctuations


de deux titres entres eux, ou encore d’un titre avec un indice.

La covariance peut être vue comme le produit des valeurs de deux variables
moins le produit des deux moyennes. Mathématiquement, la formule est la
suivante :

Du résultat obtenu par cette mesure on en déduit que plus la covariance est
faible et plus les séries sont indépendantes et inversement plus elle est élevée
et plus les séries sont liées. Une covariance nulle correspondant à deux
variables totalement indépendantes.
Exemple concret sur le marché

Prenons un exemple pour illustrer le calcul d’une covariance en finance. Il


s'agira ici de comparer deux actions : Air France et Société Générale, dont nous
avons récupéré les variations historiques mensuelles.

Appliquons la formule de la variance énoncée plus haut, soit :

Cov (Société G.; Air France) = [(-0,0517+0,004775) * (- 0,1897+0,000808) +


(0,1587+0,004775) * (-0,0297+0,000808) +…+ (-0,1324+0,004775)* (-
0,1706+0,000808)]/12 = 0,00074

Avec un résultat très faible (0,00074) on peut en conclure que ces deux actifs
sont quasiment indépendants car le résultat obtenu est très proche de 0.

La variance d'un portefeuille

A partir de la covariance entre plusieurs actifs ont peut estimer la variance d’un
portefeuille de plusieurs actifs. Ainsi la variance d’un portefeuille constitué de N
actifs est donnée par la formule suivante :
On obtient donc que la variance d’un portefeuille constitué de N actifs est la
somme des covariances de tous les actifs qui le compose, pondérées par la
proportion de chacun d’entre eux dans le portefeuille.

Afin de pouvoir appliquer cette formule on doit avant tout calculer la matrice de
variance-covariance du portefeuille que l’on détient.

Avec les mêmes notations que pour la formule précédente on obtient la matrice
suivante :

Exemple avec un portefeuille boursier

Soit un portefeuille constitué de 3 actifs dans les proportions suivantes :

- Société Générale 20%


- Air France 30%
- Total 50%
Voici les variations mensuelles de ces trois titres entre juin 2009 et mai 2010:
En utilisant désormais vos connaissances et les résultats des exemples
précédents vous obtenez les variances (V) et les covariances (COV) suivantes :

Cov (Société Générale; Air France) = 0,000738


Cov (Air France; Total) = 0,000794
Cov (Société Générale; Total) = 0,000197
V(Société Générale) = 0,01837
V(Air France) = 0,02137
V(Total) = 0,00258

Avec ces éléments on peut construire la matrice de Variance Covariance de


notre portefeuille.
En faisant la somme des sous totaux on obtient la variance du portefeuille. Ici, la
variance du portefeuille est de 0,00366926.

Son écart type mensuel est obtenu en faisant la racine carré de la variance. Il est
donc de : 0,06057442

Et enfin, si l'on veut obtenir l’écart type annuel du portefeuille il suffit de


multiplier l’écart type mensuel par racine carré de 12. Ainsi on obtient le
pourcentage de risque attendu avec ce portefeuille qui est ici de : 0,2098 soit
20,98%.

Ainsi notre portefeuille présente un risque de 20,98%.

En conclusion on peut dire que chacun de ces outils pris indépendamment l’un
de l’autre ne sert pas à grand-chose dans la gestion d’un portefeuille. Néanmoins
la totalité de ces instruments statistiques reste indispensable afin de pouvoir
gérer un portefeuille et abaisser au maximum les risques que l’on prend.

La corrélation, un outil de gestion du risque

Définition

La corrélation entre deux actifs financiers, ou plus généralement entre deux


variables aléatoires, est l'intensité de la liaison qu'il existe entre ces deux
variables.

Afin de déterminer cette liaison il suffit de calculer le coefficient de corrélation


par la formule suivante :

L'interprétation du résultat est relativement simple. Il est tout toujours compris


entre +1 et -1.
Plus le coefficient est proche des extrémités et plus les variables sont corrélées,
c'est à dire dépendantes linéairement l'une par rapport à l'autre.

Un corrélation égale à +1 (respectivement -1) implique qu'il existe une relation


linéaire positive (respectivement négative) entre les variables comme le montre
le schéma ci dessous. Ceci se traduit par l'existence de 2 réels a et b tels que

Si on dit que les deux variables sont dé-corrélées. C'est à dire qu'il n'existe
pas de relation linéaire entre elles (mais il peut très bien en exister une non
linéaire).

En revanche on ne doit pas confondre dé-corrélées avec indépendantes. En effet,


deux variables indépendantes sont obligatoirement dé-corrélées, mais deux
variables dé-corrélées ne sont pas forcément indépendantes. Il se peut qu'il
existe une relation non linéaire entre les deux variables.

Plus on se rapproche de (respectivement ) et plus les variables sont


corrélées (respectivement anti-corrélées c'est à dire corrélées négativement).

Propriétés

Voici les propriétés du coefficient de corrélation :


 Si X=Y, alors le coefficient de corrélation est égal à +1.
 le coefficient de corrélation est symétrique. C'est a dire que
Exemple

Nous allons calculer le coefficient de corrélation entre deux actifs financiers.


Nous prendrons les actions Société Générale et Total. Nous étudierons leur
corrélation suivant leurs variations mensuelles durant la période juin 2009 à mai
2010.

Dans une première étape on calcule la variance de ces deux valeurs, ainsi que
leur covariance (pour des explications sur ces notions, voir la fiche
Variance/Covariance).

Variance (Société Générale) = (-0,0517+0,004775)² + (0,1587+0,004775)²


+(0,2477+0,004775)² +…+ (-0,1324+0,004775)²/12 = 0,01837

De la même manière Variance(Total) = 00,00258

Covariance (Société Générale ; Total) = [(-0,0517+0,004775)*(-


0,0557+0,005217) +(0,1587+0,004775)*(-0,0112+0,005217)+…+(-
0,1324+0,004775)*(-0,0791+0,005217)]/12= 0,000197

D'après la formule énoncée au début de cette fiche, le coefficient de corrélation


entre les actions Société Générale et Total est de :
Le coefficient de corrélation entre les deux titres étant très proche de 0, on peut
en conclure que les deux actifs ne possèdent pas de relation linéaire entre eux et
sont donc dé-corrélées.

Remarques

 Le coefficient de corrélation n'est pas sensible aux unités de chacune des


variables. Cela signifie que, par exemple, si on étudie la corrélation entre
le poids et l'âge d'un individu, le résultat obtenu sera le même si l'on
considère l'âge en semaine, en mois ou encore en année.
 Ce coefficient est extrêmement sensible aux valeurs aberrantes ou très
éloignées de majorité des autres. Dans ce cas, ces valeurs doivent être
retirées des données initiales (on pourra les remplacer par la moyenne de
la série.)

Conclusion

Cet outil très simple à manier est régulièrement utilisé en probabilités, en


statistique ou encore en finance. En revanche il ne faut jamais perdre de vue que
ce n'est pas parce que l'on a obtenu un coefficient de corrélation élevé qu'il
existe une relation de cause à effet entre les variables.

Par exemple, malgré la forte corrélation entre le nombre de lunettes de soleil


vendues en été avec le nombre de coups de soleil, aucune de ces deux variables
n'est la cause de l'autre. Il y a certes un lien, mais on ne peut pas dire de quelle
nature.

C'est pourquoi l'utilisateur doit faire un travail supplémentaire sur les données
afin de vérifier si le lien n'est pas faussé par une variable extérieure. Ainsi,
même s'il est continuellement utilisé et qu'on obtient facilement un résultat, le
calcul du coefficient de corrélation devra à chaque fois vérifier la pertinence de
ce dernier.

Le Beta

Le Beta est un outil de mesure du risque d'un actif notamment utilisé dans le
modèle d'évaluation du CAPM.

Cet outil compare les mouvements effectués par un actif par rapport à son
marché de référence, ce qui permet de déterminer son niveau de risque par
rapport aux autres actifs de référence. La mesure est effectuée en comparant la
rentabilité de l'actif à celle du marché.

Mathématiquement, le Beta de l'actif financier se définit comme le rapport de la


covariance de la rentabilité de l'actif avec celle du marché à la variance de la
rentabilité du marché.

La manière la plus simple de calculer un Beta est la méthode historique. On


comparera donc les données de rentabilité historique de l'actif à celles du
marché.

avec rp : rentabilité de l'actif et rm : rentabilité du marché

Concrètement, prenons l'exemple d'une action du CAC 40 qui possède un beta


de 1,8 : si le CAC 40 varie de 10%, l'action devrait théoriquement varier de
18%, elle amplifiera donc les mouvements du marché.

A l'inverse, si l'action a un beta de 0,7, elle variera moins violemment que son
marché de référence : si le CAC 40 varie de 10%, elle devrait effectuer un
mouvement de 7%.

La Value At Risk (VAR)

Naissance de la Value At Risk

Utilisée pour la première fois dans les années 1980 par la banque Bankers Trust
sur les marchés financiers américains, la notion de Value-At-Risk (ou VAR) a
principalement été démocratisée par la banque JP Morgan dans les années 1990
grâce à son système de RiskMetrics.

Jusqu’alors, les méthodes utilisées pour détecter et gérer les risques de marché
ne permettaient pas de comparer les mesures de risque entre les différentes
activités de marché.

L’accroissement de la volatilité des marchés financiers, le développement des


produits dérivés et surtout une série de faillites et de krachs boursiers ont poussé
les institutions financières à mettre en place un indicateur commun et
synthétique des risques financiers.

Il faudra attendre 1995 et les accords de Bâle, pour voir la concrétisation et


l’émergence de ce nouvel indicateur considéré très rapidement comme un
standard dans l’évaluation des risques financiers.

Définition
La Value-At-Risk représente la perte potentielle maximale d’un investisseur sur
la valeur d’un actif ou d’un portefeuille d’actifs financiers qui ne devrait être
atteinte qu’avec une probabilité donnée sur un horizon donné.

Elle est, en d'autres termes, la pire perte attendue sur un horizon de temps donné
pour un certain niveau de confiance.

La VAR peut être considérée comme un quantile de la distribution de pertes et


profits associée à la détention d’un actif ou d’un portefeuille d’actifs sur une
période donnée.

Si l’on considère un taux de couverture de a% (souvent 95% ou 99%), la VAR à


un jour correspond au quantile de niveau a% de la distribution de pertes et
profits sur la période de détention d’un actif.

La Value-At-Risk dépend en réalité de trois éléments

1) La distribution des pertes et profits du portefeuille valable pour une


certaine période de détention et dont les différentes méthodes de calcul seront
expliquées un peu plus loin dans cette fiche.

2) Le niveau de confiance. Compris entre 0 et 1, il permet de contrôler la


probabilité que l’on obtienne un rendement supérieur ou égal à la VAR.

Supposons par exemple que la distribution des pertes et profits associée à la


détention d’un actif sur une période corresponde à une distribution normale
standard.

La VAR au seuil de confiance de 95% à 1 jour notée VAR(95%, 1Jour), égale à


1 million d’euros signifie qu’il y a 95% de chances pour que la perte associée à
la détention de l’actif n’excède pas 1 million d’euros.

Graphiquement, la VAR un jour avec un indice de confiance de 95% peut être


représentée par le graphique ci-dessous:
D'après ce graphique, la VAR (95%, 1Jour) correspond à une perte
approximative de 1,65 million d’euros.

3) La période de détention de l’actif ou du portefeuille d’actifs.

Le calcul de la VAR doit être ajusté de façon à tenir compte de la composition


des rendements. Même si la période de détention est propre à chacun, les
autorités de régulation exigent des horizons communs dans le cadre des
procédures de validation de la Value-At-Risk.

A qui cette mesure est-elle destinée ?

Utilisée principalement par les banques, cette mesure de risque est destinée
avant tout :

- Aux professionnels de marchés tels que les opérateurs de marché, gestionnaires


de fonds privés ou encore gestionnaires de fonds institutionnels.

- Aux Risk Managers (responsables de la gestion des risques et du contrôle de la


gestion des risques).

- Aux comptables ou aux clients institutionnels.


Hypothèses nécessaires au calcul de la VAR

La détermination de la Value-At-Risk repose principalement sur trois


hypothèses:

- La première hypothèse, et non des moindres, concerne la normalité des


distributions considérées. On suppose généralement que le prix d’un instrument
financier suit une loi log-normale.

- La deuxième hypothèse concerne le lien entre une VAR à N jours et une VAR
à 1 jour. En effet on considère que la VAR à N jours est égale à la racine carré
de N multipliée par la VAR 1 jour.

- Enfin, la dernière hypothèse est que le rendement moyen d’un actif financier
est nul pour la période considérée. (Si l’on s’attend à un rendement annuel
moyen de 15% pour un certain actif, le rendement journalier moyen est de
15/252=0,06%, 252 correspondant au nombre de jours où la bourse est ouverte.
Ainsi faire l’hypothèse d’un rendement journalier nul n’est donc pas restrictif).

Les différentes méthodes d’estimation de la distribution de pertes (calcul de


la VAR)

- La méthode historique nécessite seulement de connaître la valeur de la


position dans le passé (par exemple historique des prix pour un indice). Pour un
portefeuille, il faudra reconstituer sa valeur passée à partir du prix des différents
actifs et de la composition actuelle du portefeuille. Après avoir identifié les
facteurs de risque significatifs pour le portefeuille, on utilise l'historique des
données collectées afin d'en déduire un montant de perte.

Exemple: Soit un portefeuille composé de plusieurs actifs. Afin de calculer la


VAR historique à un jour sur ce portefeuille il faut relever l'ensemble des gains
et des pertes quotidiennes réalisées sur les 1 000 derniers jours (par exemple).
Une fois toutes ces données obtenues, il faut les classer par ordre croissant. Si
l'on souhaite obtenir la VAR à 99%, il suffira de trouver la 10ème
(1000*(100%-99%)) valeur obtenue.

Avantages et inconvénients de cette méthode :

Cette méthode est très peu coûteuse en calcul et en technique. De plus aucune
hypothèse préalable sur la forme de la distribution n’est requise.

En revanche, cette simplicité de mise en place, engendre de nombreuses limites.


Et ce qui peut être considéré comme un avantage peut rapidement se retourner
en inconvénient. En effet, l’historique doit être suffisamment grand comparé à
l’horizon de la VAR et à son niveau de confiance, mais pas trop pour s’assurer
que la loi de probabilité n’a pas trop changé sur la période. Autre point négatif,
et non des moindres, cette méthode est inadaptée aux produits dérivés.

- La deuxième méthode de calcul de la VAR est la méthode analytique ou


paramétrique. Basée sur des calculs statistiques elle consiste avant tout à
définir une formule décrivant la distribution des pertes et des profits.

Cette méthode repose sur plusieurs hypothèses:

1) Les variations des facteurs de risques suivent une loi normale.


2) La relation entre les variations des valeurs du portefeuille et les variations des
valeurs du marché est linéaire.
3) Les produits dérivés sont linéaires et les obligations peuvent être ramenées à
des pay-offs linéaires. La seule exception à cette condition étant les options.

Exemple

Soit deux portefeuilles de 1 million d'euros et de 5 millions d'euros


constitués respectivement d'actions Peugeot, de volatilité annuelle 20%, et
d'actions Société Générale de volatilité annuelle 10%.

La volatilité quotidienne du portefeuille A est :

où 252 est le nombre de jours où la bourse française est ouverte.

Ainsi la Var à 99% à une journée est alors :

La volatilité quotidienne du portefeuille B est :

Et la Var à 99% à une journée est donc :

Afin d'obtenir la Var à 10 jours il suffit d'appliquer la formule :

Ainsi :

Un investisseur possédant ces deux actifs dans un même portefeuille, doit


prendre en compte la corrélation entre les variations du titre Société Générale et
les variations du titre Peugeot.
Considérons que le coefficient de corrélation entre les deux actifs est ρ=0,6.

On peut alors obtenir la Var par la formule suivante :

Dans notre exemple

Ainsi on peut remarquer que cette Value at Risk est inférieure à la somme des
deux VAR calculées précédemment. Ceci est dû aux gains de diversification.

Remarque: La même logique devra être appliquée à un portefeuille constitué de


N actifs (en prenant en compte la corrélation entre chacun d'entre eux).

Avantages et inconvénients de cette méthode

Le principal point fort de cette méthode repose sur la rapidité et la simplicité des
calculs qui nécessitent seulement une matrice de variance-covariance entre les
différents actifs présents dans le portefeuille.

Mais elle reste inadaptée aux portefeuilles non linéaires (instruments optionnels)
et aux distributions non-normales des rendements.

- La dernière méthode n'est autre qu'une méthode de simulation par Monte Carlo
et n'est utilisée que lorsque les autres méthodes ne s'appliquent pas. Après avoir
identifié les facteurs de risque du portefeuille d'actifs (taux de change, cours
d'une action...), il suffit de simuler un grand nombre de fois les valeurs futures
possibles de ces facteurs par Monte Carlo, puis de calculer le montant des pertes
ou des gains associés à ces simulations.

Exemple

Prenons un exemple relativement simple. Un opérateur souhaite investir sur une


action aujourd'hui et la revendre dans un an (espérant ainsi la revendre plus cher
qu'il ne l'a acheté). Mais durant ce laps de temps, l'action est soumise à des
fluctuations. L'opérateur souhaitant ainsi déterminer la VAR de cette action va
simuler par Monte Carlo, 10 000 variations possibles (par exemple), puis
calculer les pertes ou les gains réalisés dans chacune de ces simulations.

Si l'opérateur souhaite obtenir une VAR à 99%, il lui suffira de repérer la


100ème pire perte afin de pouvoir affirmer avec 99% de chances que la perte
qu'il réalisera sur cette opération ne dépassera pas ce montant.
Avantages et inconvénients de cette méthode

Cette méthode permet dans la plupart des cas de calculer la VAR lorsque les
autres méthodes ne le permettent pas. Elle convient à tous les types
d'instruments y compris les produits optionnels.

En revanche la mise en œuvre de cette méthode de simulation est très lourde et


nécessite d'énormes calculs. Ainsi le principal défaut de cette méthode repose
sur le temps de calcul nécessaire pour générer un grand nombre de scénarios.

Quels sont les limites de la Value At Risk ?

On vient de voir que la Value At Risk pouvait être considérée comme la perte
potentielle maximale. Mais son évaluation repose sur des imprécisions parfois
plus ou moins importantes qui peuvent influencer le résultat final.

- La première limite réside dans l'hypothèse de normalité des variations des prix
des différents actifs. En effet, la loi normale sous-estime bien souvent les
grandes variations de marché et néglige ainsi le caractère leptokurtique des
queues de distributions (longues queues de distributions).

- La seconde limite concerne la fiabilité du résultat obtenu lorsque, pour


anticiper l'évolution d'un actif dans un avenir plus ou moins proche, on utilise
son évolution passée.

- Le calcul de la Value At Risk nécessite un horizon fixe. C'est à dire que l'on
considère le marché liquide et que l'on puisse ainsi couper nos positions à
l'horizon choisi.

- Enfin la dernière limite de la VAR vient du fait que l'on utilise énormément
d'approximations et de simulations. Et malgré la puissance croissante des
machines, la volonté de mise en œuvre rapide impose l'utilisation
d'approximations.

Conscient des limites que présentent les différents modèles de la VAR, un


backtesting et un stresstesting ont été rendu obligatoire afin de vérifier les
résultats obtenus. Le système de backtesting consiste à déterminer le nombre de
fois où la perte obtenue a été supérieure à la VAR. Si ce nombre est trop
important, il faut revoir le modèle utilisé pour le calcul.

Parallèlement à ces backtesting, le comité de Bâle impose également des stress


tests, durant lesquels les portefeuilles seront soumis à des conditions extrêmes
de marchés (par exemple variation de 100 points de base à la hausse ou à la
baisse des taux, augmentation subite de 20% de la volatilité...) afin de scruter
leur comportement face à des scénarios fortement négatifs.
Conclusion

Aujourd'hui, pour de nombreux investisseurs, gérer le risque de position se


limite à déterminer des stops de sécurité qui leur permettraient ainsi de limiter
les pertes. En réalité cette méthode ne permet pas une mesure du risque mais
seulement une décision face au risque. Et même si la Value At Risk n'est pas un
vrai instrument de prévision, elle permet néanmoins d'obtenir une mesure
quantitative du risque.

Utilisée par la plupart des grandes banques mondiales, la VAR tente depuis de
nombreuses années de s'imposer comme un outil universel de mesure du risque.
Mais les crises financières de ces dernières années sont venues mettre à mal son
image. En effet, de nombreuses institutions ont dû revoir leur modèle de calcul
de la Value At Risk suite à des pertes colossales dans leurs activités de trading
notamment en 2008 lors de la crise des subprimes.

Ainsi de nouveaux modèles plus solides et mieux adaptés aux grosses variations
de marchés devront être mis en place durant les prochaines années afin que la
VAR puisse enfin s'imposer comme instrument mondial de mesure du risque.

Gestion active et gestion passive

La gestion active

La gestion active a pour objectif de surperformer le marché de référence (appelé


"benchmark") du portefeuille géré. Le gestionnaire, à l'aide de divers outils
d'analyse, va sélectionner de manière discrétionnaire les produits, titres ou
secteurs les plus susceptibles de croître plus vite que le marché.

Ce mode de gestion, en opposition à celui de gestion passive, concerne donc


tous les fonds et portefeuilles qui ne visent pas à reproduire la performance d'un
marché de référence, mais à faire mieux que ce dernier. La majorité des fonds
utilisent ce mode de gestion.

Au sein même de la gestion active, il existe différents styles que l'on peut classer
selon le niveau de risque, la répartition géographique ou sectorielle des
portefeuilles, le type de produits utilisés ou l'horizon de temps des
investissements.

Ces fonds peuvent tout aussi bien être gérés de manière "traditionnelle" ou
"alternative", sur des critères fondamentaux ou quantitatifs. Généralement,
beaucoup de transactions sont réalisées dans ce type de fond et les frais de
gestions en deviennent donc relativement élevés.

La gestion passive ou indicielle


A l'inverse, la gestion passive ou indicielle a pour objectif de répliquer
fidèlement les performances d'un marché de référence (par exemple un indice tel
que le CAC 40 ou le Dow Jones). La méthode utilisée consiste généralement à
répliquer en miniature l'indice de référence : par exemple un fonds CAC 40 sera
constitué des 40 valeurs de l'indice, pondérées selon la taille de leur
capitalisation.

Ce type de gestion nécessite nettement moins de travail de recherche pour le


gérant, elle est souvent partiellement automatisée. De plus, les frais sont
généralement moins élevés en raison d'un nombre moins important de
transactions réalisées pour sa gestion.

Il existe trois méthodes principales de réplication d'indices utilisées dans la


gestion passive. On peut citer :

- la réplication pure : méthode citée plus haut, la plus utilisée et qui consiste à
acheter tous les composants d'un indice et à les pondérer selon la taille de leur
capitalisation. Il faut réajuster le poids de chaque action dynamiquement pour
s'adapter aux variations des titres composant l'indice. Le désavantage de cette
méthode est donc le nombre de transactions élevées, nécessaires au réajustement
dynamique du portefeuille.

- la réplication synthétique : cette méthode utilise des produits dérivés sur


indice, principalement des futures (contrats à terme) ou des asset-swap (contrat
d'échange conclu de gré-à-gré). Cette technique permet de réduire les frais de
gestion en ne détenant pas physiquement les titres.

- la réplication statistique (par approximation) : ce type de réplication consiste


à se rapprocher le plus possible de la performance de l'indice (tracking error la
plus faible possible) tout en minimisant les coûts. Pour se faire, il existe deux
méthodes : La première est la stratification, qui consiste à sélectionner
seulement les plus grosses capitalisations d'un indice, en faisant varier leur
pondération au sein du portefeuille pour s'adapter aux mouvements de l'indice.
Cette méthode est moyennement précise et il est difficile d'optimiser au
maximum la tracking error du portefeuille.

La seconde stratégie est la méthode par optimisation. Cette dernière consiste à


déterminer le portefeuille de titres ayant la tracking error la plus faible par
rapport à l'indice de référence. Le gérant va tester différentes combinaisons en se
basant sur la corrélation des différentes valeurs à l'indice. Cette méthode ne
prendra pas en compte la pondération des différentes valeurs. Elle est cependant
plus fiable que la méthode par stratification.
Il existe de nombreuses SICAV et FCP proposant des portefeuilles de
gestion indicielle. Cependant, il existe également un autre produit, l'ETF
(Exchange Traded Funds ou Tracker), dont le développement a été permis par
des montages juridiques particuliers. L'ETF est coté en bourse comme une
action simple, réplique un indice de référence et a une liquidité garantie par la
banque qui l'émet.

La gestion traditionnelle et le modèle alternatif

La gestion traditionnelle

L'appellation "gestion traditionnelle" regroupe les types de gestion


"benchmarkés", c'est à dire visant à investir dans un type d'actif financier défini
et à comparer la performance du fond à un actif de référence tel qu'un indice.

L'orientation du marché de référence jouera donc un rôle prépondérant dans de


tels fonds, qu'ils soient gérés de manière "passive" ou indicielle, ou bien de
manière "active" à travers des stratégies de stock picking par exemple.

Les fonds de gestion traditionnelle peuvent être investis en actions, obligations


ou titres monétaires et l'on peut dégager quatre grandes familles de fonds de
ce type de gestion :

1) Les fonds actions : investis en action, comme leur nom l'indique, ces fonds
peuvent être spécialisés sur les grosses capitalisations, les "small caps" ou
encore sur des zones géographiques (émergents, Europe, Asie-Pacifique...) ou
encore des secteurs (nouvelles technologies, santé...). Leur benchmark
correspond donc généralement à un indice de référence (par exemple CAC 40
pour un fonds investi en actions françaises).

2) Les fonds obligataires : ces fonds principalement investis en obligations


"corporate" peuvent offrir différents niveaux de risque/rendement selon la
proportion de leurs placements en obligation "junk" ou "senior". Il peuvent
également être spécialisés sur certaines zones géographiques ou devises de
référence.

3) Les fonds monétaires : ces fonds qui présentent un risque nul (mis à part le
risque de change) sont investis principalement en obligations d'état . Ils offrent
donc un rendement proche du taux minimal d'un pays et servent principalement
aux entreprises et aux particuliers pour placer leur trésorerie à court terme. Leur
benchmark correspond généralement au taux de référence d'un pays ou devise,
par exemple l'EONIA ou EURIBOR pour la zone euro.

4) Les fonds diversifiés : les fonds de ce type sont investis dans les différentes
classes d'actifs citées ci-dessus. Leur risque/rendement variera donc selon la
proportion des différentes classes d'actifs au sein du portefeuille du gérant.

Gestion alternative

La gestion alternative, contrairement à la gestion traditionnelle, est décorrélée


des marchés financiers et vise un objectif de performance "absolue", et non
relative à un benchmark. L'investisseur n'est donc plus exposé à l'orientation
du marché, mais directement à la performance du gérant du fonds.

Ce dernier a pour but d'exploiter l'inefficience des marchés pour améliorer les
performances de son portefeuille, grâce à des stratégies d'arbitrages mais
également à un éventail de produits financiers plus importants qu'en gestion
traditionnelle. Un fonds alternatif pourra ainsi utiliser tous types de produits
dérivés à effet de levier mais également la vente à découvert.

Ce type de gestion ne peut intégrer des catégories traditionnelles de fonds


OPCVM / SICAV et être enregistré en tant que tel. La structure adaptée à la
gestion alternative est celle du Hedge Fund.

Selon la définition de la SEC (l'organisme de régulation financière américain),


un Hedge Fund est un "type privé et non inscrit de fonds commun de placement
qui utilise des techniques sophistiquées de protection et d’arbitrage pour traiter
sur le marché des fonds".

Ces fonds sont basés pour la plupart en off-shore (îles Cayman, Delaware...)
pour contourner les réglementations imposées aux véhicules de gestion
traditionnelle.

La gestion alternative peut également être indirecte, c'est à dire qu'un fonds peut
élaborer des stratégies d'investissement dans d'autres fonds. Ces Hedge Funds
sont appelés "fonds de fonds" et pratiquent la multigestion alternative.

Parmi les stratégies de gestion alternatives les plus connues, on peut citer les
stratégies Global Macro, Long-short equities, events driven, arbitrages
d'actions, arbitrages de taux, arbitrages d'obligations convertibles, trading
de futures ou pays émergents. Ces stratégies font l'objet d'une fiche séparée.

Stratégies bottom up et top down

De la famille des modes de gestion traditionnelle active, le "bottom-up" et le


"top-down" sont deux modes de gestion opposés. Les gestionnaires gèrent leur
portefeuille en fonction de l'une ou de l'autre de ces approches. Nous allons ici
expliquer ces deux méthodes afin que vous puissiez avoir un exemple de gestion
de portefeuille.

Gestion "Bottom-Up"

La gestion "Bottom-Up", également appelée "stock picking" ou encore méthode


ascendante, est un mode de gestion de portefeuille qui consiste à investir dans
une société dont on estime le cours du titre sous évalué par le marché malgré un
fort potentiel de rendement.

En d'autres termes, elle privilégie avant tout les caractéristiques des titres avant
celles du secteur de la société ou de la conjoncture économique.

Plébiscitée par des grands noms de la finance comme Warren Buffet ou Peter
Lynch, cette méthode consiste à acheter des titres de compagnies autonomes
face à leur environnement économique et dont la capacité à s'auto-développer
par leurs propres moyens est importante.

Gestion "Top-Down"

Ce mode de gestion également appelé méthode descendante, est radicalement


opposé à la gestion "bottom-up". Ainsi cette approche consiste tout d'abord à
faire une analyse macro-économique et géographique de l'ensemble des secteurs
afin d'en extraire les secteurs qui présentent le plus fort potentiel de hausse.

Une fois cette analyse faite, l'investisseur doit affiner son étude afin de
sélectionner les titres possédant le plus fort rendement selon ses prévisions. Ce
mode de gestion s'appelle le mode "top-down". Les partisans de cette gestion
pensent que la conjoncture économique générale ainsi que la dynamique d'un
secteur influent énormément sur le rendement d'un titre.

Une fois évaluées les perspectives économiques futures, l'investisseur décide des
investissements par pays ou région, puis il détermine quelles industries sont les
mieux à même de bénéficier d'une optique économique favorable avant de
partager ses investissements entre les différents secteurs retenus en y choisissant
les titres avec les plus forts rendements.

Conclusion

Ces deux modes de gestion peuvent aussi bien s'appliquer à une analyse
technique qu'à une analyse fondamentale. A titre de comparaison, une analyse
technique top-down consistera à analyser le marché général et à en extraire les
secteurs proposant un aspect plus "positif" que les autres. Ensuite on en extrait
les titres qui donnent les plus forts signaux haussiers pour les prochaines
semaines ou les prochains mois.
A l'inverse, l'approche bottom-up consistera à focaliser son attention sur les
graphiques boursiers des compagnies.

La plus part des investisseurs, peut-être vous en premier, aura généralement une
approche de type top-down. En effet, nombreux sont veux qui orientent leurs
investissements selon les recommandations des courtiers. Ces personnes sont
alors appelées des "investisseurs top-down".

Les connaissances, l'expérience, ainsi que les qualifications requises pour ces
deux modes de gestion étant totalement différentes, c'est à chacun d'entre vous
de se forger sa propre opinion sur sa volonté d'investissement ainsi que sur son
mode de gestion active.

Principales stratégies des hedge funds

La gestion alternative a subi d'importantes évolutions depuis la création du


premier hedge fund, de type long-short Equity a la fin des années 1940 par
Alfred Winslow Jones. Au fil des années, de nouvelles techniques de gestion
sont apparues grâce à la création de nouveaux supports d'investissements et
l'émergence de nombreux marchés aux quatre coins du globe.

Nous allons exposer ici les principales stratégies alternatives utilisées au sein
des hedge funds. Ces derniers utilisent souvent des combinaisons ou variantes de
ces différentes stratégies mais peuvent également être spécialisés sur l'une d'elle.

Long-Short Equity

Cette stratégie, la plus répandue au sein des hedge funds, consiste à prendre des
positions acheteuses sur des titres considérés sous-évalués et des positions
vendeuses sur des titres surévalués. Le gérant cherche ainsi à arbitrer les
anomalies de marché et peut gagner en tendance baissière comme en tendance
haussière.

De plus, cette stratégie permet de bénéficier d'un double effet de levier (effet
double alpha). Les stratégies de long-short equity peuvent être directionnelles ou
"biaisées" selon la proportion de positions "short" par rapport aux positions
"long" dans le fonds. Ainsi un fonds peu être Dedicate Short s'il n'est composé
que de positions "short", ou bien Long Biaised si le montant de ses positions
"long" excède celui des positions "short".

Un fonds peut également ne pas être directionnel mais "Market Neutral", c'est à
dire que le montant de ses ventes à découvert couvre le montant de ses positions
"long", ce qui implique de rebasculer en permanence les proportions d'actifs
"long" et "short" pour s'adapter aux fluctuations des titres. Ce type de stratégie
long-short Equity est adapté en cas de forte volatilité des marchés.
Global Macro

Ce terme regroupe toutes les stratégies directionnelles consistant à prendre des


positions en suivant les tendances de marché, et en se basant sur des
anticipations macro-économiques telles que la croissance des PIB, taux
d'intérêts, taux de change ou encore des prix des matières premières. Par
exemple, si le gérant anticipe une baisse du PIB des Etats-Unis et une hausse de
la production mondiale de pétrole, il pourra spéculer sur la baisse de cet actif.

Pays émergents

Ce type de fonds est spécialisé dans les investissements sur les marchés
émergents. Cette stratégie présente généralement un risque considérable, les
indices et actions sous-jacents étant généralement très volatils au vu de
l'important risque-pays, et les outils de couverture étant traditionnellement peu
développés dans les pays émergents.

Arbitrage de taux

C'est une stratégie qui consiste à arbitrer les déformations et mouvements de la


courbe des taux (analyse comparée des taux longs et taux courts) à travers des
véhicules tels que les obligations d'Etat, les swaps ou futures de taux. Par
exemple, une telle stratégie peut consister à jouer sur un retour à la moyenne
d'un écart de rendement de la courbe des taux lors d'une déformation anormale
de cette dernière.

Arbitrage d'obligations convertibles

Ce mode de gestion consiste le plus souvent à prendre une position "long" sur
l'obligation convertible et "short" sur l'action sous-jacente, tout en éliminant le
risque de taux lié à l'obligation par un swap. Les convertibles sont généralement
sélectionnées grâce à des outils de modélisation complexes qui vont déceler une
opportunité d'arbitrage. Le gain étant relativement faible sur chaque arbitrage,
les gérants utilisent un important effet de levier.

Events driven ou "événementielles"

Le terme "Events driven" regroupe différentes stratégies qui consistent à prendre


position sur des titres afin de tirer partie d'anomalies de prix lors de situations
spéciales telles que les fusions-acquisitions (merger arbitrage) ou
restructuration de dettes de sociétés en faillite (distressed). Le gérant d'un fonds
à stratégie "events driven" va par exemple spéculer sur l'écart entre le prix
annoncé par l'acquéreur lors d'une OPA et le prix réel auquel se déroule ensuite
l'opération sur le marché.
Managed futures (contrats à terme gérés)

Ce type de stratégie est en règle générale entièrement informatisé et repose sur


des algorithmes destinés à prendre des positions spéculatives "long" ou "short"
sur des contrats futures sur tout type de support (indices, matières premières...).
Ces stratégies sont généralement basés sur de l'analyse technique de type "trend
following" (suivi de tendance) dont le gérant va tirer des signaux d'achat ou de
vente (par exemple croisement de moyenne mobile...) afin de systématiser son
système de trading qui gérera ensuite le fond de manière quasi-autonome en
suivant les signaux.

Le graphique ci-dessous donne une idée de l'importance de chacune de ces


stratégies au sein des hedge funds.

La formule de Kelly

Le terme de "Money management" appliqué à la bourse englobe toutes les


techniques visant à une gestion optimisée des placements et de leur
risque. Les bases essentielles du money management sont l'allocation du
capital et la gestion des gains et des pertes.

1) L'allocation des actifs est l'un des principes fondamentaux de la gestion de


portefeuille. Il consiste à déterminer la quantité de chaque actif à allouer à son
portefeuille, afin qu'il soit diversifié de manière optimale. Cette décision doit
être prise en fonction du montant du capital investi, mais également de l'aversion
au risque de l'investisseur, de ses objectifs et horizons de temps souhaités.

Ainsi, l'investisseur devra organiser son portefeuille entre des actifs plus ou
moins risqués : actions, obligations, liquidités, afin de l'adapter à la rentabilité
et au risque désiré. Plus l'investisseur est averse au risque, plus la part de
liquidités et d'obligations doit être importante, moins son aversion au risque est
importante est plus la part d'action doit être prédominante.

Au niveau d'un portefeuille composé à 100% d'actions, le money


management joue également un rôle important. L'investisseur doit sélectionner
les titres selon leur rentabilité espérée et la perte maximale qu'il est prêt à
subir. Il doit allouer ces titres à son portefeuille dans des proportions déterminés,
selon le risque souhaité.

Chaque investisseur doit déterminer un style de money management adapté à


son profil personnel et à ses objectifs. Cependant, il existe certaines règles
générales que l'on peut suivre où dont l'on peut s'inspirer. L'une d'entre elles est
la Formule de Kelly.
La formule de Kelly

La formule de Kelly a été développée par John Kelly dans les années 1950, alors
qu'il travaillait sur les signaux de transmission téléphonique à longue distance.
Cette formule a été rapidement récupérée par des parieurs afin d'optimiser leurs
gains dans les paris sur les courses de chevaux. Ce type de "money
management" a ensuite été adapté pour la bourse et est utilisé par de nombreux
investisseurs.

Cette formule permet de déterminer le % de capital qu'un investisseur


devrait allouer à chacun des titres qui composent son portefeuille.

Voici la formule :

Kelly % = W - (1-W)/R

avec

Kelly% = % du capital à investir dans le titre


W = Probabilité de faire un gain
R = Ratio gains/pertes

Utilisation pratique

On peut calculer la probabilité de faire un gain en prenant par exemple les 50


dernières transactions (trades) que l'on a effectué et en divisant le nombre de
trades gagnants effectués par le nombre de trades perdants. On obtient alors le
W de notre formule.

Pour calculer le ratio gains/pertes R, on divise le gain moyen réalisé sur les
trades positifs par la perte moyenne. Si ce chiffre ressort inférieur à 1, cela
indique que les gains moyens sont plus faibles que les pertes moyennes; il faut
donc réaliser beaucoup de trades gagnants pour compenser, sinon l'investisseur
est toujours perdant sur le long terme (et le % de Kelly ressortira négatif et sera
donc inutilisable).

Une fois les composants de la formule calculés, on peut obtenir le pourcentage


de Kelly et interpréter le résultat. Ce dernier représente le % de capital à
allouer à chaque titre détenu au sein du portefeuille qui va permettre de
maximiser les gains sur le long terme. Il indique en quelque sorte le degré de
diversification nécessaire du portefeuille entre les différents titres.

Par exemple, si on a une probabilité de gain de 0.55 avec un ratio gains/pertes de


1.05, le Kelly% ressortira à environ 0,12.
Pour maximiser ses gains sur le long terme, il faudra donc investir sur des lignes
d'un montant de 12% du capital total du portefeuille. Il faudra alors posséder
idéalement 8 titres en portefeuille.

2. Une bonne allocation des actifs ne suffit pas pour un money management
optimal, il faut également gérer ses gains et ses pertes de manière rationnelle.

Ainsi, pour un bon money management, il est nécessaire de déterminer avant


chaque trade son objectif de gain et la perte maximale que l'on va pouvoir
supporter, ces deux paramètres pouvant varier fortement selon le profil de
l'investisseur et la stratégie utilisée.

Certains pratiquent le buy and hold (j'achète et je conserve) sur un horizon long
terme, et n'auront donc pas tendance à placer de stop serré et ne fixeront pas
d'objectif de cours particulier, alors que d'autres investisseurs vont limiter leurs
pertes à 2-3% maximum par trade, avec des objectifs de gains de 5 à 10%. Pour
les day-traders, les pertes maximales et gains espérés seront encore plus faibles.

C'est à chacun de déterminer sa stratégie selon son style de gestion et ses


objectifs. Néanmoins, une bonne maîtrise des ordres stop-loss est nécessaire.

Vous aimerez peut-être aussi