Académique Documents
Professionnel Documents
Culture Documents
Université d’Alger
Faculté des sciences économiques et des sciences de gestion
Devant le jury :
Président : M. S. DJARI
Examinateur : A. BENHALIMA
Examinateur : N. HADID
Examinateur : A. KOUDRI
Examinateur : A. ZAKANE
2009 – 2010
Remerciements
Je remercie, aussi, Monsieur Abd Al Hamid KERNANE, directeur des études des
classes préparatoires de Draria, pour sa disponibilité et pour toute l’aide qu’il m’a
apportée.
Introduction ……………………………………………………………………………………..39
1. Les méthodes d’évaluation du risque de crédit ………………………………….………….41
1.1 L’analyse financière ………………………………….………………………………41
1.1.1 La méthode des ratios ……………………………………………………..….42
1.1.2 Avantages et limites de la méthode des ratios …………………………….....43
1.2 La notation financière (Rating) …………………………………………………….44
1.2.1 La notation externe ……………………………………………………….... 44
1.2.2 La notation interne …………………………………………………………. 48
1.3 Les modèle d’évaluation du risque …………………………………………….......48
1.3.1 Utilité des modèles d’évaluation du risque ……………………………….....49
1.3.2 Les systèmes experts et les modèles de scoring ……………………………..49
2. Le crédit Scoring …………………………………………………………………………….51
2.1 Définitions du crédit Scoring ………………………………………………………..52
2.2 Historique du crédit Scoring ……….………………………………………………...53
2.3 Construction d’un modèle de scoring ………………………………………………..54
3. Les différentes techniques d’analyse statistiques pour la construction des
modèles de scoring …………….……………………………………………………..…56
3.1 Les différentes techniques utilisées pour la construction d’un modèle de scoring 57
3.1.1 Les méthodes statistiques paramétriques ………..…………………………57
3.1.2 Les méthodes statistiques non-paramétriques …..………………………….59
3.1.3 Les méthodes issues de l’intelligence artificielles ………………………….61
3.2 La méthodologie commune des différentes techniques ou méthodes……………….62
3.2.1 La construction de l’échantillon ……………………………………………63
3.2.2 La sélection des variables explicatives ……………………………….........64
3.2.3 La méthode de validation ………………………………………………......65
4. L’analyse discriminante linéaire (ADL) ……………………………………………………..66
4.1 Construction du modèle ……………………………………………………………...68
4.2 Sélection des variables……………………………………………………………….69
4.3 Vérification de la validité du modèle ……………………………………………......70
4.3.1 La distance de Mahalanobis ………………………………………………...71
4.3.2 La valeur propre ……………..…………………………………………….…71
4.3.3 La corrélation canonique .…………………………………………………....72
4.4 La performance du modèle ………………………………………………………….72
4.4.1 La statistique de Mann-Whitney ………….………………………………….72
4.4.2 La méthode de validation croisée ………….…………………………….......73
4.5 Limites de l’analyse discriminante linéaire …………………………………….......74
Conclusion ………………………………………………………………………………….......76
Chapitre 3 : Les réseaux de neurones artificiels (RNA)
Introduction ……………………………………………………………………………………..77
1. Historique ……………………………………………………………………………………79
1.1 Aperçu historique …………….………………..……………………..………………79
1.2 Les origines biologiques………………………………………………………………81
2. Fonctionnement des RNA ……………………………………………………………..…..83
2.1 Définitions ………………………………………………………………………..….83
2.1.1 Le neurone formel …….…………………………………………………......83
2.1.2 Les réseaux de neurones artificiels ……..………………………………….…84
2.1.3 L’apprentissage ………………….…………………………………………...85
2.2. Les composants du réseau de neurones artificiel …………………………………...86
2.2.1 L’architecture du réseau …………………………………………………….86
2.2.2 Les fonctions d’activations …………………………………………….……87
2.2.3 Le mode d’apprentissage ………..…………………………………………88
3. Les différentes architectures de RNA ……………………………………………………....92
3.1 Perceptron Multi-Couches (MLP) ………………..………………………………....92
3.2 Réseaux de HOPFIELD ….…….…………….……………..………………………....93
3.3 Les Réseaux de KOHONEN ou cartes auto-organisatrices ……………..…………....94
4. Les étapes de mise en œuvre d'un réseau de neurones artificiel …………………………....96
5. Les domaines d’application des RNA ………………………………………………………98
5.1 Les domaines d’application divers ………………………………………………...98
5.1.1 La modélisation non-linéaire de données……………………………………98
5.1.2 La détection d'anomalies …….………………………………………………99
5.1.3 La reconnaissance de formes ………………………………………………..99
5.2 Les domaines d’application en finance ………………………………………….99
5.2.1 Le « Business Forecasting » …..………………………………………….100
5.2.2 La gestion de portefeuille ……….………………………………………..101
5.2.3 La prévision de faillite et l’octroi de crédit …………..…………………..102
Conclusion ……………………………………………………………………..……………...105
Introduction …………………………………………………………………………………….106
1. Présentation des données de l’échantillon ………………………………………………..108
1.1 La base de données ………………………………………………………………….108
1.2 Définition des critères de classement ………………………………………………109
1.3 Sélection des indicateurs …………………………………………………………...110
1.3.1 Les variables extracomptables …….……………………………………111
1.3.2 Les variables comptables ……..…….…………….……………………111
2. Description de l’échantillon expérimental ………………..………………………………...113
2.1. Description statistique de l’échantillon expérimental ……………………………..113
2.1.1. Selon le secteur d’activité ……………………………………………….113
2.1.2. Selon le statut juridique …………………………………………………113
2.1.3. Selon la localité géographique …………………………………………..114
2.1.4. Selon le catégorie d’âge …………………………………………………115
2.1.5. Selon le nature de la demande …………………………………………..115
2.2. Analyse de l’échantillon expérimental ……………………………………………..116
2.2.1. Analyse de contingence …………………………………………………116
2.2.2. Comparaison des moyennes ……………..……………………………...119
3. Elaboration du modèle de Scoring …………………………………………………………..119
3.1. Vérification de l’existance de différence entre les groupes ……………..………....120
3.2 Vérification de la validité du modèle ……………………………………………....121
3.2.1 Le test de Box………..…….………………………………………………122
3.2.2 La corrélation canonique de l’analyse discriminante .….……………….122
3.2.3 Le Lambda de Wilks ….………………………………..………………..123
3.3 Construction de la fonction score…………………………………………………….123
3.4 Vérification de la performance du modèle ….…...……………………………..……125
3.4.1 Résultats de classement de l’échantillon de construction..….…...………126
3.4.2 Résultats de classement de l’échantillon de validation ….….…...………127
4. Conception Elaboration du modèle neuronal ……………………………………………….130
4.1 Présentation du réseau neuronal n°1 ………………………………………………..130
4.1.1 Caractéristiques du réseau élaboré ……………………………………….131
4.1.2 Choix des paramètres ………..…..………………………………………132
4.2 Présentation du réseau neuronal n°2 ………………………………………………..133
4.2.1 Les caractéristiques de ce réseau n°2 ………………………………………...133
4.2.2 Les résultats de validation du réseau n°2 …….………………………………139
5. Comparaison des résultats des trois modèles ……………………………..………………..141
6. Les atouts et limites des RNA …..…..…………………..………………………………...142
6.1 Les avantages ……...……..………………………………………………………...142
6.2 Les limites ………………….……………………………………………………...143
Conclusion ……………………………………………………………………………………….145
Bibliographie ………………………………………..……………………………………………150
Annexes
Annexe A : INSTRUCTION N° 34-91 DU 14 NOVEMBRE 1991
Annexe B0 : TEST de différence de groupes
Annexe B1 : TEST khi-deux
Annexe B2 : TEST-T
Annexe B3 : Diagnostic des observations (méthode de l‘ADL)
Annexe C1 : Résultats du réseau neuronal N°1
Annexe C2 : Résultats du réseau neuronal N°2
Liste des tableaux
Introduction générale
e système bancaire est apparu de plus en plus fragile depuis la vague des faillites
L bancaires des années 80 (Continental Illinois en 1984, Rumasa Group en 1984 , les
banques texanes à partir de 1985 et la vielle banque anglaise Barrings qui a fait
faillite en 1995 après plus de deux siècles d’existence), et avec la réapparition des crises
financières (le Krach boursier en 1987, la crise asiatique en 1997 et la dernière crise en
2007 spécifique aux crédits immobiliers).
Ces vingt dernières années ont été marquées par de nombreuses faillites à travers le
monde. L’accroissement actuel de la taille des entreprises en faillite, donc des montants de
dettes concernés, rappelle vivement la nécessité de prévoir la défaillance. La protection des
intérêts des créanciers, voire le rétablissement de la pérennité de l’entreprise, passent par
l’anticipation des graves difficultés économiques et financières qu’une entreprise est
susceptible de rencontrer.
L’attribution des crédits aux entreprises est d’une importance capitale pour la plupart
des institutions financières car ces crédits représentent la principale source de revenus des
institutions financières. Cependant, ces crédits entraînent des risques importants pour
l’entreprise prêteuse, d’où l’importance de la maîtrise des risques bancaires.
1
Introduction générale
Les banques vont donc chercher à évaluer la capacité de l’entreprise à honorer ses
contrats en mesurant le risque de défaillance de l’entreprise.
Actuellement le problème se pose aux banques avec une acuité particulière. Dans le
cadre du Comité de Bâle et du ratio Mac Donough, les banques se devront en effet de
proposer une évaluation systématique des risques qu’elles encourent. Ceci implique
notamment une estimation précise de la probabilité de défaut de leurs clients, donc un
éventuel remaniement de leurs méthodes d’évaluation (Refait 2004).
Notons qu’il existe une multitude de méthodes classiques pour décider de l’octroi de
crédit. La technique la plus utilisée par les banques est la méthode du crédit scoring qui repose
2
Introduction générale
sur l’analyse discriminante. Malgré les résultats obtenus par cette méthode et les preuves
qu’elle a réalisé elle reste limitée. En effet, les problèmes économiques étudiés sont dans
leur grande majorité non-linéaires alors que la méthode du score considère que le phénomène
est linéaire. D’autres limites ont été constatées : la difficulté de généralisation, l’utilisation de
données quantitatives, etc.
D’autres modèles de l’analyse de risque ont vu le jour pour pallier à ces insuffisances.
Les techniques empruntées à l’intelligence artificielle, tels les systèmes experts sont utilisés
dans les banques pour décider de l’octroi de crédit, mais aussi pour noter les emprunteurs (le
rating). Dans ces systèmes experts, l’approche est de nature qualitative reproduisant les
règles de décisions des experts en matière de crédit. Bien qu’ils n’exigent pas de disposer de
longs historiques de données puisqu’ils s’appuient sur l’expérience des experts (ce qui lui
confère un avantage certain sur les méthodes de scoring). Cependant le principal inconvénient
des systèmes experts est qu’ils peuvent faire une part importante à la subjectivité et aux
jugements des experts1.
Les réseaux de neurones artificiels (RNA) sont parmi les outils les plus récents évoqués
par les chercheurs et empruntés eux aussi à l’intelligence artificielle. Ces récentes techniques
connaissent un très grand engouement académique. Elles permettent en effet de bonnes
prévisions tout en présentant l’avantage de ne pas exiger de restrictions statistiques. En effet,
les réseaux de neurones artificiels, contrairement aux méthodes statistiques, ne nécessitent
aucune hypothèse sur les variables. Pour cette raison, et parce qu’ils sont capables de traiter
des problèmes non structurés, c'est-à-dire des problèmes sur les quels il est impossible à priori
de spécifier la forme de la fonction de discrimination, ils font aujourd’hui l’objet d’une
attention particulière.
1
Nous n’évoquerons pas les fondements des systèmes experts dans notre recherche, mais pour plus de détails
voir Dietsch & Petey 2003.
3
Introduction générale
Les réseaux de neurones artificiels s’inscrivent dans une approche, certes pragmatique, mais
dans une optique inter-relationnelle entre les variables représentant le phénomène. De plus,
c’est l’une des rares techniques qui prend en compte les données bruitées.
Deux raisons principales ont suscité les chercheurs à opter pour cette nouvelle méthode :
D’une part, contrairement aux méthodes statistiques classiques, les réseaux de
neurones artificiels ne nécessitent aucune hypothèse sur les variables.
D’autre part, ils sont bien adaptés à traiter des problèmes complexes non
structurés, autrement dits des problèmes pour lesquels il est impossible à priori de
spécifier la forme des relations entre les variables utilisées.
Quel est l’apport des réseaux de neurones artificiels (RNA) par rapport à
l’analyse discriminante linéaire (ADL) en termes de modélisation du crédit ?
Telle est la question centrale de notre recherche.
4
Introduction générale
1. Les outils classiques sont limités car ils nécessitent que les variables vérifient
un certain nombre de propriétés statistiques.
3. Les RNA sont plus performants et donnent de meilleurs résultats sinon des
résultats au moins identiques que ceux de la méthode classique.
Notre démarche est principalement inductive et repose sur une approche empirique. A
partir d’un outil de traitement de l’information, l’objectif est de tenter de concevoir des
modèles d’évaluation du risque pour le classement des entreprises demandant un crédit
d’exploitation.
L’évaluation de risque de défaillance d’une entreprise reste une notion assez floue et
peut être appréhendée par un large éventail de disciplines : à travers une analyse stratégique,
organisationnelle, sociale, technico-économique, marketing ou financière. Elle est donc
multidimensionnelle. Dans le cadre de notre travail nous ne retiendrons que la démarche
financière
Notre recherche est basée sur une étude empirique réelle se basant sur la collecte de
données extraites des dossiers de clients d’une banque publique algérienne. L’échantillon est
constitué d’entreprises privées de petite et moyenne taille domiciliées à une banque publique
algérienne au niveau de plusieurs agences à travers le territoire national. Ces agences sont
gérées par une direction centrale située à Alger. Ces entreprises ont bénéficié d’un nouveau
concours ou d’un renouvellement de crédit d’exploitation au cours de la période 2002-2007.
Nous avons pu recueillir un échantillon de 209 entreprises provenant de secteurs d’activités
différents.
L’élaboration des différents modèles s’est réalisée comme suit :
- Le modèle de l’analyse discriminante est réalisé à l’aide des logiciels : EXCEL7
et S.P.S.S 10.0 (Statistical Package for Social Science).
5
Introduction générale
L’intérêt du troisième chapitre est de poser les bases de fonctionnement des R.N.A
et de présenter les différents types d’architectures existantes, afin de mieux
comprendre les raisons de leur utilisation dans le cadre d’une application financière.
Il est consacré à l’approche neuronale avec tous ses fondements théoriques, ses
origines biologiques et les conditions de sa mise en œuvre, ainsi que les domaines
d’application en finance.
6
Introduction générale
En guise de conclusion, nous présenterons les résultats obtenus par les deux
méthodes et les limites de la recherche effectuée ainsi que les perspectives.
7
Chapitre 1 : Les crédits bancaires et leurs risques
Introduction
Dans une économie moderne, la presque totalité des échanges de biens ou de services,
se fait par l’intermédiaire de la monnaie quelle soit sous forme de billets de banque ou sous
forme d’opérations de dépôts ou de crédits bancaires.
Les établissements de crédit offrent leurs services à trois grandes catégories de clients :
les particuliers, les collectivités locales, et les entreprises.
(Hull J. & al. 2007) précise que les banques sont confrontées à des coûts de faillites similaires
à ceux des autres entreprises et sont incitées à gérer prudemment leurs risques
Il est vrai qu’en octroyant un crédit, un seul objectif est recherché par le banquier :
générer des profits en utilisant les ressources dont il dispose. Cependant, l’approche du risque
dépend de la nature des engagements (De Coussergues 2002, p100) :
- selon le type de crédit accordé, la mobilisation des créances étant jugée moins
risqués que les crédits de trésorerie ;
- selon la durée des crédits, les crédits à court termes étant moins risqués que les
crédits à long terme ;
- selon les garanties dont les crédits sont assortis.
8
Chapitre 1 : Les crédits bancaires et leurs risques
9
Chapitre 1 : Les crédits bancaires et leurs risques
L’attribution des crédits aux entreprises est d’une importance capitale pour la plupart
des institutions financières mais aussi pour le développement de l’économie d’un pays.
Les crédits qui représentent la principale source de revenus des institutions financières,
entraînent des risques importants pour l’entreprise prêteuse, d’où l’importance de la maîtrise
des risques bancaires qui est le thème central des nouveaux accords de Bâle.
Le crédit est définit par (Bernet-Rollande 2004, p26) comme une assistance financière
du banquier à l’égard de son client. Ce crédit peut donner lieu à mise à disposition de fonds et
l’on parlera alors de crédits par décaissement (ex : découvert). Il peut être plus simplement,
l’engagement par le banquier d’honorer la signature de son client en cas de défaillance de ce
dernier.
La confiance : faire crédit signifie faire confiance et mettre à la disposition d’une personne
morale ou physique un fond contre une promesse de le restituer plus tard. Autrement dit
faire confiance en les dirigeants et surtout en prenant en considération la solvabilité du
demandeur de crédit.
10
Chapitre 1 : Les crédits bancaires et leurs risques
Le délai : c’est le temps accordé au crédité par le créditeur afin de rembourser le fond
emprunté.
La rémunération : un seul objectif est recherché par le banquier : générer des profits en
utilisant les ressources dont il dispose. Le crédit contient généralement des conventions sur
le taux d’intérêt et les différentes commissions prévues en fonction des opérations
effectuées.
Le risque : Le risque de crédit est présent dans tous les contrats financiers et constitue la
principale source de pertes pour les institutions financières
L’une des formes de crédits consenties couramment aux entreprises sont les crédits
d’exploitation. Ce sont des crédits à court terme dont la durée de remboursement est
généralement d’une année et leur remboursement est assuré par les recettes d’exploitation.
1
Notre champ d’étude se limite aux crédits à courts termes, c'est-à-dire les crédits d’exploitation
11
Chapitre 1 : Les crédits bancaires et leurs risques
Dans le cas des PME, le crédit par caisse fait souvent l’objet d’une garantie : caution
personnelle des dirigeants, nantissement de bons de caisse ou de marchandise et plus rarement
hypothèque sur un immeuble (cf § 3.1 la politique de garanties).
On distingue deux types de crédits par caisse : les crédits de trésorerie globaux et les
crédits par caisse spécifiques.
La facilité de caisse
La facilité de caisse est accordée à l’entreprise lorsqu’elle a besoin de faire face à une
gêne momentanée de trésorerie. Cette autorisation est accordée pour une période donnée.
C’est le crédit destiné à combler les creux de trésorerie dus au roulement de l’actif circulant :
paie, achat de matières, règlement fiscaux etc.
Le découvert
Ce type de crédit est mis en place dans le cas ou l’entreprise est en attente d’une rentrée
de fonds et qu’elle souhaite disposer à l’avance des fonds attendus afin de profiter d’une
opportunité (par exemple règlement d’un important marché).
Ce crédit est accordé pour une période plus longue (de quelques semaines à quelques mois)
que le crédit par caisse.
Le crédit de campagne
Une entreprise peut subir un important décalage entre les dépenses qu’elle règle et les
rentrées qu’elle doit avoir et ce, pour différentes raisons. Elle peut avoir ce qu’on appelle une
activité saisonnière. Ainsi, elle peut fabriquer toute l’année et vendre sur une période très
courte (exemple : distillerie, industrie des engrais fabricant de jouets), ou bien elle ne peut
acheter que sur une période très courte pour vendre toute l’année (exemple : fabricant de
conserves).
12
Chapitre 1 : Les crédits bancaires et leurs risques
Le crédit « spot »
C’est une forme de découvert momentané. Il est accordé sous forme d’avance d’une
durée de quelques heures à quelques jours, formalisé le plus souvent par des billets financiers.
Le principal avantage de ce type de financement réside dans la suppression des commissions
applicables au découvert.
L’accréditif
L’accréditif est la possibilité pour une entreprise de disposer de fonds dans une autre
agence de sa banque ou chez un de ses correspondants.
L’escompte
L’escompte est définit par (Bernet-Rollande 2004, p211) comme une opération qui
consiste pour le banquier à acheter à une entreprise les effets de commerce dont elle est
porteuse (bénéficiaire final) avant l’échéance et ce moyennant le paiement d’agios, le cédant
restant garant du paiement.
L’affacturage
C’est un contrat par lequel un établissement de crédit spécialisé, appelé factor, achète
ferme les créances détenues par un fournisseur, appelé vendeur, sur ses clients appelés
acheteurs ou bénéficiaires de services et ce moyennant rémunération (Bernet-Rollande 2004,
p223).
13
Chapitre 1 : Les crédits bancaires et leurs risques
Elle peut se réaliser de deux manières : la marchandise est déposée dans les locaux de
l’entreprise ou dans les locaux appartenant à un tiers (magasin général) avec délivrance d’un
récépissé warrant.
14
Chapitre 1 : Les crédits bancaires et leurs risques
1.2.2.2 L’aval
Pour faciliter à son client soit la livraison de marchandises soit l’octroi de crédit par un
confrère, le banquier peut accepter (ou avaliser) un effet de commerce tiré par son client en
s’engageant de ce fait de payer à l’échéance. A Cette date, le client assurera à son banquier la
couverture de l’effet par la somme prévue, ce dernier n’ayant pas en principe de décaissement
à effectuer (Bernet-Rollande 2004, p229).
Une entreprise est d’abord un projet économique dont le déroulement dans le temps est
exposé à un risque multiforme.
Nombreuses sont les études portant sur le risque de crédit. Ce dernier est l’un des plus
anciens risques auquel sont confrontées les banques, et constitue même la principale source
de pertes monétaires de ces établissements financiers.
Le risque de crédit sous les différents traits qu’il révèle se situe au cœur des
15
Chapitre 1 : Les crédits bancaires et leurs risques
préoccupations bancaires, c’est pour cela et pour une meilleure gestion de cet aléa
qu’une réglementation pertinente a été mise en place.
D’après (De Coussergues 2002, p145), tout crédit est une anticipation de revenus futurs
et tout crédit comporte le risque que ces revenus ne se produisent pas et qu’aucun
remboursement ou bien seulement un remboursement partiel n’ait lieu à l’échéance.
En matière de prêt, (De La Bruslerie 2002, p293) considère que le risque encouru est
l’incapacité de l’emprunteur à honorer les termes financiers de son contrat. Il s’agit du
paiement des flux d’intérêts et du remboursement du capital.
De par leur nature d'intermédiaires financiers, les banques sont exposées depuis toujours
à une série de risques, classés maintenant en trois grandes catégories : risques de marché,
risques de crédit et risques opérationnels. Pour une banque universelle, (Roncalli 2004) estime
que le risque le plus important est le risque de crédit, suivi par le risque opérationnel, puis par
le risque de marché.
La gestion de ces risques est en évolution constante et recouvre plusieurs aspects, dont
notamment le respect des limites et le calcul de capital.
16
Chapitre 1 : Les crédits bancaires et leurs risques
2
Il y a plusieurs termes pour désigner le risque de crédit tels que : risque de contrepartie, risque de défaut, risque
de non remboursement et risque de défaillance. Pour la suite nous retiendrons le terme : risque de défaillance.
17
Chapitre 1 : Les crédits bancaires et leurs risques
Le risque de crédit est présent dans tous les contrats financiers et constitue la principale
source de pertes pour les institutions financières. Selon (Vernimmen 2005, p1051) il est
naturellement fonction de trois paramètres : le montant de la créance, la probabilité de défaut
et la proportion de la créance qui sera recouvrée en cas de défaut.
Le risque de contrepartie comporte deux aspects : un aspect externe lié à l’insolvabilité
de l’emprunteur et un aspect interne qui tient à la façon dont la banque organise la fonction
distribution de crédit (De Coussergues 2002, p145).
En résumé, c’est donc, le risque de perte sur une créance ou plus généralement celui
d’un tiers qui ne paie pas sa dette à temps, c’est-à-dire le non remboursement de ses dettes par
un emprunteur défaillant.
D’après (Roncalli 2004, p105), cette première forme de risque est associée à
l’occurrence d’un défaut, caractérise par l’incapacité du débiteur à faire face à ses
obligations. L’agence Moody’s retient la définition suivante du risque de défaut : « tout
manquement ou tout retard sur le paiement du principal ou des intérêts ».
2- La constatation d'une perte portant sur l'une de ses facilités : comptabilisation d'une
perte, restructuration de détresse impliquant une réduction ou un rééchelonnement du
principal, des intérêts ou des commissions ;
18
Chapitre 1 : Les crédits bancaires et leurs risques
3- L'emprunteur est en défaut de paiement depuis quatre-vingt dix (90) jours sur l'un de
ses crédits ;
Dans ce cas là, on est en présence du défaut de la contrepartie. Il y’a trois (03) éléments
qui interviennent dans sa mesure (Dietsch & Petey 2003) :
Ce risque fait l’objet d’un suivi quotidien par les banques soucieuses de la
valeur de leur portefeuille et qui font du mark-to-market3.
3
Technique qui consiste à réévaluer la valeur du portefeuille d’une banque en fonction des nouveaux paramètres
du marché.
19
Chapitre 1 : Les crédits bancaires et leurs risques
20
Chapitre 1 : Les crédits bancaires et leurs risques
Le risque de crédit ou risque de défaillance est le plus ancien et, encore aujourd’hui, le
principal risque pour les institutions financières. Durant les années 1980, ce risque a fortement
augmenté en raison de la montée en puissance de divers facteurs. En effet, les banques et les
préteurs ont été confrontés à une forte augmentation du nombre de défaillances d’entreprises à
la fin des années 1980. Depuis 1995 (tableau 1.1), on assiste à une certaine décrue. Une
raison importante de cette évolution contrastée est la modification du régime juridique des
défaillances (De La Bruslerie 2002, p357).
4
Actuellement, la faillite de Lehman Brothers, quatrième banque d’affaires américaine, fragilise un peu
plus un secteur en crise depuis plus d’un an (crise de subprimes). En effet, le secteur bancaire redoute une
réaction en chaine (un effet domino).
21
Chapitre 1 : Les crédits bancaires et leurs risques
La catégorie des PME est la plus vulnérable en raison de sa fragilité financière et /ou de
problèmes de management.
Les banques sont confrontées à des coûts de faillites similaires à ceux des autres
entreprises et sont incitées à gérer prudemment leurs risques. Comme le souligne (Hull J. &
al. 2007, p13) la gestion prudente consiste, par exemple, à minimiser la probabilité de
défaillance.
22
Chapitre 1 : Les crédits bancaires et leurs risques
L’octroi de crédit est conditionné par la collecte des garanties dont la mise en jeu
constitue la solution de remboursement la plus extrême en cas de défaut de remboursement.
Cependant, il faut noter que la garantie n’est prise que par esprit de prévention et ne doit être
considérée comme la condition suffisante à l’octroi des crédits. Il existe deux types de
garanties : les garanties réelles et les garanties personnelles.
23
Chapitre 1 : Les crédits bancaires et leurs risques
Les règles en matière de prise de garanties doivent être clairement formalisées : contrats
assurant la sécurité juridique de l’opération, la définition des cas ou les garanties sont
obligatoires et les taux de couverture.
Il est bien entendu que la prise de garanties ne supprime pas le risque de non
remboursement et de défaillance notamment en raison de la complexité des procédures
collectives.
Il peut arriver qu’un retard survienne dans le remboursement d’une échéance. Cela
pouvant représenter un symptôme de défaillance, il y’a lieu de classer cette créance dans une
catégorie de risque afin de lui accorder un suivi plus rapproché et de constituer une provision
pour couvrir les pertes potentielles.
1- Les créances courantes : ce sont des créances détenues sur des entreprises saines. La
constitution de leur provision est de 1% par an jusqu’à atteindre 3%. La provision
dans ce cas là a un caractère de réserve.
2- Les créances classées : ses créances font l’objet d’un provisionnement plus important
vu leur caractère risqué. Il y’a trois classes : créances à problèmes potentiels (retard
de remboursement de 3 à 6 mois, provisionnement à 30%), créances très risquées
(retard de 6 mois à 1 an, provisionnement à 50%), et créances compromises (retard
supérieur à un an, provisionnement à 100%)
Le risque de crédit, étant le plus important des risques bancaires, et par conséquent le
plus inquiétant, requiert la vigilance de toutes les parties concernées, en particulier les
autorités de régulation afin de faire face aux effets désastreux résultant de sa mauvaise
gestion.
24
Chapitre 1 : Les crédits bancaires et leurs risques
L'accord de Bâle II a été publié en janvier 2001 par la Banque des règlements
internationaux, dont le siège est à Bâle, en Suisse, et il constitue une mise a jour d'un accord
de 1988 visant à créer des normes en matière de suffisance du capital pour les banques.
0% pour les créances sur les Etats membres de l’OCDE (Organisation pour le
Commerce et le Développement Economique) ;
20% pour les créances sur les institutions internationales, les collectivités
territoriales et les banques d’Etats membres de l’OCDE ;
50% pour les créances hypothécaires pour l'habitat ;
100% pour les autres créances.
25
Chapitre 1 : Les crédits bancaires et leurs risques
Cependant, au cours des années 90 et malgré tous ces avantages, le risque de crédit n’a
pas baissé en raison de la présence et de la relative permanence des facteurs suivants :
5
William Mac Donough est le président du Comité de Bâle et de la Federal Reserve Bank de New York.
26
Chapitre 1 : Les crédits bancaires et leurs risques
Le dispositif de Bâle II, qui vise à permettre une couverture plus fine et plus complète
des risques bancaires, comporte trois piliers complémentaires et interdépendants : le
pilier 1 constitue le socle des exigences réglementaires minimales ; le pilier 2 institue le
principe d’un dialogue structuré entre établissements et superviseurs ; enfin, le troisième pilier
est centré sur la transparence et la discipline de marché.
Pilier I : Exigences minimales en fonds propres pour couvrir les actifs pondérés
en fonction du risque :
Des normes renouvelées pour mieux tenir compte des risques mais sans
modification du niveau global des fonds propres (8% en moyenne) ;
Une meilleure prise en compte des techniques de réduction des risques ;
Une prise en compte des risques opérationnels.
27
Chapitre 1 : Les crédits bancaires et leurs risques
Pilier III : Une plus grande discipline de marché, visant à promouvoir une
communication financière efficace, avec l’obligation de publication périodique des
informations permettant une appréhension de la structure des fonds propres et de
l'exposition de l'établissement aux risques.
Les réformes apportées en matière du risque de crédit par le dispositif Bâle II,
contrairement à Bâle I, offre aux banques, selon leur niveau de sophistication, le choix
entre plusieurs options de quantifications du risque de crédit. Il propose en effet deux
grandes méthodes de calcul des exigences de fonds propres relatives à leur risque de crédit :
28
Chapitre 1 : Les crédits bancaires et leurs risques
C'est ainsi que les banques, entreprises publiques, se sont retrouvées dans l'obligation
d'apporter les financements nécessaires aux entreprises domiciliées auprès d'elles, elles
mêmes publiques (sur injonction du Trésor, leur propriétaire). Par ailleurs, leur clientèle
d'entreprises publiques assurait leur solvabilité. Dans ces conditions, une réglementation
prudentielle s'est avéré tout simplement inutile.
6
Article 143 de la loi sur la Monnaie et le Crédit (loi 90-10 du 14/04/1990).
29
Chapitre 1 : Les crédits bancaires et leurs risques
L'instruction 04-99 du 12/07/1999 qui normalise les déclarations par les banques de
leurs ratios de couverture et de division des risques, …etc.
30
Chapitre 1 : Les crédits bancaires et leurs risques
7
L’actualisation de la loi 90-10 fait suite au scandale financier qui a éclaboussé le milieu bancaire et financier
Algérien au cours de l’année 2003par la faillite de deux banques à capitaux privées : El Khalifa et la banque pour
le commerce et l’industrie de l’Algérie (BCIA).
31
Chapitre 1 : Les crédits bancaires et leurs risques
8
Et toutes autres réserves qui sont constituées par affectation des résultats passés.
9
Ce qui les différencie des provisions.
32
Chapitre 1 : Les crédits bancaires et leurs risques
33
Chapitre 1 : Les crédits bancaires et leurs risques
- Il reprend les fonds propres prudentiels au numérateur (voir supra définition des
fonds propres nets),
- Il recense les risques pondérés au dénominateur.
34
Chapitre 1 : Les crédits bancaires et leurs risques
Les créances sont classées selon leur niveau de risque pour permettre leur
provisionnement, on y distingue les créances courantes et les créances classées.
35
Chapitre 1 : Les crédits bancaires et leurs risques
Cette approche est applicable dans le contexte algérien pour cause, la notation externe
qui est le moteur n’est pas disponible dans notre pays, les agences de notation ne sont pas
présentes et même si c’était le cas, les services qu’elles fourniraient ne s’adresseront qu’à de
grosses entreprises ayant les moyens de payer leur notation. Ce qui peut intéresser la banque
algérienne finançant la PME qui ne peut supporter le coût d’une notation externe, c’est la
mise sur pieds de la centrale des bilans et la concrétisation du projet de cotation banque
d’Algérie qui pourra allouer une cote de crédit à chaque contre partie, permettant ainsi
l’application de la méthode standard de Bâle II.
Une application des nouvelles réformes baloises en Algérie sont une réalité lointaine
car à l’avenir les conditions suivantes doivent être remplies avec une application correcte du
second accord :
1. Compléter les bases de données historiques sur les défauts sur des cycles
économiques entiers (niveau de défaut en phase de croissance et de récession) en
puisant dans les dossiers de crédit des banques et du CNRS (registre de
commerce) ;
36
Chapitre 1 : Les crédits bancaires et leurs risques
4. Une politique de gestion des risques, avec des objectifs clairs et des moyens
suffisants doit être pilotée par la plus haute instance managériale de la banque ;
10
Programme visant à mettre en œuvre les mesures de coopération destinées à aider les pays tiers
méditerranéens à procéder à des réformes de leurs structures économiques et sociales et à atténuer les effets du
développement économique sur le plan social et environnemental.
37
Chapitre 1 : Les crédits bancaires et leurs risques
Conclusion
Le chapitre suivant présentera quelques méthodes que les banques peuvent utiliser afin
d’évaluer le risque crédit.
38
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Introduction
Lors du premier chapitre nous avons pu définir les contours de notre recherche en
abordant les aspects théoriques qui définissent la notion du risque de crédit ou de défaillance.
Il est vrai qu’en octroyant un crédit, un seul objectif est recherché par les établissements
financiers : générer des profits en utilisant les ressources. Cependant, ces établissements
doivent anticiper la détection de défaillance des entreprises sollicitant un crédit. Les
techniques d’analyses de données sont ainsi souvent utilisées afin de réaliser un premier tri
dans la multitude de dossiers déposés.
L’objectif de ce deuxième chapitre est de mettre en avant, dans un premier temps, les
méthodes classiques d’évaluation du risque de crédit à savoir l’analyse financière, la notation
39
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
financière (ou le rating) avec leurs avantages et leurs limites. Le deuxième volet est consacré
aux modèles d’évaluation du risque de crédit tels que les systèmes experts et les modèles de
scoring.
Après avoir définit les concepts du crédit scoring, on présente les trois grandes familles
d’outils d’analyse statistiques utilisés dans la prévision de la défaillance des entreprises (les
modèles paramétriques, les modèles non-paramétriques et les modèles issues de l’intelligence
artificielle). Le dernier volet est consacré à la technique d’analyse discriminante linéaire
(ADL) qui est la plus populaire et la plus utilisée dans le secteur bancaire, avant de la mettre
en expérimentation dans le volet pratique de cette recherche.
40
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
La stabilité économique est l’une des priorités des pouvoirs publics. Pour atteindre cet
objectif, un système bancaire fiable est nécessaire, assurant ainsi un niveau de faillite très
faible et une bonne protection des déposants.
Dans Bâle II, les banques sont libres d’utiliser leur propre modèle d’évaluation des
probabilités de défaut, préalablement validé par le régulateur, afin de déterminer le montant
de fonds propres à détenir (Hull J. & al. 2007, p229).
Les banques, de leurs côté, ont vite compris l’enjeu de la gestion du risque de crédit, et
ont élaboré des techniques pour gérer ce risque moyennant différentes méthodes d’évaluation
(analyse financière, notation financière et méthodes statistiques).
L’analyse financière fait un grand usage de rapports (ratios) en tout genre pour dessiner
le profil financier d’une entreprise, notamment pour exprimer en valeur relative les
performances de l’entreprise (Colasse B. 2003, p35).
41
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Parmi les outils utilisés dans l’analyse financière on distingue : les ratios, les
conceptions des fonds de roulements (besoins en fonds de roulement et de trésorerie), la
capacité d’autofinancement et l’étude des emplois et ressources appréhendées dans les
tableaux de financement.
Comme la méthode des ratios est la plus répandue, nous nous contenterons de présenter
brièvement cette méthode.
Les ratios peuvent être exprimés en par un nombre, un pourcentage, ou par une durée
(nombre de jours, de mois ou d’années). Ils doivent être significatifs, compréhensibles et d’un
coût de confection raisonnable. Les différents ratios peuvent être regroupés selon quatre
principales catégories :
Les ratios de structure : ils analysent les grandes masses du haut du bilan. Ils
expriment les conditions dans lesquelles l’entreprise assure son équilibre financier à
partir du cycle de financement et des opérations du cycle d’investissement.
Les ratios de liquidité : ils mesurent l’aptitude de l’entreprise à transformer ses actifs
circulants en liquidité afin de faire face aux dettes à court terme. Ils sont établis dans
le cadre d’une analyse liquidité-éligibilité.
Les ratios de gestion : ils constituent l’un des points clés du diagnostic financier. Ils
mesurent la rotation des composantes principales des besoins en fonds de roulement
d’exploitation (stocks, créances, clients et dettes fournisseurs). Ils permettent de
42
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Les ratios de rentabilité : la rentabilité est l’aptitude à produire un résultat. Les ratios
de rentabilité contribuent à évaluer les résultats de l’entreprise en rapprochant sa
capacité bénéficiaire à des grandeurs significatives provenant du bilan, du compte
résultat et du tableau des soldes intermédiaires de gestion.
Néanmoins, le traitement par l’analyse financière à court terme, telle qu’elle est
pratiquée par les banques algériennes, est une méthode classique d’appréhension du
risque de crédit.
43
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Les bilans comptables peuvent être modifiés pour des raisons commerciales ou
fiscales ;
Malgré les restrictions que compte l’analyse par les ratios, elle demeure une méthode de
diagnostic et d’aide de décision indispensable. Son utilisation reste tributaire de la qualité et
de la fiabilité de l’information comptable.
1
Le développement de la notation financière a été lent aux Etats-Unis, seul l’événement de la faillite en juin
1970 de l’entreprise de transport américaine (Penn Central Transportation Company) imposa définitivement le
rating.
44
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Standard & Poor’s : filiale du groupe McGraw & Hill crée en 1924 à New York
spécialisée dans la notation des sociétés industrielles ;
Fitch Investor Service, dit Fitch (IBCA), crée en 1922 filiale à 97% du groupe
français.
2
Les notes publiées par les agences de notation concernent essentiellement les entreprises de grande taille qui
sont cotées. La plupart des entreprises de taille moyenne ou petite n’ont aucune obligation émise ou cotée sur le
marché financier, de ce fait elles ne sont pas notées.
45
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Premier contact
Examen de recevabilité
Décision Rejet
Demande de notation
Etude de notation
Comité
Appel
Publication
de la note Accepté Refusé
Notation
Sans suite
Suivi
46
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Alors qu’une contrepartie peut refuser la note externe qui lui est attribuée où
s’opposer à sa publication, elle ne peut donner son avis sur la manière dont
une banque analyse sa demande de crédit.
47
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Td Tr f r u
Avec :
Td : le prix du crédit ;
Tr : le taux de refinancement ;
f : les frais administratifs ;
r : le coût du risque ;
u : la rémunération du capital.
Le SNI est un outil indispensable pour la mise en place d’une démarche RAROC (Risk
Adjusted Return On Capital), qui constitue une approche de mesure de performance de
la banque en terme de rentabilité ajustée aux risques du portefeuille. La formule RAROC3
permet aussi de définir une règle d’allocation optimale du capital économique.
48
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Dans la plupart des cas, les informations financières sont extraites de la comptabilité de
ces entreprises.
L’utilisation de modèles dans le cadre de la décision de crédit est justifiée par quatre
considérations :
Premièrement, les modèles d’évaluation du risque de crédit permettent de réduire le
temps requis pour l’évaluation de la demande de crédit;
Troisièmement, les modèles contribuent a assurer une certaine cohérence dans les
décisions de crédit relevant d’un même officier ou entre celles prises par différents
officiers de crédit;
49
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
(Dietsch & Petey 2003) a résumé les avantages et les importantes limites des systèmes
experts comme suit :
Les avantages des systèmes experts
- Ils sont construits à partir de l’expérience et font l’objet d’une validation à
postériori.
- Ils sont de nature qualitative, mais intègre toujours des normes quantitatives.
- Ils reproduisent le mode de raisonnement des experts en matière de crédit.
- Ils sont plus précis car ils intègrent des effets de l’environnement.
- Ils ne réclament pas de disposer de longs historiques de données, car ils
s’appuient sur l’expérience des experts. Ceci lui confère un avantage certain
sur les méthodes de scoring.
50
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
résultats de ces systèmes, alors que les modèles de scoring peuvent être soumis
à toute une batterie de tests d’inférence statistique.
Un état des lieux des modèles de crédit scoring sera présenté dans la section 3 après
avoir définit le crédit scoring.
2. Le crédit Scoring
Les premiers modèles de score remontent aux travaux précurseurs de Beaver (1966) et
Altman (1968). En France, la centrale de bilans de la Banque de France a fortement
contribué à leur diffusion (Bardos M. 2001) et ils sont de plus en plus utilisés par les
institutions financières, notamment dans le domaine du crédit à la consommation et du crédit
aux petites et moyennes entreprises.
51
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Le crédit Scoring est le processus d’assignation d’une note (ou score) à un emprunteur
potentiel pour estimer la performance future de son prêt (Feldman, 1997).
Plusieurs explications peuvent être fournies sur la définition et le rôle du crédit Scoring,
elles peuvent être résumées sur la figure ci-dessous :
En résumé, on peut dire que le modèle de score est un outil de mesure du risque de
crédit qui utilise des données historiques et des techniques statistiques. Son objet est de
déterminer les effets de diverses caractéristiques des emprunteurs sur leur chance de faire
défaut. Il résulte de cette application une « fonction score » qui, comme son nom
l’indique, génère des « scores » pour chaque emprunteur. Les institutions financières
peuvent ensuite utiliser ces notes pour ranger les emprunteurs en classes de risque et leur
affecter une probabilité de défaut.
52
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Ainsi, l’objet du crédit Scoring est de prédire le risque et non de l’expliquer; il est
toutefois important de déterminer les facteurs important qui séparent au mieux entre les bons
et les mauvais emprunteurs.
Dans les années cinquante, Fair, Isaac, & Company est habituellement cité comme la
firme a avoir développé les premiers systèmes de crédit Scoring pour les crédits de
consommation aux Etats-Unis. Cette firme continue d’être le leader dans l’industrie du crédit
Scoring (Thomas & al. 2002).
4
Voir Thomas & al. (2002) pour plus de détail sur l’histoire du Crédit Scoring .
53
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
En (1996) Eisenbeis présente une vue générale sur l’histoire et l’application des
techniques de crédit Scoring au portefeuille des banques « business portfolios ».
Les développements cités concernent surtout les pays développés car l’application du
crédit Scoring est assez rare dans les pays en développement5. On peut citer quelques
exemples en Afrique :
Toutefois, des recherches ont été menées pour analyser la probabilité de défaut mais la
plupart n’avaient pas pour objet de faire des prédictions sur les prêts futurs.
5
En Algérie, jusqu’à la fin de la réalisation de cette thèse, il n’y a pas de banque publique qui utilise le crédit
Scoring. Toute fois, la société générale et la banque BNP Paribas utilisent cette technique pour les crédits de
consommation.
54
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
55
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Les statisticiens ont mis au point des techniques d’analyses descriptives qui permettent
d’opérer une sélection dans les données disponibles et de ne conserver que les plus
explicatives.
Ces techniques bien que déjà anciennes, n’ont pu être réellement appliquées qu’à partir
des années 60, avec l’arrivée d’outils de calculs informatiques.
Le but est de faire un tour d’horizon des techniques les plus utilisées et de les
synthétiser afin de mieux comprendre l’intérêt de l’intervention des réseaux de neurones.
Le travail présenté par (Refait 2004) résume la lecture des articles fondateurs. Nous
présentons en premier lieu les trois classes de techniques de classification : les méthodes
statistiques paramétriques, les méthodes non-paramétriques et les méthodes issues de
l’intelligence artificielle.. En second lieu, nous présentons la méthodologie commune des
différentes techniques.
56
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
3.1 Les différentes techniques utilisées pour la construction d’un modèle de scoring
Les études peuvent être répertoriées en trois classes. La plus grande classe regroupe les
méthodes statistiques paramétriques comme l’analyse discriminante linéaire ou quadratique,
et les techniques économétriques. La deuxième classe regroupe les méthodes non
paramétriques comme le partitionnement récursif et les estimateurs à noyau. La classe la plus
récente s’inspire de l’intelligence artificielle comme les réseaux de neurones artificiels et les
algorithmes génétiques.
6
Pour plus de détails, voir Beaver 1966.
7
Pour plus de détails, voir par exemple Bardos 2001.
57
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
partir d’un seul ratio mais sur la base d’une combinaison de plusieurs indicateurs. L’objectif
est alors de déterminer la combinaison optimale qui permet de distinguer au mieux les deux
classes.
Le modèle Logit suppose que les erreurs suivent une loi logistique. Le modèle Probit
suppose que les erreurs suivent une loi normale. Dans les deux modèles, la variable endogène
est une variable qualitative. Elle prend la valeur 0 ou 1 selon que l’entreprise est défaillante ou
non.
Le modèle Probit a été le moins utilisé dans la prédiction de défaillances des
entreprises.
58
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Par contre elle pose des problèmes pour la prévision des entreprises qui n’appartiennent
pas à l’échantillon de construction. En effet, l’échantillon de prévision doit contenir
exactement les mêmes pourcentages d’entreprises des deux classes que l’échantillon ayant
servi à la construction du modèle. Cette hypothèse présente un réel obstacle à l’utilisation de
cette technique.
8
. Voir Frydman H., Altman E., et Kao D, 1985.
59
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Trois groupes G1, G2, G3 sont à discriminer. A chaque nœud sont représentés sur le schéma
les effectifs des groupes et la coupure.
Source : Bardos 2001, p 85
3.1.2.2 Les modèles d’estimation non-paramétrique des lois de distribution des ratios
Afin de résoudre le problème de non-multinormalité des ratios, il est possible d’estimer
la loi de probabilités des ratios par les méthodes non-paramétriques. Les méthodes non-
paramétriques ne s’appuient pas sur une forme spécifique de loi déterminée à priori. Le
principe est de faire un lissage des observations permettant d’estimer une fonction de densité
par une moyenne pondérée locale des fréquences. C’est le principe de la méthode du noyau9.
Un point est pondéré d’autant plus fortement qu’il est proche du point x en lequel la
fonction de densité est estimée. Le paramètre de lissage est crucial car il détermine la taille du
voisinage, c'est-à-dire le nuage de points pris en considération pour estimer localement la
9
Voir Calia et Ganugi 1997.
60
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
10
Pour une illustration, voir Varetto F., 1999
61
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
D’après (Refait 2004), il existe quatre étapes nécessaire à la construction d’un modèle
de prévision de défaillance : la construction d’un échantillon, la sélection des variables
explicatives de la défaillance, le choix du mode de classification des entreprises entre les deux
classes, et enfin l’estimation de la qualité de prévision effectuée.
62
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
63
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
représentativité crée une homogénéité qui est susceptible de créer un biais statistique : des
facteurs explicatifs peuvent être masqués par des effets sectoriels ou des effets de taille.
Afin de concilier ces deux exigences et d’améliorer la qualité de prédiction de la défaillance,
les solutions suivantes ont été préconisées :
- Une bonne représentativité est possible lorsque le nombre d’entreprises exploitées
est élevé. Elle doit cependant être vérifiée par la comparaison entre les
caractéristiques de l’échantillon et celle de la population globale.
- Le fait de limiter la portée de l’indicateur à une population cible, par un secteur
économique limité ou on intervalle restreint de taille d’entreprises.
L’inconvénient de cette méthode est qu’elle exige que soit élaboré un indicateur par
secteur et par taille. Il se pose alors le problème du choix d’agrégation des secteurs
économiques et de l’ampleur des intervalles de taille.
64
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
La divergence entre les études se situe dans la construction de l’échantillon qui sert à
calculer les taux de bons classements, nommé échantillon test. Les études qui utilisent une
très grande base de données mesurent le taux de bons classements à partir d’un autre
échantillon différent de l’échantillon de construction tel que Bardos (1998) et Bardos M. et
Zhu W.H. (1997). Dans d’autres études, l’échantillon de base ou initial est le même que celui
qui est utilisé pour la validation ce qui rend l’indicateur de risque peu performant.
65
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
de bons classements sur le V me groupe. Le taux de bons classements théorique est estimé par
la moyenne des V taux de bons classements empiriques.
Le niveau des taux de bons classements dépend donc, du mode de validation choisi. Les
trois modes de rééchantillonage citées permettent de calculer une moyenne de bons
classements.
L’analyse discriminante est un outil statistique qui peut être utilisé pour des fins
descriptives et de classification afin d’analyser une diversité de situations dans différents
domaines comme la finance, le marketing. Elle est utilisée pour modéliser la valeur d’une
variable dépendante qualitative et sa relation avec un ou plusieurs variables explicatives.
66
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Outre les aspects de l’analyse discriminante, deux méthodes sont à distinguer (Bardos
M. 2001) :
La méthode géométrique : elle ne repose que sur les notions de distances et
ne fait pas intervenir des hypothèses probabilistes. En effet, on remarque dans
la figure ci-dessous une région d’incertitude dans laquelle on trouve des
individus appartenant aux deux groupes. Le but de la méthode géométrique et
de trouver un axe qui permette de minimiser la zone d’incertitude c'est-à-dire
11
Dans le cas de classement, les classes sont connues et le problème devient un problème d’affectation des
individus. Alors que le but de la classification est de construire une ou plusieurs partitions (classes). Les classes
formées doivent être le plus homogène possible.
67
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
La méthode probabiliste : elle fait intervenir, comme son nom l’indique, des
hypothèses probabilistes, et prend ainsi en compte la probabilité a priori
d’appartenir à un groupe.
Dans cette présente étude, c’est la méthode probabiliste qui sera utilisée et dont la
construction sera développée.
Si par exemple la variable aléatoire « classe » vaut « zéro » pour une entreprise
défaillante et « un » pour une entreprise saine et que, par souci de simplification, les
68
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Dans ce cas, on considère que la distribution des entreprises saines et celle des
entreprises défaillantes suivent toutes les deux des lois normales multi variées dont les
matrices de variances-covariances sont égales. La formule de Bayes permet de construire la
fonction score.12
La règle de décision consiste à classer l’observation dans le groupe pour lequel la probabilité
à posteriori est la plus forte et cela revient aussi à la classer dans le groupe selon que son score
soit inférieur ou supérieur à un certain seuil.
12
Pour une démonstration plus détaillée, voir Bardos 2001.
69
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
les variables puis à sélectionner celles qui minimisent le lambda de Wilks (qui fera l’objet de
plus amples explications plus bas). Il est à noter qu’une variable déjà introduite peut être
éliminée car son pouvoir discriminant va être apporté par une combinaison de variables qui
seront introduites par la suite.
La signification de cette statistique entre deux pas est vérifiée par un test de Fisher qui
rejette la signification de l’apport de la variable au pas P+1 si :
On rejette H0 si :
70
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
H0 : ² 0 µ1 = µ2
H1 : ² 0 µ1 µ2
On rejette H0 si :
D’une manière générale, plus la distance de Mahalanobis est grande, meilleure est la
discrimination.
ut B u
u tV u
u : Le facteur discriminant.
B : La variance interclasse.
V : La variance totale.
71
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
La valeur propre n’est que la projection de la variance interclasse sur l’axe discriminant
divisé par la projection de la variance totale sur l’axe discriminant. On peut en déduire que
plus la valeur propre est proche de un plus la discrimination est parfaite.
δ = λ ½
Plusieurs outils sont utilisés pour mesurer la performance d’un modèle. L’on peut citer
les courbes et les indicateurs de performance tels que La courbe ROC (Receiver Operating
Characteristic) et la courbe de CAP (Cumulative Accuracy Profile), la statistique de Mann-
Whitney.
72
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Si le nombre des entreprises saines est n1 et que le nombre des entreprises défaillantes
est n2, alors le nombre total des paires est égal à t = n1.n2 et NC est le nombre de paires
concordantes.
Le test de Mann-Whitney permet de voir si les deux groupes sont bien séparés. Si la
valeur calculée de la statistique est supérieure à la valeur tabulée d’une loi normale de
moyenne μ=0,5 et de variance б² = (n1 + n2+1) / (12. n1. n2) alors l’hypothèse que les deux
groupes ne sont pas séparés est rejetée.
Groupe d’affectation
Groupe réel A B C
A x y z
B r s t
C l m n
Source : Bardos 2001, p9.
Dans ce tableau, les individus qui sont sur les cases de la diagonale principale (AA, BB
et CC), sont bien classés, les autres sont mal classés.
xsn
Le taux global de bons classements est :
x y zr st l mn
x
Le taux de bons classements dans la classe A est :
x yz
73
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
y zr t l m
Le taux global d’erreur de classement est :
x y zr st l mn
L’objectif est de parvenir à définir une règle d’affectation ayant un faible taux d’erreur.
Cette règle sera utilisée pour prévoir l’appartenance à un groupe d’un nouvel individu hors
échantillon (c'est-à-dire hors de l’échantillon qui a servi à construire le modèle ou la règle)
dont le groupe d’appartenance est inconnu.
74
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
75
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring
Conclusion
Pour tirer le maximum d’avantage et de précision dans ses résultats, l’utilisation d’un
modèle de Scoring doit être adaptée à la population pour laquelle il est destiné.
Un modèle de Scoring (construit à l’aide de l’ADL) n’est pas le modèle parfait. Bien
qu’il apporte beaucoup de performance à la gestion, son utilisation doit se faire d’une manière
étudiée pour tirer le plus de ses avantages et subir le moins ses inconvénients.
Le chapitre suivant présente les fondements théoriques de l’approche neuronale qui est
moins contraignante que l’analyse discriminante.
76
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Introduction
Conçus à l'origine comme des modèles mathématiques très simplifiés de notre cerveau,
les réseaux de neurones formels ou artificiels (R.N.A) sont des systèmes d'apprentissage par
exemple, imitant en cela la façon dont nous apprenons par essais, erreurs et corrections
successives à effectuer des tâches complexes.
1
Il existe d’autres termes pour désigner les réseaux de neurones artificiels : les modèles cognitives, les systèmes
connexionnistes, les modèles mimétiques et les modèles parallèles.
77
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Le chapitre commence par un aperçu historique des RNA, il présente ensuite le mode de
fonctionnement, ainsi que les différentes architectures des réseaux, il définit ensuite les
différentes étapes de mise en œuvre d’un réseau neuronal et se termine par un survol des
applications des RNA dans le domaine de la finance.
78
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
1. Historique
De façon générale, on situe le début des réseaux de neurones artificiels en 1943 avec les
travaux de MC CULLOCH et PITTS qui montrèrent qu’un réseau de neurones discret, sans
contrainte de topologie, peut représenter n’importe quelle fonction booléenne et donc émuler
un ordinateur.
79
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
En 1969, MINSKY et PAPERT publient le livre Perceptrons dans lequel ils utilisent une
solide argumentation mathématique pour démontrer les limites des réseaux de neurones à une
seule couche. Ce livre avait une influence telle que la plupart des chercheurs abandonnèrent le
champ de recherche sur les réseaux de neurones.
Face aux limites de l’approche neuronale, des auteurs comme SIMON et MINSKY se sont
orientés vers une nouvelle voie de l’intelligence artificielle tentant de reproduire le
raisonnement humain à partir d’une approche symbolique. Les systèmes experts font alors leur
apparition et gagnent leur titre de noblesse.
En 1982, HOPFIELD propose des réseaux de neurones associatifs et l’intérêt pour les
réseaux de neurones renaît chez les scientifiques.
Le retour à l’approche neuronale s’amorce alors dans les années quatre-vingt (80). Les
chercheurs ne tentent plus d’imiter le fonctionnement du cerveau humain et des neurones
biologiques en tout point, mais s’en servent simplement pour guider leurs recherches. Ainsi,
une solide alliance naît entre neurophysiologues et neuroinformaticiens. Ces derniers se
basent sur les découvertes faites au niveau du fonctionnement du cerveau humain, pour tenter
d’appréhender une intelligence qui serait artificielle, tandis que les neurophysiologues tentent
de modéliser le cerveau humain par ordinateur.
80
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
délocaliser et en se diffusant dans chaque neurone artificiel. Ainsi, le neurone est à la fois
organe d’entrée, sortie, de mémoire et de traitement.
2
Il faut rappeler que l’approche neuronale qui se base sur un principe de parallélisme est simulée sur des
ordinateurs séquentiels. Il n’existe pas encore d’ordinateur dont le hardware est construit la neuro-puce.
81
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Le cerveau humain est composé d’environ vingt cinq (25) milliards de neurones à la
naissance et atteint ensuite , à l’âge adulte, le nombre approximatif de cent (100) milliards de
neurones interconnectés qui font circuler l’information.
Le neurone est une unité cellulaire de relais et d’interprétation de signaux situés dans le
système nerveux et cérébral (Figure 3.1).
SYNAPSE
82
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Il faut préciser qu’un neurone pris indépendamment des autres ne représente pas un
grand intérêt. C’est la combinaison de l’ensemble des neurones qui fait la richesse du cerveau
humain.
2.1 Définitions
Il n’y a pas de définition universelle des réseaux de neurones artificiels. Nous proposons
ci-après quelques définitions proposées par la littérature.
83
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Un neurone est une fonction non linéaire, paramétrée, à valeurs bornées (Dreyfus 2004,
p3).
On peut déduire que le neurone formel, n’est donc qu’une unité de calcul qui imite de
façon très simple le fonctionnement d'un neurone biologique (figure ci-après).
O1 Neurone j
W1j
Oi Wij Σ F(Σ)=θ
Oj
Wmj
Om
Σ = wij .oi
i 1
Ici, le neurone j reçoit des signaux, Oi, i = 1..m, en provenance des neurones i. Le niveau
d'activation du neurone j, Σ, est la somme des signaux Oi pondérés par les poids synaptiques
Wij. Un signal Oj est émis par le neurone j si le résultat de sa fonction d'activation F(Σ) est
supérieur au seuil d'activation θ.
84
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
2.1.3 L’apprentissage
On appelle apprentissage des réseaux de neurones la procédure qui consiste à estimer
les paramètres des neurones du réseau, afin que celui-ci remplisse au mieux la tâche qui lui est
affectée (Dreyfus & al. 2004, p10).
Afin que le réseau puisse découvrir la forme de la relation entre les variables, il suit, en
général, deux types d’apprentissage: l’apprentissage supervisé et l’apprentissage non
supervisé (cf. § 2.2.3):
Un apprentissage est dit supervisé lorsque l’on force le réseau à converger vers un état
final précis, tout en lui présentant une forme donnée.
85
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Un apprentissage est dit non supervisé lorsque le réseau est laissé libre de converger
vers n’importe quel état final, tout en lui présentant une forme donnée.
Un réseau de neurones non bouclé est donc représenté graphiquement par un ensemble
de neurones« connectés » entre eux, l’information circulant des entrées vers les sorties sans
« retour en arrière » : si l’on représente le réseau comme un graphe dont les nœuds sont les
neurones et les arêtes les « connexions » entre ceux-ci, le graphe d’un réseau non bouclé est
acyclique : si l’on se déplace dans le réseau, à partir d’un neurone quelconque, en suivant les
connexions, on ne peut pas revenir au neurone de départ. Les neurones qui effectuent le
dernier calcul de la composition de fonctions sont les neurones de sortie ; ceux qui effectuent
des calculs intermédiaires sont les neurones cachés (voir figure 3.5).
86
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
0 3 0
0 5 g(kT)
U1(kT)
1 0
1
1
0 4
U2(kT)
Source : Dreyfus & al. 2004, p8
Réseau bouclé à deux entrées. Les chiffres dans les carrés indiquent le retard attaché à chaque
connexion, multiplié de l’unité de temps (ou période d’échantillonnage) T. le réseau contient un
cycle qui va du neurone 3 au neurone 4 et revient au neurone 3.
Ainsi, à chaque connexion d’un réseau de neurones bouclé (ou à chaque arête de son
graphe) est attaché, outre un poids comme pour les réseaux non bouclés, un retard, multiple
entier (éventuellement nul) de l’unité de temps choisie. Une grandeur, à un instant donné, ne
pouvant pas être fonction de sa propre valeur au même instant, tout cycle du graphe du réseau
doit avoir un retard non nul.
87
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
A partir de cette valeur, une fonction de transfert (fonction d'activation) calcule l'état de
la valeur du neurone. C'est cette valeur qui sera transmise aux neurones avals. Il existe de
nombreuses formes possibles pour la fonction d’activation. La plupart de ces fonctions sont
continues, offrant une infinité de valeurs possibles comprises dans l'intervalle [0, 1] ou [-1, 1].
Plusieurs fonctions répondant à cet impératif peuvent être utilisées, mais la plus
communément utilisée est la fonction sigmoïde. Le tableau ci-dessous résume ces fonctions.
88
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
modifié jusqu'à obtention du comportement désiré. L'apprentissage neuronal fait appel à des
exemples.
On n’a aucune idée a priori sur le modèle : on choisit une forme d’équation aussi
générale que possible, et l’on ajuste les paramètres de cette équation de manière à lui conférer
la meilleure capacité de généralisation possible. On ne s’intéresse pas particulièrement aux
valeurs de ces paramètres mais on s’intéresse à la capacité de généralisation du modèle.
Autrement dit, on cherche à estimer la qualité des prédictions que le modèle peut effectuer
dans des situations qu’il n’a pas rencontrées dans l’apprentissage.
89
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
L’apprentissage supervisé
Il consiste en l’existence d’un échantillon sur lequel le réseau apprend (s’entraîne) à
reconnaître les formes (figure 3.4). On connaît donc, en tous points ou seulement en
certains points, les valeurs que doit avoir la sortie du réseau en fonction des entrées
correspondantes : c’est en ce sens que l’apprentissage est dit supervisé. Ce qui signifie
qu’un « professeur» peut fournir au réseau des « exemples » de ce que celui-ci doit
faire. Cette technique s’opère à l’aide de l’algorithme de rétropropagation du gradient
présenté ci-après.
Echantillon
de validation
Echantillon
d’apprentissage
Nombre
d’itérations
Nombre d’itérations donnant la meilleure
performance en généralisation
90
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
etc., θj, j seuils des neurones et la fonction f étant une fonction de transfert sigmoïde.
4 - Modifier les connexions, récursivement.
Wij représente la connexion la connexion entre le neurone i et le neurone j, xi représente la sortie
du neurone i.
Wij (t 1) Wij (t ) .j.xj
j xj (1 xj )(sj xj ) si les (x1, x2, ... , xM) sont les sorties des neurones de la
couche de sortie.
j xj (1 xj ) p.Wjp La somme se fait sur tous les neurones de la couche
p
supérieure connectés au neurone j.
est le coefficient d’apprentissage.
3
Les données disponibles doivent être réparties en trois sous-ensembles (apprentissage, validation et test) à
raison de 60%, 30% et 10% respectivement.
91
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
poids synaptiques tout en minimisant une fonction de coût. Cette dernière n’est, en fait, que la
somme des carrés des erreurs produits par le réseau eu égard le résultat souhaité.
Il n'est pas possible d'énumérer l'ensemble des types de réseaux de neurones disponibles
à ce jour. Cependant, à titre illustratif on présente les modèles les plus populaires. Les
chercheurs n'ont cessé d'inventer de nouveaux types de réseaux toujours mieux adaptés à la
recherche de solutions de problèmes particuliers. On présentera trois types de réseaux de
neurones : le perceptron multi couches, les réseaux de HOPFIELD, et les réseaux de KOHONEN.
Le Perceptron multicouches (Multi Layer Perceptron) est sans doute le plus simple et le
plus connu des réseaux de neurones. La structure est relativement simple : une couche
d'entrée, une couche de sortie et une ou plusieurs couches cachées. Chaque neurone n'est relié
qu'aux neurones des couches précédentes, mais à tous les neurones de la couche précédente.
La fonction d'activation utilisée est en générale une somme pondérée.
92
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Ces réseaux sont des réseaux bouclés ou récurrents, un peu plus complexes que les
Perceptrons multicouches. Chaque cellule est connectée à toutes les autres et les changements
de valeurs de cellules s'enchaînent en cascade jusqu'à un état stable. Ces réseaux sont bien
adaptés à la reconnaissance de formes. D’après (Dreyfus 2004), la sortie d’un neurone du
réseau peut donc être fonction d’elle-même ; cela n’est évidemment concevable que si la
notion de temps est explicitement prise en considération.
Ce réseau est formé de N neurones ne pouvant envoyer et recevoir que des valeurs
binaires [+1,-1], la fonction de transfert de chaque neurone est une fonction à seuil. Ce réseau
peut être utilisé pour résoudre des problèmes comme celui du voyageur de commerce, où il
s’agit de minimiser la distance parcourue en visitant N villes sans passer deux fois par la
même (Lemberg 71).
93
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
D’après (Tuillier 1997, p4), le concept de réseau non supervisé est issu des observations
des neurobiologistes sur la cartographie cérébrale qui s'auto-structure dans les premières
années d'existence de l'être humain. Le réseau artificiel, qui ne comprend pas de couche
cachée, est globalement basé sur le même principe : lorsque l'on présente la base de données
au réseau lors de l'apprentissage, un seul neurone de la couche de sortie est activé par une ou
plusieurs informations d'entrée (pour autant que celles-ci soient suffisamment voisines).
94
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Les réseaux de KOHONEN dont on parle généralement sans les distinguer, décrivent en
fait trois familles de réseaux de neurones :
Vector Quantization (VQ) : ils sont basés sur l’apprentissage non supervisé.
Introduite par Grossberg (1976), la quantification vectorielle est une méthode
généralement qualifiée d'estimateur de densité non supervisé. Elle permet de
retrouver des groupes sur un ensemble de données, de façon relativement similaire à
un k-means algorithm que l'on préfèrera d'ailleurs généralement à un VQ si la
simplicité d'implémentation n'est pas un élément majeur de la résolution du
problème.
Self Organizing Map (SOM) : ils sont basés sur l’apprentissage non supervisé. Les
SOM sont issus des travaux de FAUSETT (1994) et KOHONEN (1995). Ces réseaux
sont très utilisés pour l'analyse de données. Ils permettent de cartographier en deux
dimensions et de distinguer des groupes dans des ensembles de données. Les SOM
sont encore largement utilisés mais les scientifiques leur préfèrent maintenant les
LVQ.
Learning Vector Quantization (LVQ) : ils sont basés sur l’apprentissage supervisé.
Les réseaux utilisant la méthode LVQ ont été proposés par Kohonen (1988).
Des trois types de réseaux présentés ici, la LVQ est la seule méthode qui soit réellement
adaptée à la classification de données par "recherche du plus proche voisin".
95
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
En général, la conception d'un modèle passe par deux étapes bien distinctes. La première
est le choix d'un type de modèle, plus précisément d'une structure de modèle, ce qui revient à
fixer la relation mathématique qui va être utilisée comme modèle, y compris le nombre de ses
paramètres. La seconde étape s'appelle l'apprentissage, et fait l'objet de très nombreux travaux
de recherches. Chaque modèle (perceptron multi-couches, réseaux à fonctions radiales de
base, etc.) est connu avec son ou ses algorithmes d'apprentissage, plus ou moins complexes,
destinés à estimer au mieux les paramètres du modèle. Même si de nombreux travaux de
recherches perdureront encore longtemps en vue d'améliorer les performances des algorithmes
d'apprentissage, des solutions satisfaisantes existent dans de nombreux cas (Verleysen M.,
Lendasse A. 2003).
La première chose à faire n'est pas de choisir le type de réseau mais de bien choisir ses
échantillons de données d'apprentissage, de tests et validation. Ce n'est qu'ensuite que le choix
du type de réseau interviendra.
Afin de clarifier un peu les idées, voici chronologiquement les quatre grandes étapes qui
doivent guider la création d'un réseau de neurones :
96
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Validation et Tests : alors que les tests concernent la vérification des performances
d'un réseau de neurones hors échantillon et sa capacité de généralisation, la validation
est parfois utilisée lors de l'apprentissage. Une fois le réseau calculé, il faut toujours
procéder à des tests afin de vérifier que notre réseau réagit correctement. Il y a
plusieurs méthodes pour effectuer une validation (cf. §1.1.3 du chapitre2) dans le cas
général, une partie de l'échantillon est simplement écarté de l'échantillon
d'apprentissage et conservé pour les tests hors échantillon. Dans les cas de petits
échantillons, on ne peut pas toujours utiliser une telle distinction, simplement parce
qu'il n'est pas toujours possible d'avoir suffisamment de données dans chacun des
groupes ainsi crées. On a alors parfois recours à des procédures comme la validation
croisée pour établir la structure optimale du réseau.
97
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Les réseaux de neurones sont maintenant une technique de traitement de données bien
comprise et maîtrisée. Ils permettent de faire des prévisions, d’élaborer des modèles, de
reconnaître des formes ou des signaux, etc.
Par conséquent, la diffusion des réseaux de neurones dans le monde n’est pas
homogène. Leur progression et le nombre d’applications sont plus élevés aux Etats-Unis qu’en
Europe.
Nous essayons, à travers les lectures faites, de situer les domaines qui s’ouvrent aux
applications des réseaux de neurones. Cette liste n’est en aucun cas exhaustive, nous
présentons brièvement, dans un premier temps, les exemples dans divers domaines. Nous nous
intéressons, particulièrement aux applications spécifiques à la finance.
98
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Diagnostic et control d’un procédé de fabrication comme celui réalisé par Sollac
pour le diagnostic de la qualité de soudure par points.
4
ESPCI : École Supérieure de Physique et de Chimie Industrielles à Paris.
99
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Adam, Lin Chien-Hua 2001)5. Nous avons distingué quatre domaines : le «business
forecasting», la gestion de portefeuille, la prévision de faillite et l’octroi de crédit. Il s’agit de
domaines classiques d’application des méthodes de prévision et de classification les plus
usuelles
5.2.1 Le « Business Forecasting » : les réseaux de neurones artificiels sont utilisés dans
beaucoup de secteurs d’activité. Voici trois applications de prévision : la prévision de
la consommation électrique, la prévision du prix de la farine, et la prévision des résultats
financiers. Cette dernière est bien une application qui relève de la planification financière.
– Rajagopalan, Jongepier, van der Sluis (1992) : Les indicateurs utilisés par les
auteurs sont : la prévision de la température minimale et maximale, la prévision de
la vitesse du vent, et la consommation électrique un an auparavant. La base de
données utilisée contient 61 cas pour les mois de mars et avril 1990.
– Dorizzi, Duval, Debar (1992) : Les données utilisées sont les consommations demi
horaires (s’étalant du 01/01/86 au 31/12/91), corrigées par l’élimination des ruptures
importantes et des jours de fêtes. Un certain nombre de données climatiques sont
également utilisées.
– Mangeas, Cottrell, Girard, Girard, Muller (1993): Les données utilisées couvrent
la période 1986-1990. L’année 1991 est utilisée comme jeu de test.
5
L’article présente une étude très intéressante concernant essentiellement la finance.
100
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
5.2.2 La gestion de portefeuille : Les marchés financiers ont constitué, ces dernières années,
le domaine d’application en finance pour les réseaux de neurones et ce pour deux
raisons au moins. La première est la disponibilité d’un grand nombre de données, ce qui
conduit naturellement à un archivage systématique des transactions, prix, volumes et
autres informations utiles. La seconde est l’espoir de gains importants et rapides par
l’utilisation d’une « technologie révolutionnaire » associée aux importants moyens
modernes de calcul.
b/ Sélection d’actions
– Swales, Yoon (1992) : Les données utilisées sont de nature qualitative et
proviennent essentiellement d’une analyse de contenu de la lettre annuelle du
101
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
– Azoff (1994) : Prévision de contrats à terme sur le taux de change entre le dollar
américain et la livre sterling.
5.2.3 La prévision de faillite et l’octroi de crédit : Le parcours des applications portant sur la
prévision de faillite et l’octroi de crédit nous a conduit à grouper la présentation de ces
deux domaines d’application. Les méthodes utilisées sont en effet fort semblables et
102
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
séparer les deux domaines aurait inévitablement conduit à des répétitions inutiles. Voici
quelques exemples d’applications :
a/ Prévision de faillite :
– Coats et Fant (1992) : Les données proviennent de la base de données
COMPUSTAT. L’étude concerne 188 entreprises dont 94 entreprises identifiées
comme malsaines.
– Tam et Kiang (1992) : Echantillon composé de 118 banques du Texas dont 59 ont
fait faillite et 59 étaient saines. Chaque paire a été constituée en tenant compte de la
taille de la banque, du nombre de succursales, de l’âge et de son statut. Les données
ont été collectées sur deux années (un an et deux ans avant la faillite). 19 ratios ont
été calculés pour chaque banque et regroupés en 5 catégories.
– Wilson et Sharda (1994) : Echantillon composé de 129 entreprises dont 65 ont fait
faillite et 64 sont saines. Les données ont été prises sur la période 1975-1982. Elles
ont été sélectionnées à partir des “Moody’s Industrial Manuals”.
b / Octroi de crédit :
– Madey and Denton (1990) : 300 dossiers de décision d’octroi de crédit étudiés par
une filiale d’un grand groupe pétrolier.
– Reilly, Collins, Scofield and Ghosh (1990): 1602 prêts hypothécaires accordés
durant les années 1984, 1985 et 1986. L’état des remboursements a été évalué à fin
1987 afin de classer les prêts en deux catégories.
103
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
– Smith (1990) : Le système est opérationnel depuis 1988. Sa mise en place a permis
un accroissement de 18% des profits de l’entreprise utilisatrice par rapport aux
performances des systèmes classiques (fondés sur des modèles d’analyse
discriminante).
104
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)
Conclusion
Après avoir mis en avant les concepts théoriques de base se rapportant aux réseaux de
neurones artificiels, ainsi que les conditions de leur mise en œuvre. Nous avons remarqué à
travers le survol des domaines d’application, que la prévision est le champ d’études privilégié
des RNA. C’est dans cette optique que nous allons mettre en pratique ses fondements à travers
une étude empirique touchant un problème crucial de la finance bancaire qui est l’évaluation
du risque de crédit de défaillance des emprunteurs.
105
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Introduction
Comme nous l’avons déjà mentionne dans l'introduction, le but de cette recherche est
de développer un modèle de risque de crédit pour la prévision de la défaillance des petites et
moyennes entreprises algérienne à l’aide de certaines de leurs caractéristiques.
Deux techniques ont été utilisées pour développer les modèles. La première technique
est une technique statistique paramétrique très répandue basé sur l’analyse discriminante et la
deuxième est une approche neuronale issue de l’intelligence artificielle. Nous avons eu
recours au logiciel SPSS 10 (Statistical Package for Social Science) pour mettre en œuvre la
technique de l’ADL et la programmation à l’aide de MATLAB 7.0 (Matrix Laboratory : the
language of technical computing) pour la technique neuronale.
Nous avons présenté en détail, dans ce qui précède, les principes et la méthodologie de
chacune des deux méthodes pour l’évaluation du risque de défaillance.
106
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
107
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Nous allons donc présenter les différents éléments relatifs à l’échantillon expérimental
et ses caractéristiques statistiques. En particulier :
- La base de données utilisée
- Le critère de classement.
- La description des variables utilisées.
108
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
2. Les entreprises à problèmes potentiels : cette classe contient les entreprises dont le
recouvrement intégral, en dépit d’un retard qui reste raisonnable, parait encore
assuré. Ces entreprises ont des difficultés de remboursement des intérêts et / ou du
principal depuis plus de trois (03) mois dont le retard est inférieur à six (06) mois ;
3. Les entreprises très risquées : cette classe contient les entreprises dont le
recouvrement intégral parait très incertain, et dont la situation financière laisse
entrevoir des pertes probables. Les retards dans le paiement des intérêts ou du
principal échus se situent entre six (06) mois et un (01) an ;
4. Les entreprises compromises : cette classe contient les entreprises défaillantes qui
n’ont pas pu honorer leurs engagements envers la banque.
1. Article 9 de l’instruction N° 34-91 du 14 novembre 1991 relative à la fixation des règles prudentielles de
gestion des banques et établissements financiers.
109
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
D’une part, on dispose des bilans des entreprises qui peuvent être examinés sur les
années passées2. D’autre part, on dispose d’information sur les ouvertures de procédures
judiciaires, notamment les dates de ces dernières.
2. Pour une demande de crédit, les banques exigent les bilans des trois dernières années
110
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
111
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
112
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
113
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Le graphique montre que plus de la moitié des clients sont des sociétés à responsabilité
limitée suivis par les EURL qui occupent presque le quart des relations de la banque.
Le graphique montre que plus des ¾ des entreprises clientes se situent hors Alger. Ceci
peut s’expliquer par l’encouragement des projets à travers le territoire national.
114
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Le graphique indique que la banque finance les jeunes entreprises (ne dépassant pas
cinq ans) pour encourager les nouveaux projets et ainsi faire face à la concurrence.
115
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
ni n j
N
Où :
nij : la fréquence réelle dans la i me ligne et la j me colonne.
nij/N : la fréquence prévue dans la i me ligne et la j me colonne.
P : le nombre de lignes.
k : le nombre de colonnes.
En pratique, cette analyse a été menée en utilisant les tableaux croisés à l’aide SPSS et
les statistiques y afférents (Khi-deux, coefficients de contingence etc.).
116
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Le tableau indique que les clients exerçant dans le domaine de l’industrie ont la
proportion la plus élevée. Cette proportion est répartie de la même manière sur les quatre
classes, ce qui reflète l’indépendance de ces deux variables. Ceci est confirmé par R 2 = 7,25%
et qui est inférieur à 50%.
117
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Le calcul de R2 a donné une valeur de 8,65% qui est nettement inférieure à 50% ce qui
implique une indépendance entre l’âge et le degré de solvabilité.
Le calcul de R2 a donné une valeur de 17,86% qui est nettement inférieure à 50% ce qui
implique une indépendance entre l’âge et le degré de solvabilité.
118
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Le tableau fait ressortir que la proportion est presque égale et que la banque accorde des
crédits aux deux catégories de clients : nouveaux ou anciens. Ceci justifie l’indépendance de
type de demande avec le degré de solvabilité. Ceci est confirmé par R2 = 12,14% et qui est
inférieur à 50%.
119
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
120
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Lambda
de Wilks F ddl1 ddl2 Signification
R1 ,984 ,857 3 163 ,465
R2 ,619 33,496 3 163 ,000
R3 ,391 84,736 3 163 ,000
R4 ,934 3,851 3 163 ,011
R5 ,949 2,933 3 163 ,035
R6 ,940 3,447 3 163 ,018
R7 ,946 3,111 3 163 ,028
R8 ,623 32,938 3 163 ,000
R9 ,949 2,898 3 163 ,037
R10 ,950 2,869 3 163 ,038
R11 ,981 1,057 3 163 ,369
R12 ,967 1,869 3 163 ,137
R13 ,945 3,178 3 163 ,026
R14 ,943 3,302 3 163 ,022
R15 ,958 2,399 3 163 ,070
R16 ,981 1,076 3 163 ,361
R17 ,981 1,039 3 163 ,377
STAT ,978 1,206 3 163 ,309
SECT ,971 1,612 3 163 ,189
NAT ,940 3,458 3 163 ,018
CAT_AGE ,993 ,408 3 163 ,747
LOC ,968 1,798 3 163 ,150
Source SPSS
Ainsi, on obtient des valeurs significatives (risque α<0.0005) pour les valeurs de
F=32.55, F=84.16 et F=32.74. L’hypothèse nulle d’égalité des moyennes des différents
groupes d’entreprise pour les variables R2, R3 et R8 est rejetée.
Etant donné que ces variables sont les plus discriminantes, l’existence des groupes est donc
justifiée.
121
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Source SPSS
Source SPSS
Dans ce cas la corrélation canonique est égale à 0.89 pour la première fonction
discriminante, proche de 0.8 pour la seconde et proche de 0.6 pour la dernière. Donc le test
est vérifié, le modèle est validé.
122
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Test de la ou Lambda
des fonctions de Wilks Khi-deux ddl Signification
de 1 à 3 ,051 475,168 21 ,000
de 2 à 3 ,245 224,569 12 ,000
3 ,617 77,044 5 ,000
Source SPSS
Dans ce cas, le Lambda de Wilks est significatif pour les trois fonctions. Il est meilleur
pour la première fonction discriminante et égal à Λ1=0.051. Les fonctions sont donc valides.
Les trois tests sont vérifiés. Il s’agit maintenant de construire la fonction score et de
vérifier la performance du modèle.
123
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
choisir la plus pertinente. Le pouvoir discriminant des axes est donné par le tableau des
coefficients des fonctions discriminantes.
Tableau 4.3.2
Coefficients des fonctions discriminantes canoniques
Fonction
1 2 3
R2 3,609 -2,117 -,454
R3 ,244 ,317 ,035
R8 -,923 ,035 4,033
R11 -,971 ,566 ,157
R12 ,018 ,043 ,005
R15 ,012 -,024 -,030
R16 ,010 ,005 ,003
(Constante) -1,000 -,167 -1,251
Coefficients non standardizes Source: SPSS
D’après le test précédent, seul la première valeur de Lambda de Wilks est significative
avec une probabilité nulle au seuil de risque α=0.05. Il n’y a donc qu’une seule fonction
discriminante (Z) réellement utilisable, à savoir la première. Le tableau 4.3.2 des coefficients
des fonctions discriminantes canoniques nous donne la fonction de score suivante :
Z = 3,586*R2 + 0,246*R3 – 0,919*R8 – 0,964*R11 + 0,18*R12 + 0,12*R15 + 0,10*R16 - 1,024
124
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Une fois le score calculé, le banquier doit être en mesure de classer l’entreprise dans
l’une des quatre classes (saine, problème potentiel, très risquée ou compromise). Pour cela,
une note limite est calculée pour chaque groupe, afin d’affecter chaque entreprise dans le
groupe adéquat. Ces scores sont calculés à partir du tableau des fonctions aux barycentres des
groupes :
125
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Le tableau indique que le modèle de l’ADL donne un taux de bon classement global de
85,5% pour l’échantillon de construction :
- Sur les 70 entreprises a priori saines 66 ont été classées saines ;
- Sur les 35 entreprises a priori à pb. potentiels 28 ont été bien classées ;
- Sur les 37 entreprises a priori très risquées 34 ont été classées très risquée ;
- Sur les 24 entreprises a priori compromises 14 ont été classées compromises.
Donc sur 166 entreprises 142 ont été bien classées soit 142/166 = 85,54%. D’où le taux
d’erreur global est de 14,46%
126
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Cette fonction discriminante semble performante, les quatre classes ont de bon taux de
classement. Comme tout travail statistique, il reste à élaborer la dernière étape, qui est celle de
la validation du modèle.
2 – calculer le minimum des distances : Min = minimum (Di1, Di2, Di3, Di4) ;
127
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
128
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Le tableau indique que le modèle de l’ADL donne un taux de bon classement global de
72% pour l’échantillon de validation :
On remarque alors que l’ADL, nous donne un taux global de bons classements de 72 %,
avec un taux d’erreur de 28 %. Ces taux confirme la fiabilité des résultats obtenus et assure la
robustesse du modèle obtenu.
Nous allons appliquer, dans le paragraphe suivant, une autre méthode d’évaluation du
risque de crédit à savoir la technique des réseaux de neurones artificiels.
129
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
La méthode de l’ADL utilise des variables linéaires pour construire les fonctions scores,
c'est-à-dire qui constituent des critères monotones. Dans le but d’améliorer ce résultat, on
applique la technique neuronale aux mêmes données. Ceci permettra de prendre en compte la
non linéarité des variables.
Un modèle qui ne prend compte que les variables retenues par l’ADL, c’est-à-dire les
sept ratios uniquement (réseau n°2).
130
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Classe 1
Classe 2
22 neurones
Classe 3
Classe 4
3
Ce nombre est obtenu en présentant les mêmes exemples au modèle et en modifiant progressivement le
nombre de neurones sur la couche cachée jusqu'à convergence du réseau vers l'erreur désirée.
4
Cette appellation provient de la neurobiologie : une des théories de la représentation des informations dans les
systèmes nerveux soutient que certains de nos neurones sont spécialisés dans la reconnaissance de formes
usuelles, notamment du visage de notre grand-mère (Dreyfus 2004, p36).
131
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
exp( x) exp( x)
- La fonction tangente hyperbolique pour la couche cachée : g ( x)
exp( x) exp( x)
132
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
5
Ce paramètre indiquer la performance du réseau à reconnaitre les formes qui lui sont présentées. Dans le cas
du sur-apprentissage, le réseau ne pourra reconnaitre que les formes similaires ce qui entraine une faible capacité
de généralisation (c’est le cas de l’apprentissage « par cœur »)
133
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Comme indiqué dans le tableau, le meilleur taux de bons classements est 89,02 %. Il
est donné par les valeurs de = 0,75, = 0,80 et = 0,85. La plus petite erreur est 0,01
donnée par = 0,75 et = 0,80. Les valeurs qui seront retenues sont : 0,80
SSE = 0,01
Dans ce cas le réseau converge plus vite et réalise le meilleur taux de bons classements.
134
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Comme indiqué par le tableau, nous avons procédé à 22 tests différents. Le meilleur
taux de classement est donné par N = 16, suivi des réseaux à 17 neurones, 14 neurones et
enfin 10 neurones cachés (voir annexe C1). Ceci est confirmé par les courbes
d’apprentissages suivantes :
2 2
10 10
1 1
10 10
Training-Blue Goal-Black
Training-Blue Goal-Black
0 0
10 10
-1 -1
10 10
-2 -2
10 10
-3 -3
10 10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
46844 Epochs 4 200000 Epochs 5
x 10 x 10
Les résultats obtenus durant la phase de validation sont présentés dans les tableaux
ci-après :
135
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
136
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Sachant que le taux global de bons classements est 90,24 %, alors que le taux global de
mauvais classement est 9,76 %.
Comme nous l’avons déjà présenté au paragraphe 3.2, l’ADL a retenue sept (7) ratios à
savoir : R2, R3, R8, R11, R12, R15 et R16. Le réseau n°2 est un réseau de type Perceptron
multicouches de type feed-forward.
Classe 1
R3
Classe 2
7 neurones
Classe 3
R16 Classe 4
137
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Deux fonctions d'activation ont été utilisées : la fonction sigmoïde pour la couche de
sortie et la fonction tangente hyperbolique pour la couche cachée.
Comme indiqué par le tableau, nous avons procédé à 18 tests différents. Le meilleur
taux de classement est donné par N = 10, suivi des réseaux à 16 neurones et enfin le réseau à
9 neurones (voir annexe C2). Ceci est confirmé par les courbes d’apprentissages suivantes :
138
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
2
2 10
10
1
10
1
10
Training-Blue Goal-Black
Training-Blue Goal-Black
0
10
0
10
-1
10
-1
10
-2
10
-2
10
0 0.5 1 1.5 2 2.5 -3
10
255031 Epochs 5
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
x 10
200000 Epochs 5
x 10
139
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
1 0.9998
1 0.9574
1 0.9444
1 0.9604
1 0.9992
1 0.9997
1 0.9797
1 0.9996
1* 0.0000
1 0.9917
* : observation mal classée.
Source : Résultats fournis par le programme Credit2 développé sous Matlab
Tableau 4.4.8 : Les résultats de classement du modèle neuronal n°2 réalisé pour
l’échantillon test et validation (N = 10)
Bons classements Mauvais classements
Entreprises Nombre Taux Nombre Taux
Classe 1 31 88,57 % 4 11,42 %
Classe 2 17 94,44 % 1 5,55 %
Classe 3 19 100 % 0 0%
Classe 4 4 40 % 6 60 %
TOTAL 71 86,59 %, 11 13,41 %.
Source : Résultats fournis par le programme Credit2 développé sous Matlab
Sachant que le taux global de bons classements est 86,59 %, alors que le taux global de
mauvais classement est 13,41 %.
140
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
D’après ce tableau, on déduit que le meilleur résultat est donné par le modèle de réseau
n°1. C'est-à-dire celui qui prend en compte toutes les variables introduites
Ceci est dû au fait que tous les ratios utilisés dans l'analyse discriminante ne permettent
pas une discrimination linéaire. Aussi le modèle de R.N.A est capable d'identifier les
exemples qui ne lui ont été jamais présentés (phase test) grâce à sa capacité de généralisation.
Ainsi la performance de cet outil est toujours supérieure ou égale à celle obtenue par des
techniques classiques.
L'apport supplémentaire de l'analyse discriminante par rapport aux R.N.A est de fournir
des probabilités d'appartenance à chacun des groupes connaissant le score.
141
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Comme l’a signalé (Paquet 1997b) et d’autres auteurs, par rapport aux modèles
classiques d’analyse statistique, les réseaux de neurones artificiels possèdent plusieurs
avantages :
1. Ils permettent, comme on l’a déjà souligné, de traiter des problèmes non structurés,
c'est-à-dire des problèmes sur lesquels on ne dispose d’aucune information à priori. En
effet, il n’est pas nécessaire de connaître la distribution de probabilité des variables
comme c’est le cas des méthodes d’analyse discriminante.
2. Ils sont tout à fait adaptés pour traiter des problèmes non linéaires éminemment
complexes. Ils sont capables de découvrir eux-mêmes les relations entre les variables.
Cet aspect est très intéressant car il n’oblige pas le concepteur à spécifier la forme de la
fonction de séparation dans le cas d’une classification.
3. Ils sont capables de traiter un grand nombre d’exemples cela est possible grâce à la
grande capacité de stockage des réseaux de neurones. En effet, pour constituer la base
d’apprentissage et la base de test, un réseau de neurone nécessite un grand nombre
d’exemples.
142
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
4. En modélisation : gains souvent modérés par rapport aux méthodes classiques, mais
parfois suffisants pour justifier la démarche sur un plan économique.
5. Ils peuvent traiter des données incomplètes ou des données bruitées. La prise en
compte de ces données est possible par l’ajout de neurones supplémentaires.
Pourtant, si cet outil semble prometteur, il n’est pas aujourd’hui exempt de critiques.
Plusieurs limites dans l’utilisation des réseaux de neurones peuvent être retenues.
143
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
2. Le processus d’apprentissage, lui aussi fait intervenir l’intuition. Il est guidé par des
paramètres qu’il convient de régler manuellement.
3. L’effet « boite noire » qui diminue le pouvoir explicatif des réseaux. Un réseau de
neurones reste encore en partie aujourd’hui une « boite noire » de laquelle il reste
difficile d’extraire les relations pertinentes entre les variables. De ce point de vue, le
système n’a donc qu’un pouvoir explicatif médiocre contrairement aux systèmes
experts qui sont capables de retracer le cheminement suivi pour atteindre le résultat.
Pourtant, le phénomène de ˝ boîte noire˝ n’est pas total puisque des analyses de
sensitivité sont possibles, en faisant varier l’une des entrées pas à pas, de sa valeur
minimale vers sa valeur maximale, les autres entrées du réseau restant figées à leur
valeur moyenne.
144
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal
Conclusion
Ceci est dû au fait que tous les ratios utilisés dans l'analyse discriminante ne permettent
pas une discrimination linéaire. Aussi le modèle de R.N.A est capable d'identifier les
exemples qui ne lui en été jamais présentés (phase test) grâce à sa capacité de généralisation.
Ainsi la performance de cet outil est toujours supérieure ou égale à celle obtenue par des
techniques classiques.
145
Conclusion générale
L rapport à la méthode classique qui est une méthode paramétrique du crédit scoring
(l’analyse discriminante linéaire) en effectuant une étude comparative entre les deux
’
méthodes avec le même échantillon de données. Nous allons résumer les résultats de notre
démarche empirique, avant de présenter son contexte à travers les difficultés de mise en
œuvre, puis nous exposerons les limites de notre travail et les extensions possibles en
perspectives.
146
Conclusion générale
échantillon à l’aide du test de khi-deux et le TEST-T, afin de vérifier l’existence d’une relation
entre les variables explicatives retenues et la classe de risque.
Cette recherche nous a permis de construire trois (03) modèles différents (modèle
d’ADL, réseau neuronal n°1 et réseau neuronal n°2) :
1. Le modèle d’ADL est élaboré en utilisant la procédure de classification de l’analyse
discriminante pas à pas à l’aide de SPSS 10.0, sur l’échantillon de construction qui
représente 80% de l’échantillon global. Ceci a permis de construire la fonction score en
retenant sept (07) ratios. Une vérification de la validité du modèle est réalisée avec les tests
suivants : la statistique des groupes, le test du F, le test de Box, la corrélation canonique
globale et le lambda de Wilks. Le modèle doit être en mesure de classer les entreprises de
l’échantillon test (20%) dans l’une des quatre classes. C’est la phase de validation qui
permet de juger de la capacité de prévision du modèle ainsi élaboré1.
Ce modèle donne un taux de bon classement global de 85,5% sur l’échantillon de
construction et de 72 % sur l’échantillon test.
1
. SPSS 10.0 ne permet pas de faire la validation. Nous l’avons donc complété avec un programme qui utilise la
méthode de la distance géométrique (cf. p127).
147
Conclusion générale
Les réseaux de neurones ont donné le meilleur taux de bon classement. Le réseau
n°1 a fourni un taux global de bon classement de prés de 90,24 %, tandis que le réseau
n°2 en est à 86,59 %.
Nous avons donc réduit le taux d’erreur de classement des entreprises de 28% (ADL)
à 9,77% (RNA)2. On retient donc le modèle de réseau n°1 qui fournit les meilleurs
résultats.
Ceci est dû au fait que les ratios utilisés dans l'analyse discriminante ne permettent pas
une discrimination linéaire. Aussi, le modèle de R.N.A est capable d'identifier les exemples
qui ne lui ont jamais été présentés (phase validation) grâce à sa capacité de généralisation.
2
. Ce taux est celui calculé sur l’échantillon de validation.
148
Conclusion générale
Il apparaît que les réseaux de neurones artificiels donnent aujourd’hui de bons résultats
dans le domaine de la classification particulièrement dans le champ de la détection préventive
des entreprises en difficulté. Les travaux menés sur ce sujet, tant en France qu’aux Etats-Unis,
semblent s’accorder sur ce point.
Les difficultés et limites de mise en œuvre : les ambitions initiales de l’expérimentation ont
été réduites au fur et à mesure de la mise en pratique et de l’apparition de contraintes
renforcées par le manque de bases théoriques sur le fonctionnement des RNA. Ainsi, notre
démarche expérimentale a du reposer sur un processus principalement itératif. Les difficultés
rencontrées peuvent être résumées comme suit :
Face à l’absence de base de données numérique au niveau des banques primaires,
nous avons adopté une démarche purement empirique en collectant (dans la mesure
du possible) un échantillon expérimental faible (209 entreprises). L’idéale aurait été
de définir un échantillon à partir d’une population mère et de construire l’échantillon
de l’étude.
La taille de l’échantillon est relativement petite, donnant ainsi des résultats
optimistes par rapport à la réalité. Les RNA ont besoin d’un très grand nombre
d’exemples lors de la phase d’apprentissage, ainsi, la taille de l’échantillon doit être
d’autant plus grande que le nombre de variables d’entrées est élevé. Or, dans notre
expérimentation nous n’avons pu dégager que 22 variables.
Les proportions par catégorie d’entreprises (les classes de risque) ne sont pas égales
cela peut influencer la qualité des résultats.
L’échantillon est hétérogène. En effet, pour avoir une taille d’échantillon acceptable
nous avons regroupé des secteurs d’activité différents.
149
Conclusion générale
Enfin, rappelons que les modèles proposés ne constituent qu’une aide à la décision et se
doivent d’être enrichis par d’autres formes d’information.
150
Bibliographie
BIBLIOGRAPHIE
4. BACK BARBRO, LAITINEN TELIA, AND SERE KAISA (1996). Neural Networks
and Genetic Algorithms for Bankruptcy Predictions. Expert Systems with
Applications, Vol.11.
7. BARDOS MIREILLE (1998), Detecting the risk of company failure at the bank de
France, Journal of banking and finance, vol. 22.
150
Bibliographie
20 . BURRELL P.R. AND FOLARIN B.O (1997). The Impact of Neural Networks in
Finance. Neural Computing & Applications.
21 . CAIRE, D. AND R. KOSSMANN (2003). Credit Scoring: Is it right for your bank?
Bannock Consulting.
151
Bibliographie
23 . CALZADA CHRISTIAN ET MIDENET SOPHIE (1995). Des neurones dans les réseaux.
Methodes-Synthèse. Décembre.
25 . CHATFIELD CHRIS (1996). Prévision des ventes avec les réseaux de neurones : une
étude de cas. Recherche et application en marketing, vol.11, n°2.
e
28 . COLASSE BERNARD (2003). L’analyse financière de l’entreprise. 4 édition La
découverte.
30 . Cottrell Marie, de Bodt Eric, Levasseur Michel (1996), Les réseaux de neurones en
finance Principes et revue de la littérature. Finance vol. 16.
152
Bibliographie
39 . DIETSCH MICHEL, PETEY JOËL (2003). Mesure et gestion du risque de crédit dans les
institutions financières. Edition d’Organisation.
41 . DREYFUS G., MARTINEZ J.M., SAMUELIDES M, GORDON M.B., BADRAN F., THIRIA
S., HÉRAULT L. (2004). Réseaux de neurones : Méthodologie et applications.
Eyrolles.
46 . FELDMAN, RONALD. (1997). Banks and Big Change in technology called credit
scoring. Federal reserve bank of Minneapolis, The Region.
47 . FRYDMAN H., ALTMAN E., ET KAO D. (1985), Introducing recursive partioning for
financial classification: the case of financial distress. Journal of finance, vol. 40,
n°1.
153
Bibliographie
51 . GUILHOT B. (1986), méthode des scores intérêts et limites (1 partie), revue banque
N°466 novembre.
52 . GUILHOT B. (1987), méthode des scores intérêts et limites (2 partie), revue banque
N°468 janvier.
54 . HEKANAHO JUKKA, BACK BARBRO, KAISA SERE, AND TEIJA LAITINEN (1998).
Analysing Bankruptcy Data with Multiple Methods. American Association for
Artificial Intelligence, (www.aaai.org).
56 . HULL JOHN, GODLEWSKI CHRISTOPHE, MERLI MAXIME (2007). Gestion des risques
et institutions financières. Pearson Education.
57 . JERBI YACIN (2006). Evaluation des options et gestion des risques financiers par les
réseaux de neurones et par les modèles à volatilité stochastique. Thèse de doctorat
en Mathématiques appliquées, Paris 1.
59 . JUKKA HEKANAHO, BARBRO BACK, KAISA SERE AND TEIJA LAITINEN (1998).
Analysing Bankruptcy Data with Multiple Methods. American Association for
Artificial Intelligence (www.aaai.org).
154
Bibliographie
62 . LACHER R.C., COATS PAMELA K., SHARMA SHANKER C. AND FANT FRANKLIN
(1995). A neural network for classifying the financial health of a firm. European
Journal of Operational Research.
66 . LEMBERG HENRI (71). Les réseaux neuronaux artificiels. Langages & systems –
INFOPC-N° 71.
67 . LESHNO MOSHE AND SPECTOR YISHAY (1996). Neural network prediction analysis:
The bankruptcy case. Neurocomputing Vol.10.
72 . NIGRIN A. (1993), Neural Networks for Pattern Recognition. Cambridge, MA: The
MIT Press.
155
Bibliographie
80 . PEREZ MURIEL (2006). Artificial neural networks and bankruptcy forecasting: a state
of the art. Neural Comput & Applic.
86 . RUMELHART DAVID E., WIDROW BERNARD, LEHR MICHAEL A. (1994). The basic
ideas in neural network. Communication of ACM march vol. 17 N°3.
156
Bibliographie
87 . SADI KHADIDJA (2006). Comment décider de l’attribution des crédits en utilisant les
nouvelles techniques ? (Méthode Scoring et réseaux de neurones). Revue
d’économie et de statistique appliquées, numéro spécial.
89 . SAINT-SERVER P. (1987), les méthodes scores sont elles efficaces ? Revue banque,
N°475 septembre.
95 . SERVAIS CHRISTIAN .Vers des systèmes intégrés de gestion des risques dans les
banques.
157
Bibliographie
100 . THUILLIER DENIS (1997). Principes et applications des réseaux de neurones : Deux
illustrations sur l’habitat au Maroc. Revue région & développement n°5.
105 . VERLEYSEN M., LENDASSE A. (2003). Le test des méthodes neuronales : comment
utilser les techniques de reéchantillonnage ? ACSEG 2003 proceedings -
Connectionist Approaches in Economics and Management Sciences.
106 . VERLEYSEN MICHEL (1998). The explanatory power of Artificial Neural Networks.
Methodos : The explanatory power of models in the social sciences, November.
158
Bibliographie
109 . WEST DAVID (2000). Neural network credit scoring models. Computers & Operations
Research 27.
110 . WIDROW B., RUMELHART D., LEHR M. (1994). Neural networks: applications in
industry, business and science. Communications of the ACM, march n°3 vol. 37.
111 . YAHIAOUI GERARD, AMAT JEAN-LOUIS (1993). Des réseaux de neurones pur le
contrôle de qualité. La recherche 252, mars volume 24.
112 . YANG, LIU (2001). New issues in credit scoring application, Working Paper No 16.
114 . ZURADA J.M. (1992), Introduction to Artificial Neural Systems. Boston: PWS
lishing Company.
159
Les annexes
Annexe B2 : TEST-T
Article 1 : La présente instruction a pour objet la mise en oeuvre des dispositions du règlement n 91-09 du 14 Août
1991 fixant les règles prudentielles de gestion des banques et établissements financiers.
Article 9 : En application de l’article 7 du règlement n° 91-09 suscité, les créances courantes et classées sont
définies comme suit :
A/- CREANCES COURANTES
Sont considérées comme créances courantes les créances dont le recouvrement intégral dans les délais parait
assuré. Elles sont détenues généralement sur des entreprises dont :
- la situation financière équilibrée est vérifiée dans les documents comptables certifiés de moins de 18 mois, ainsi
que dans les situations provisoires datant de moins de trois (03) mois ;
- la gestion et les perspectives d’activité sont satisfaisantes ;
- le volume et la nature des crédits dont elles bénéficient sont compatibles avec les besoins de leur activité
principale.
Font également partie de cette catégorie les créances sûres :
- assorties de la garantie de l’Etat, d’une banque ou établissement financier ou d’une compagnie d’assurance ;
- garanties par des dépôts effectués auprès d’une banque ou établissement financier ou par tout autre actif financier
pouvant être liquidé sans que sa valeur soit affectée.
Les créances courantes doivent faire l’objet d’un provisionnement général à hauteur de 1 % annuellement jusqu’à
atteindre un niveau total de 3 %. Il s’agit des provisions à caractère de réserves qui feront parties des fonds
propres.
B/- CREANCES CLASSEES
Catégorie 1 : Créances à problèmes potentiels
Font partie de la catégorie 1 les créances dont le recouvrement intégral, en dépit d’un retard qui reste raisonnable,
parait encore assuré mais qui sont détenues en général sur les entreprises qui présentent au moins une des
caractéristiques ci-après définies :
- le secteur d’activité connaît des difficultés ;
- la situation financière et les perspectives de l’entreprise se dégradent, ce qui risque de compromettre les capacités
de paiement des intérêts et / ou du principal ;
- certains crédits sur ces entreprises sont non remboursés et/ou les intérêts sont impayés depuis plus de trois (03)
mois mais dont le retard est inférieur à six (06) mois.
Les intérêts enregistrés mais non payés doivent être provisionnés de même que la créance elle-même, nette de
garanties obtenues, à hauteur de 30 %.
Catégorie 2 : Créances très risquées
Font partie de la catégorie 2, les créances dont le recouvrement intégral parait très incertain et qui sont détenues sur
des entreprises dont la situation laisse entrevoir des pertes probables.
Les retards dans le paiement des intérêts ou du principal échus se situent entre six (06) mois et un (01) an.
Les intérêts enregistrés et non payés doivent être déduits des résultats et portés sur les comptes d’ordre "intérêts en
suspens".
Les créances nettes de garanties obtenues, doivent être provisionnées à hauteur de 50 %. L’évaluation des garanties
doit se faire avec la plus grande prudence. La valeur donnée aux sûretés doit être celle du marché, selon une
évaluation indépendante.
Catégorie 3 : Créances compromises
Font partie de la catégorie 3, les créances qui doivent être passées par pertes. Toutefois, les banques et
établissements financiers se doivent d’épuiser toutes les voies de recours pour le recouvrement.
Tout intérêt enregistré et non payé doit être déduit des résultats.
Ces créances nettes de garanties correctement évaluées doivent être provisionnées à hauteur de 100 %.
Article 10 : La distinction entre créance courante et créance classée ou entre ces dernières elles-mêmes, telles que
définies ci-avant, doit faire l’objet de mise à jour régulière de la part des banques et établissements financiers.
Article 11 : Le classement des créances par degré de risque doit inciter les banques et établissements financiers à
adopter des méthodes homogènes d’évaluation des risques afin d’arriver progressivement à des appréciations
analogues des créances sur les mêmes bénéficiaires.
Elles doivent, en outre, sur la base de ce classement des créances, se préoccuper plus particulièrement des créances
qui représentent une proportion élevée de leurs fonds propres nets ou de leurs engagements ou bien de celles qui
requièrent un suivi plus spécifique.
Annexe B0 : TEST de différence de groupes
N valide (liste)
Moyenne Ecart-type
Non
CLASSE Pondérées
pondérées
-7,1558E-
R16 ,2441 24 24,000
03
Effectif Signification
asymptotique
STATUT Valeur ddl (bilatérale)
SPA SARL EURL SNC Total Khi-deux de Pearson 11,516 a 9 ,242
CLASSE Saine 9 52 21 6 88 Rapport de
12,464 9 ,188
A problèmes potentiels 7 26 9 2 44 vraisemblance
Très risquées Association linéaire
9 25 9 4 47 4,229 1 ,040
par linéaire
Compromise 10 13 7 30 Nombre d'observations
Total 35 116 46 12 209 209
valides
a. 3 cellules (18,8%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de 1,72.
Effectif Signification
asymptotique
SECT Valeur ddl (bilatérale)
BT P Services Industrie Total Khi-deux de Pearson 7,270 a 6 ,297
CLASSE Saine 36 17 35 88 Rapport de
7,364 6 ,288
A problèmes potentiels 17 6 21 44 vraisemblance
Très risquées Association linéaire
15 9 23 47 5,165 1 ,023
par linéaire
Compromise 7 3 20 30 Nombre d'observations
Total 75 35 99 209 209
valides
a. 0 cellules (,0%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de 5,02.
Effectif Signification
asymptotique
DEM
Valeur ddl (bilatérale)
Nouveau Renouvell Khi-deux de Pearson 12,146 a 3 ,007
crédit emnt Total Rapport de
CLASSE Saine 28 60 88 12,133 3 ,007
vraisemblance
A problèmes potentiels 15 29 44 Association linéaire
10,181 1 ,001
Très risquées 27 20 47 par linéaire
Compromise 17 13 30 Nombre d'observations
209
Total valides
87 122 209
a. 0 cellules (,0%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de 12,49.
Effectif Signification
asymptotique
LOC Valeur ddl (bilatérale)
Autre Alger Total Khi-deux de Pearson 8,656 a 3 ,034
CLASSE Saine 76 12 88 Rapport de
8,766 3 ,033
A problèmes potentiels 30 14 44 vraisemblance
Très risquées 32 15 47 Association linéaire
2,594 1 ,107
par linéaire
Compromise 24 6 30
Nombre d'observations
Total 162 47 209 valides
209
Effectif Signification
asymptotique
CAT_AGE
Valeur ddl (bilatérale)
[ 1 - 5[ ans [ 5 - 10[ ans [10 - 20[ ans [15 - 20[ ans + 20 ans Total Khi-deux de Pearson 17,862 a 12 ,120
CLASSE Saine 15 49 9 4 11 88 Rapport de
A problèmes potentiels 4 26 8 1 5 44 23,050 12 ,027
vraisemblance
Très risquées 10 25 7 5 47 Association linéaire
,842 1 ,359
Compromise 1 21 8 30 par linéaire
Total 30 121 32 5 21 209 Nombre d'observations
209
valides
a. 9 cellules (45,0%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de ,72.
Source : SPSS
Annexe B2 : TEST-T
Erreur
standard
N M oyenne Ecart-type m oyenne
R1 209 274,8995 6763,3726 467,8323
R2 209 24,4785 72,9573 5,0466
R3 209 164,0766 450,5092 31,1624
R4 209 341,5598 1980,5920 137,0004
R5 209 21,0335 102,1202 7,0638
R6 209 277,3206 1855,8836 128,3742
R7 209 243,9139 585,6947 40,5133
R8 209 32,6651 30,7753 2,1288
R9 209 29,0766 26,5535 1,8367
R10 209 72,6507 80,6956 5,5818
R11 209 8,1579 184,0529 12,7312
R12 209 329,1435 1277,1357 88,3413
R13 209 3,9809 5,5970 ,3872
R14 209 15,9378 140,2081 9,6984
R15 209 178,4306 888,4401 61,4547
R16 209 376,0431 2848,0725 197,0053
R17 209 31,1148 23,9490 1,6566
Valeur du test = 0
Intervalle de confiance
Sig. Différence 95% de la différence
t ddl (bilatérale) moyenne Inférieure Supérieure
R1 ,588 208 ,557 274,8995 -647,4012 1197,2003
R2 4,851 208 ,000 24,4785 14,5295 34,4274
R3 5,265 208 ,000 164,0766 102,6420 225,5111
R4 2,493 208 ,013 341,5598 71,4724 611,6472
R5 2,978 208 ,003 21,0335 7,1077 34,9593
R6 2,160 208 ,032 277,3206 24,2393 530,4018
R7 6,021 208 ,000 243,9139 164,0445 323,7833
R8 15,345 208 ,000 32,6651 28,4683 36,8618
R9 15,830 208 ,000 29,0766 25,4555 32,6976
R10 13,016 208 ,000 72,6507 61,6465 83,6549
R11 ,641 208 ,522 8,1579 -16,9408 33,2566
R12 3,726 208 ,000 329,1435 154,9844 503,3027
R13 10,282 208 ,000 3,9809 3,2176 4,7441
R14 1,643 208 ,102 15,9378 -3,1820 35,0576
R15 2,903 208 ,004 178,4306 57,2767 299,5845
R16 1,909 208 ,058 376,0431 -12,3400 764,4261
R17 18,783 208 ,000 31,1148 27,8490 34,3807
Source : SPSS
Annexe B3 : Diagnostic des observations pour l’échantillon de construction (méthode de l‘ADL)
1 0.9989
0
10 1 0.0080
1 0.0001
-1
10
1 1.0000
1 0.9998
-2
1 1.0000
10 1 0.9738
1 0.9997
-3
10 1 1.0000
0 1 2 3 4 5 6 7 8
86194 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab
10
0
1 0.5995
1 0.0005
10
-1 1 1.0000
1 1.0000
-2
1 1.0000
10
1 0.9999
1 0.9982
-3
10
0 1 2 3 4 5 6 7
1 0.9999
75206 Epochs
x 10
4
Source : Résultats fournis par le programme Credit1 développé sous Matlab
Les résultats de l’échantillon test pour N= 11
Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
(11 neurones) 1 0.9999 1 0.9997 1 1.0000 1 0.5571
1 0.9801 1 1.0000 1 0.9998 1 0.9988
1 1.0000 1 0.9994 1 1.0000 1 0.4231
1 1.0000 1 0.9944 1 0.5009 1 0.9894
Classe 1 1 1.0000 1 1.0000 1 1.0000 1 0.9988
1 1.0000 1 0.9993 1 1.0000 1 0.7706
1 1.0000 1 0.9892 1 0.0740 1 0.9854
Classe 2 1 1.0000 1 0.0084 1 0.9998 1 1.0000
1 0.9143 1 0.3892 1 1.0000 1 1.0000
22 neurones 1 0.9984 1 0.0001 1 0.9998 1 0.0080
Classe 3 1 0.9968 1 0.9858 1 0.9994
1 0.9986 1 0.9848 1 1.0000
1 1.0000 1 0.9814 1 0.9993
Classe 4 1 0.9992 1 0.9785 1 0.9999
1 1.0000 1 1.0000 1 0.9990
1 1.0000 1 1.0000 1 0.8855
1 0.0116 1 1.0000 1 1.0000
Courbe d’apprentissage 1 1.0000 1 1.0000 1 0.9999
Performance is 0.00999886, Goal is 0.01
1 0.0001 1 0.8828
3
10 1 1.0000
1 1.0000
2
1 1.0000
10
1 0.0022
1 0.1556
1
10 1 0.9793
1 0.9971
Training-Blue Goal-Black
0
1 0.9998
10
1 0.3743
1 0.0020
-1
10 1 1.0000
1 1.0000
-2
1 1.0000
10
1 0.9988
1 0.8890
-3
10 1 0.9931
0 1 2 3 4 5
57933 Epochs
Source : Résultats fournis par le programme Credit1 développé sous Matlab
4
x 10
1 1.0000
0
10 1 0.2972
1 0.0011
-1
1 0.9992
10
1 0.9999
1 0.9172
-2
10
1 1.0000
1 0.9999
-3
1 0.9940
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
48737 Epochs
x 10
4
Source : Résultats fournis par le programme Credit1 développé sous Matlab
Les résultats de l’échantillon test pour N= 13
Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
(13 neurones) 1 0.9966 1 0.9959 1 1.0000 1 0.0854
1 0.9982 1 1.0000 1 1.0000 1 0.9965
1 0.9798 1 0.9992 1 1.0000 1 0.8277
1 0.9999 1 0.9995 1 0.9758 1 0.9949
Classe 1 1 0.9999 1 1.0000 1 0.9999 1 0.9964
1 0.9972 1 0.9991 1 0.9999 1 0.9848
1 1.0000 1 0.9999 1 0.4948 1 0.0446
Classe 2 1 1.0000 1 0.0042 1 1.0000 1 1.0000
1 0.1903 1 0.0662 1 1.0000 1 0.9999
22 neurones 1 1.0000 1 0.0000 1 0.9359 1 0.0000
Classe 3 1 0.9987 1 0.9861 1 0.9994
1 0.9425 1 0.6263 1 1.0000
1 1.0000 1 0.9830 1 0.9994
Classe 4 1 1.0000 1 0.9995 1 1.0000
1 1.0000 1 1.0000 1 0.9988
1 1.0000 1 1.0000 1 0.5451
1 0.8052 1 1.0000 1 1.0000
1 0.9908 1 1.0000 1 0.9962
Courbe d’apprentissage 1 0.0000 1 0.5419
Performance is 0.00999873, Goal is 0.01
3
10
1 0.9998
1 1.0000
1 0.9999
2
10 1 0.0011
1 0.3114
1
10
1 0.9975
1 0.9894
Training-Blue Goal-Black
1 1.0000
0
10 1 0.3642
1 0.0000
-1 1 1.0000
10
1 1.0000
1 1.0000
-2
10 1 0.9953
1 0.9928
-3 1 0.9994
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
51297 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab
1 0.0784
0
10 1 0.0000
1 1.0000
-1 1 1.0000
10
1 0.9998
1 0.9673
-2
10 1 0.9249
1 0.9998
10
-3
Source : Résultats fournis par le programme Credit1 développé sous Matlab
0 0.5 1 1.5 2 2.5 3 3.5 4
41869 Epochs 4
x 10
Les résultats de l’échantillon test pour N= 16
Couche d'entrée couche cachée couche de sortie Classe 1 Classe 2 Classe 2 Classe 4
(16 neurones) Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 0.9348 1 0.9990 1 0.9999 1 0.9999
1 0.4596 1 1.0000 1 0.9977 1 0.9991
1 0.9813 1 0.9877 1 0.9924 1 0.9228
1 0.9867 1 0.9979 1 0.9945 1 0.9910
Classe 1 1 1.0000 1 1.0000 1 0.9984 1 0.9991
1 0.9700 1 0.9861 1 1.0000 1 0.9998
1 1.0000 1 0.9988 1 0.6615 1 0.9987
Classe 2 1 1.0000 1 0.0563 1 0.9977 1 1.0000
1 0.7716 1 0.5830 1 0.9924 1 1.0000
22 neurones
1 0.9954 1 0.0000 1 0.9999 1 0.0000
Classe 3 1 1.0000 1 1.0000 1 0.9999
1 1.0000 1 0.9888 1 1.0000
1 1.0000 1 1.0000 1 0.9999
Classe 4
1 1.0000 1 0.9998 1 0.9996
1 1.0000 1 1.0000 1 0.9992
1 0.9999 1 1.0000 1 0.9996
1 0.7219 1 1.0000 1 1.0000
1 0.9979 1 1.0000 1 1.0000
Courbe d’apprentissage 1 0.0000 1 0.9996
3
Performance is 0.00999991, Goal is 0.01 1 0.9944
10
1 0.9979
1 0.9997
2
10 1 0.0005
1 0.1663
1 1 0.5946
10
1 0.9963
Training-Blue Goal-Black
1 0.9998
0
10 1 0.7941
1 0.0001
-1 1 0.9999
10
1 0.9999
1 1.0000
-2
10 1 0.9256
1 0.9998
-3
10
1 0.9994
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
46844 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab
1 0.9999
10
0
1 1.0000
1 0.7945
-1
1 0.0000
10 1 1.0000
1 0.9993
-2
1 1.0000
10
1 0.9999
1 0.9999
10
-3 1 1.0000
0 0.5 1 1.5 2 2.5 3 3.5 4
41559 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab
Annexe C2 : Résultats du réseau neuronal N°2
Les résultats de l’échantillon test pour N = 9
Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 1.0000 1 0.9997 1 1.0000 1 0.3365
R2 1 1.0000 1 1.0000 1 1.0000 1 0.0137
1 1.0000 1 0.8850 1 1.0000 1 0.0015
Classe 1 1 1.0000 1 1.0000 1 0.5087 1 0.9708
1 1.0000 1 1.0000 1 1.0000 1 0.0137
R3
1 0.5950 1 0.9053 1 1.0000 1 0.0010
Classe 2 1 1.0000 1 1.0000 1 0.4906 1 0.3175
1 1.0000 1 0.9828 1 1.0000 1 0.0000
7 neurones 1 0.0000 1 0.9691 1 1.0000 1 0.0000
Classe 3 1 0.7567 1 0.0130 1 1.0000 1 0.0000
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 0.9870 1 1.0000
Classe 4 1 1.0000 1 1.0000 1 1.0000
R16 1 0.3456 1 1.0000 1 0.9969
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 0.9747
Courbe d’apprentissage 1 0.9937 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 1.0000
Performance is 0.499996, Goal is 0.5
3
10
1 1.0000 1 0.9731
1 1.0000
1 0.9999
1 1.0000
2
10
1 0.2051
1 0.1644
1 1.0000
1 1.0000
Training-Blue Goal-Black
1
10
1 0.8064
1 0.0001
1 0.0404
1 1.0000
0
10
1 1.0000
1 1.0000
1 1.0000
1 0.0000
-1
10
1 1.0000
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
203759 Epochs 5
x 10
Source : Résultats fournis par le programme Credit2 développé sous Matlab
2
10
1
10
Training-Blue Goal-Black
0
10
-1
10
-2
10
0 0.5 1 1.5 2 2.5
255031 Epochs 5
x 10
1 0.9551
0
1 0.0024
10 1 0.9932
1 1.0000
1 1.0000
-1
10 1 1.0000
1 1.0000
1 0.0000
-2
10 1 1.0000
0 0.5 1 1.5 2 2.5 3
315130 Epochs
x 10
5
Source : Résultats fournis par le programme Credit 2 développé sous Matlab
1 1.0000
1 0.8491
0 1 0.9948
10
1 0.9524
1 1.0000
-1
1 1.0000
10
1 1.0000
1 1.0000
1 0.0000
-2
10 1 1.0000
0 0.5 1 1.5 2 2.5
279524 Epochs 5
x 10 Source : Résultats fournis par le programme Credit 2 développé sous Matlab