Vous êtes sur la page 1sur 186

Ministère de l’enseignement supérieur et de la recherche scientifique

Université d’Alger
Faculté des sciences économiques et des sciences de gestion

Thèse en vue de l’obtention du diplôme de doctorat


Sciences économiques
Option : GESTION

Elaboration d’un modèle d’évaluation du risque de crédit


d’exploitation à l’aide des réseaux de neurones
Artificiels (RNA) et de l’analyse discriminante linéaire (ADL)

Présentée et soutenue publiquement par : Khadidja SADI épse BENHACINE

Sous la direction du Professeur : Saadoune BOUKABOUS

Devant le jury :

Président : M. S. DJARI
Examinateur : A. BENHALIMA
Examinateur : N. HADID
Examinateur : A. KOUDRI
Examinateur : A. ZAKANE

2009 – 2010
Remerciements

Je remercie, vivement, Monsieur le Professeur Saadoune BOUKABOUS pour avoir


dirigé ce travail, pour ses qualités humaines et scientifiques.

Je remercie, également, Messieurs les membres du Jury :


Monsieur le Président, Mohamed Seghir DJARI
et Messieurs les examinateurs : Ammour BENHALIMA, Noufeyl HADID,
Ahmed KOUDRI et Ahmed ZAKANE.
qui ont accepté de juger mon travail.

Je remercie, aussi, Monsieur Abd Al Hamid KERNANE, directeur des études des
classes préparatoires de Draria, pour sa disponibilité et pour toute l’aide qu’il m’a
apportée.

Je remercie, Monsieur Omar BENDIB pour la lecture et la correction de ce


document.
Table des matières
Introduction générale …….………………………………………………………………………………1

Chapitre 1 : Les crédits bancaires et leurs risques


Introduction …………………….………………………………………………….……..……..8
1. Définition et formes de crédits d’exploitations ………………………….………………....10
1.1 Définitions du crédit ……………………………………………………………......10
1.2 Les différentes formes de crédits d’exploitation accordés aux entreprises ……. 11
1.2.1 Les crédits par caisse (crédits directs)………………………………..11
1.2.2 Les crédits par signature (crédits indirects)………..……………….…14
2. Les risques relatifs aux crédits bancaires …………………………………………………...15
2.1. Notion du risque bancaire ……………….………………………………………..16
2.2. Les différentes natures de risque ……………….………………………………….16
2.2.1. Le risque de marché ………………………………………………………..16
2.2.2. Les risques opérationnels ……………………………………………….…17
2.2.3. Les risques politiques, réglementaires et légaux ……………………….... 17
2.2.4. Le risque de liquidité ………………………………………………………17
2.2.5. Le risque de crédit ou de contrepartie……………………………………...17
2.3 Typologie du risque de crédit ………………………………………………………..18
2.3.1 Le risque de défaut (default risk) ………………………………………….18
2.3.2 Le risque de dégradation du spread de signature … ………….…………19
2.3.3 Le risque de dégradation de la qualité de l’emprunteur ………………….20
2.4 Les conséquences du risque de crédit …………………………………………….20
3. La gestion du risque de crédit……………………………………………………………...21
3.1 La politique de garanties …………………………………………………………..23
3.1.1 Les garanties réelles ……………………………………………………….23
3.1.2 Les garanties personnelles…………………………………………………23
3.2 La politique de provisionnement ………………………………………………….24
3.3 La règlementation prudentielle internationale ……………………………………24
3.3.1 L’accord de Bâle I de 1988 ………………………………………………..25
3.3.2 L’accord de Bâle II ………………………………………………………..26
4. La réglementation du risque en Algérie..…………….…………………………………...28
4.1 La réalité de la réglementation avant 1990....…………………………………….29
4.2 Le contenu de la loi de réglementation algérienne des risques …………………..31
4.2.1 Les fonds propres ………………………………………………………..31
4.2.2 La définition du capital minimum………………………………………..33
4.2.3 La définition des risques encourus ………………………………………33
4.2.4 Le ratio de solvabilité …………………………………………………….33
4.2.5 La division des risques …………………………………………………...34
4.2.6 Le provisionnement des créances …………………………………..……35
4.2.7 La centrale des bilans ……………………………………………...……..35
4.2.8 La centrale des risques ………………………….………………..………36
4.3 Les conséquences de Bâle II en Algérie …………………………………...……..36
Conclusion ……………………………………………………………………………………38
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit Scoring

Introduction ……………………………………………………………………………………..39
1. Les méthodes d’évaluation du risque de crédit ………………………………….………….41
1.1 L’analyse financière ………………………………….………………………………41
1.1.1 La méthode des ratios ……………………………………………………..….42
1.1.2 Avantages et limites de la méthode des ratios …………………………….....43
1.2 La notation financière (Rating) …………………………………………………….44
1.2.1 La notation externe ……………………………………………………….... 44
1.2.2 La notation interne …………………………………………………………. 48
1.3 Les modèle d’évaluation du risque …………………………………………….......48
1.3.1 Utilité des modèles d’évaluation du risque ……………………………….....49
1.3.2 Les systèmes experts et les modèles de scoring ……………………………..49
2. Le crédit Scoring …………………………………………………………………………….51
2.1 Définitions du crédit Scoring ………………………………………………………..52
2.2 Historique du crédit Scoring ……….………………………………………………...53
2.3 Construction d’un modèle de scoring ………………………………………………..54
3. Les différentes techniques d’analyse statistiques pour la construction des
modèles de scoring …………….……………………………………………………..…56
3.1 Les différentes techniques utilisées pour la construction d’un modèle de scoring 57
3.1.1 Les méthodes statistiques paramétriques ………..…………………………57
3.1.2 Les méthodes statistiques non-paramétriques …..………………………….59
3.1.3 Les méthodes issues de l’intelligence artificielles ………………………….61
3.2 La méthodologie commune des différentes techniques ou méthodes……………….62
3.2.1 La construction de l’échantillon ……………………………………………63
3.2.2 La sélection des variables explicatives ……………………………….........64
3.2.3 La méthode de validation ………………………………………………......65
4. L’analyse discriminante linéaire (ADL) ……………………………………………………..66
4.1 Construction du modèle ……………………………………………………………...68
4.2 Sélection des variables……………………………………………………………….69
4.3 Vérification de la validité du modèle ……………………………………………......70
4.3.1 La distance de Mahalanobis ………………………………………………...71
4.3.2 La valeur propre ……………..…………………………………………….…71
4.3.3 La corrélation canonique .…………………………………………………....72
4.4 La performance du modèle ………………………………………………………….72
4.4.1 La statistique de Mann-Whitney ………….………………………………….72
4.4.2 La méthode de validation croisée ………….…………………………….......73
4.5 Limites de l’analyse discriminante linéaire …………………………………….......74
Conclusion ………………………………………………………………………………….......76
Chapitre 3 : Les réseaux de neurones artificiels (RNA)

Introduction ……………………………………………………………………………………..77
1. Historique ……………………………………………………………………………………79
1.1 Aperçu historique …………….………………..……………………..………………79
1.2 Les origines biologiques………………………………………………………………81
2. Fonctionnement des RNA ……………………………………………………………..…..83
2.1 Définitions ………………………………………………………………………..….83
2.1.1 Le neurone formel …….…………………………………………………......83
2.1.2 Les réseaux de neurones artificiels ……..………………………………….…84
2.1.3 L’apprentissage ………………….…………………………………………...85
2.2. Les composants du réseau de neurones artificiel …………………………………...86
2.2.1 L’architecture du réseau …………………………………………………….86
2.2.2 Les fonctions d’activations …………………………………………….……87
2.2.3 Le mode d’apprentissage ………..…………………………………………88
3. Les différentes architectures de RNA ……………………………………………………....92
3.1 Perceptron Multi-Couches (MLP) ………………..………………………………....92
3.2 Réseaux de HOPFIELD ….…….…………….……………..………………………....93
3.3 Les Réseaux de KOHONEN ou cartes auto-organisatrices ……………..…………....94
4. Les étapes de mise en œuvre d'un réseau de neurones artificiel …………………………....96
5. Les domaines d’application des RNA ………………………………………………………98
5.1 Les domaines d’application divers ………………………………………………...98
5.1.1 La modélisation non-linéaire de données……………………………………98
5.1.2 La détection d'anomalies …….………………………………………………99
5.1.3 La reconnaissance de formes ………………………………………………..99
5.2 Les domaines d’application en finance ………………………………………….99
5.2.1 Le « Business Forecasting » …..………………………………………….100
5.2.2 La gestion de portefeuille ……….………………………………………..101
5.2.3 La prévision de faillite et l’octroi de crédit …………..…………………..102
Conclusion ……………………………………………………………………..……………...105

Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Introduction …………………………………………………………………………………….106
1. Présentation des données de l’échantillon ………………………………………………..108
1.1 La base de données ………………………………………………………………….108
1.2 Définition des critères de classement ………………………………………………109
1.3 Sélection des indicateurs …………………………………………………………...110
1.3.1 Les variables extracomptables …….……………………………………111
1.3.2 Les variables comptables ……..…….…………….……………………111
2. Description de l’échantillon expérimental ………………..………………………………...113
2.1. Description statistique de l’échantillon expérimental ……………………………..113
2.1.1. Selon le secteur d’activité ……………………………………………….113
2.1.2. Selon le statut juridique …………………………………………………113
2.1.3. Selon la localité géographique …………………………………………..114
2.1.4. Selon le catégorie d’âge …………………………………………………115
2.1.5. Selon le nature de la demande …………………………………………..115
2.2. Analyse de l’échantillon expérimental ……………………………………………..116
2.2.1. Analyse de contingence …………………………………………………116
2.2.2. Comparaison des moyennes ……………..……………………………...119
3. Elaboration du modèle de Scoring …………………………………………………………..119
3.1. Vérification de l’existance de différence entre les groupes ……………..………....120
3.2 Vérification de la validité du modèle ……………………………………………....121
3.2.1 Le test de Box………..…….………………………………………………122
3.2.2 La corrélation canonique de l’analyse discriminante .….……………….122
3.2.3 Le Lambda de Wilks ….………………………………..………………..123
3.3 Construction de la fonction score…………………………………………………….123
3.4 Vérification de la performance du modèle ….…...……………………………..……125
3.4.1 Résultats de classement de l’échantillon de construction..….…...………126
3.4.2 Résultats de classement de l’échantillon de validation ….….…...………127
4. Conception Elaboration du modèle neuronal ……………………………………………….130
4.1 Présentation du réseau neuronal n°1 ………………………………………………..130
4.1.1 Caractéristiques du réseau élaboré ……………………………………….131
4.1.2 Choix des paramètres ………..…..………………………………………132
4.2 Présentation du réseau neuronal n°2 ………………………………………………..133
4.2.1 Les caractéristiques de ce réseau n°2 ………………………………………...133
4.2.2 Les résultats de validation du réseau n°2 …….………………………………139
5. Comparaison des résultats des trois modèles ……………………………..………………..141
6. Les atouts et limites des RNA …..…..…………………..………………………………...142
6.1 Les avantages ……...……..………………………………………………………...142
6.2 Les limites ………………….……………………………………………………...143
Conclusion ……………………………………………………………………………………….145

Conclusion et perspectives ……………………………………………………………………..146

Bibliographie ………………………………………..……………………………………………150

Annexes
 Annexe A : INSTRUCTION N° 34-91 DU 14 NOVEMBRE 1991
 Annexe B0 : TEST de différence de groupes
 Annexe B1 : TEST khi-deux
 Annexe B2 : TEST-T
 Annexe B3 : Diagnostic des observations (méthode de l‘ADL)
 Annexe C1 : Résultats du réseau neuronal N°1
 Annexe C2 : Résultats du réseau neuronal N°2
Liste des tableaux

Tableau 1.1 : Nombre de défaillances ………………………………………… 22


Tableau 1.2 : Pondération des différents risques sous Bale II …………………… 27
Tableau 2.1 : Echelle de notation à long terme…………………………………… 47
Tableau 2.2 : Table d’affectation – dénombrement des différents cas………….. 73
Tableau 3.1 : Fonctions d’activation……………………………………………... 88
Tableau 4.1 : Répartition de l’échantillon global par classe……………………… 110
Tableau 4.2 : Liste des ratios financiers et leurs types ……………….……… 112
Tableau 4.3 : La répartition des entreprises selon le secteur d’activité………… 113
Tableau 4.4 : La répartition des entreprises selon le statut juridique …………… 114
Tableau 4.5 : La répartition des entreprises selon la localité géographique ……… 114
Tableau 4.6 : La répartition des entreprises selon l’âge ………………………… 115
Tableau 4.7 : La répartition des entreprises selon la demande …………………… 115
Tableau 4.8 : La classe de risque en fonction du secteur d’activité ……………... 117
Tableau 4.9 : La classe de risque en fonction du statut juridique ……………… 117
Tableau 4.10 : la classe de risque en fonction de la localité géographique ……… 118
Tableau 4.11 : La classe de risque en fonction de l’âge ………………………….. 118
Tableau 4.12 : La classe de risque en fonction de la nature de la demande……… 118
Tableau 4.3.1 : Répartition de l’échantillon lobal………………………………… 120
Tableau 4.3.1.1 : Tests d’égalité des moyennes des groupes ………………………. 121
Tableau 4.3.1.2 : Résultats du test …………………………………………………. 122
Tableau 4.3.1.3 : Valeurs propres ………………………….………………………. 122
Tableau 4.3.1.4 : Lambda de Wilks ………………………….………………………. 123
Tableau 4.3.2 : Coefficients des fonctions discriminantes canoniques …………… 124
Tableau 4.3.3 : Fonctions aux barycentres des groupes …………………………… 125
Tableau 4.3.4 : Résultats de classement de l’échantillon de construction ………… 126
Tableau 4.3.5 : Diagnostic des observations pour l’échantillon de validation…….. 128
Tableau 4.3.6 : Résultats de classement de l’échantillon de validation…………… 128
Tableau 4.4.1 : Répartition de l’échantillon global ………………………………… 130
Tableau 4.4.2 : Taux de bons classements de l’échantillon test en fonction du
coefficient  et de l’erreur (N=10)…….……………………………… 133
Tableau 4.4.3 : Nombre de neurones de la couche cachée en fonction du taux de bons
classements de l’échantillon test………………………………………… 134
Tableau 4.4.4 : Les résultats de l’échantillon test et validation pour N = 16 ……..……… 136
Tableau 4.4.5 : Résultats de classement du modèle neuronal n°1 réalisé pour
l’échantillon test et validation …………………………………………… 136
Tableau 4.4.6 : Nombre de neurones de la couche cachée en fonction du taux de bons
classements de l’échantillon test …………………………………..…… 138
Tableau 4.4.7 : Les résultats de l’échantillon test et validation pour (N = 10)…………. 139
Tableau 4.4.8 : Les résultats de classement du modèle neuronal n°2 réalisé pour
l’échantillon test et validation …………………………………………… 140
Tableau 4.4.9 : Récapitulatif des résultats des trois modèles élaborés …………… 141
Liste des figures

Figure 2.1 : Les étapes de notation financière …………………………………………… 46


Figure 2.2 : Processus du crédit Scoring ………………………………………………… 52
Figure 2.3 : Le partitionnement récursif....................................................................... 60
Figure 2.4 :Distribution de deux groupes sur deux variables et tracé de
la fonction discriminante ……………………………………………………… 68
Figure 3.1 : Le neurone biologique………………………………………………………… 82
Figure 3.2 : Le neurone formel……………………………………………………………… 84
Figure 3.3 : Réseau bouclé …………………………………………………………………… 87
Figure 3.4 : Evolution des courbes d’erreur durant la phase d’apprentissage……… 90
Figure 3.5 : Perceptron Multi-Couches…………………………………………………… 92
Figure 3.6 : Le réseau de HOPFIELD………………………………………………………… 93
Figure 3.7 : Le réseau de KOHONEN ………………………………………………………… 94
Figure 4.3 : La répartition de l’échantillon selon le secteur d’activité……….……… 113
Figure 4.4 : La répartition de l’échantillon selon le statut juridique ……….………… 114
Figure 4.5 : La répartition de l’échantillon selon la localité………. ……….………… 114
Figure 4.6 : La répartition de l’échantillon selon l’âge …………….………….……… 115
Figure 4.7 : La répartition de l’échantillon selon la nature de la demande….……… 116
Figure 4.1.1 : Architecture du réseau n°1………………………………..……………… 131
Figure 4.1.2 : Courbes d’apprentissages…………………………………………………… 135
Figure 4.1.3 : Architecture du réseau n°2………………………………………………… 137
Figure 4.1.4 : Courbes d’apprentissages du réseau n°2………………………………… 139
Introduction générale

La pensée ne commence qu’avec le doute.


MARTIN DU GARD R.

Introduction générale

e système bancaire est apparu de plus en plus fragile depuis la vague des faillites

L bancaires des années 80 (Continental Illinois en 1984, Rumasa Group en 1984 , les
banques texanes à partir de 1985 et la vielle banque anglaise Barrings qui a fait
faillite en 1995 après plus de deux siècles d’existence), et avec la réapparition des crises
financières (le Krach boursier en 1987, la crise asiatique en 1997 et la dernière crise en
2007 spécifique aux crédits immobiliers).

Ces vingt dernières années ont été marquées par de nombreuses faillites à travers le
monde. L’accroissement actuel de la taille des entreprises en faillite, donc des montants de
dettes concernés, rappelle vivement la nécessité de prévoir la défaillance. La protection des
intérêts des créanciers, voire le rétablissement de la pérennité de l’entreprise, passent par
l’anticipation des graves difficultés économiques et financières qu’une entreprise est
susceptible de rencontrer.

Un consensus a émergé sur le fait que le risque de crédit constitue la première


cause interne de défaillance bancaire. Plus précisément, l’excès du risque de crédit,
lorsqu’il résulte d’une mauvaise gestion du risque, est le déterminant interne fondamental
dans la faillite bancaire.

L’attribution des crédits aux entreprises est d’une importance capitale pour la plupart
des institutions financières car ces crédits représentent la principale source de revenus des
institutions financières. Cependant, ces crédits entraînent des risques importants pour
l’entreprise prêteuse, d’où l’importance de la maîtrise des risques bancaires.

1
Introduction générale

Les banques vont donc chercher à évaluer la capacité de l’entreprise à honorer ses
contrats en mesurant le risque de défaillance de l’entreprise.

La maîtrise du risque de crédit devient un enjeu important : il s’agit du thème


central des nouveaux accords de Bâle II. Les instances réglementaires internationales ont
compris la nécessité de renforcer les procédures de gestion et de contrôle car la négligence ou
la non maîtrise de ce risque peut mettre en péril la banque.
De ce fait, les banques et les autorités de tutelle s’efforcent de mettre au point des
méthodes sophistiquées et des moyens adéquats pour une gestion optimale et une maîtrise de
ce risque en ayant recours aux différents outils d’analyse, d’évaluation et de prévision
du risque de défaillance.

Actuellement le problème se pose aux banques avec une acuité particulière. Dans le
cadre du Comité de Bâle et du ratio Mac Donough, les banques se devront en effet de
proposer une évaluation systématique des risques qu’elles encourent. Ceci implique
notamment une estimation précise de la probabilité de défaut de leurs clients, donc un
éventuel remaniement de leurs méthodes d’évaluation (Refait 2004).

Le développement extraordinaire des outils de traitement de l’information n’en finit pas


de révolutionner l’organisation de notre société. Le monde de la finance n’y est pas resté
indifférent.

La prédiction de défaillance est un sujet éminemment important pour de nombreuses


personnes (gestionnaire, actionnaires, banquiers,…) les coûts énormes, sociaux ou
économiques, que les faillites occasionnent ont suscité l’intérêt de nombreux chercheurs et ont
permis de développer un nombre considérable de modèles. Ces modèles ont été construits à
l’aide de méthodes statistiques ou économétriques mais aussi de méthodes multicritères ou
encore des méthodes issues de l’intelligence artificielle.

Notons qu’il existe une multitude de méthodes classiques pour décider de l’octroi de
crédit. La technique la plus utilisée par les banques est la méthode du crédit scoring qui repose

2
Introduction générale

sur l’analyse discriminante. Malgré les résultats obtenus par cette méthode et les preuves
qu’elle a réalisé elle reste limitée. En effet, les problèmes économiques étudiés sont dans
leur grande majorité non-linéaires alors que la méthode du score considère que le phénomène
est linéaire. D’autres limites ont été constatées : la difficulté de généralisation, l’utilisation de
données quantitatives, etc.

D’autres modèles de l’analyse de risque ont vu le jour pour pallier à ces insuffisances.
Les techniques empruntées à l’intelligence artificielle, tels les systèmes experts sont utilisés
dans les banques pour décider de l’octroi de crédit, mais aussi pour noter les emprunteurs (le
rating). Dans ces systèmes experts, l’approche est de nature qualitative reproduisant les
règles de décisions des experts en matière de crédit. Bien qu’ils n’exigent pas de disposer de
longs historiques de données puisqu’ils s’appuient sur l’expérience des experts (ce qui lui
confère un avantage certain sur les méthodes de scoring). Cependant le principal inconvénient
des systèmes experts est qu’ils peuvent faire une part importante à la subjectivité et aux
jugements des experts1.

Les réseaux de neurones artificiels (RNA) sont parmi les outils les plus récents évoqués
par les chercheurs et empruntés eux aussi à l’intelligence artificielle. Ces récentes techniques
connaissent un très grand engouement académique. Elles permettent en effet de bonnes
prévisions tout en présentant l’avantage de ne pas exiger de restrictions statistiques. En effet,
les réseaux de neurones artificiels, contrairement aux méthodes statistiques, ne nécessitent
aucune hypothèse sur les variables. Pour cette raison, et parce qu’ils sont capables de traiter
des problèmes non structurés, c'est-à-dire des problèmes sur les quels il est impossible à priori
de spécifier la forme de la fonction de discrimination, ils font aujourd’hui l’objet d’une
attention particulière.

Depuis le début de la décennie 1990, les réseaux de neurones artificiels habituellement


utilisés en physique appliquée font leur entrée dans les sciences de gestion en tant que
méthode quantitative à coté des méthodes statistiques classiques.

1
Nous n’évoquerons pas les fondements des systèmes experts dans notre recherche, mais pour plus de détails
voir Dietsch & Petey 2003.

3
Introduction générale

Les réseaux de neurones artificiels s’inscrivent dans une approche, certes pragmatique, mais
dans une optique inter-relationnelle entre les variables représentant le phénomène. De plus,
c’est l’une des rares techniques qui prend en compte les données bruitées.

Deux raisons principales ont suscité les chercheurs à opter pour cette nouvelle méthode :
 D’une part, contrairement aux méthodes statistiques classiques, les réseaux de
neurones artificiels ne nécessitent aucune hypothèse sur les variables.

 D’autre part, ils sont bien adaptés à traiter des problèmes complexes non
structurés, autrement dits des problèmes pour lesquels il est impossible à priori de
spécifier la forme des relations entre les variables utilisées.

Cette recherche vise à explorer de nouvelles techniques issues du domaine de


l’intelligence artificielle afin d’améliorer la capacité du banquier à prévoir la classe de
risque de l’entreprise demandant un crédit.

L’objet de cette recherche est de démontrer la robustesse de l’approche neuronale par


rapport à la méthode classique qui est une méthode paramétrique du crédit scoring (l’analyse
discriminante linéaire) en effectuant une étude comparative entre les deux méthodes avec le
même échantillon de données.

Quel est l’apport des réseaux de neurones artificiels (RNA) par rapport à
l’analyse discriminante linéaire (ADL) en termes de modélisation du crédit ?
Telle est la question centrale de notre recherche.

Cette recherche vise deux objectifs :


1. La minimisation du risque ;
2. La maximisation de la rentabilité de la banque.

Trois éléments résument la thèse ici défendue :

4
Introduction générale

1. Les outils classiques sont limités car ils nécessitent que les variables vérifient
un certain nombre de propriétés statistiques.

2. Les outils classiques présentent des difficultés de généralisation des résultats.


De plus, ils sont généralement basés sur des données quantitatives.

3. Les RNA sont plus performants et donnent de meilleurs résultats sinon des
résultats au moins identiques que ceux de la méthode classique.

Notre démarche est principalement inductive et repose sur une approche empirique. A
partir d’un outil de traitement de l’information, l’objectif est de tenter de concevoir des
modèles d’évaluation du risque pour le classement des entreprises demandant un crédit
d’exploitation.

L’évaluation de risque de défaillance d’une entreprise reste une notion assez floue et
peut être appréhendée par un large éventail de disciplines : à travers une analyse stratégique,
organisationnelle, sociale, technico-économique, marketing ou financière. Elle est donc
multidimensionnelle. Dans le cadre de notre travail nous ne retiendrons que la démarche
financière

Notre recherche est basée sur une étude empirique réelle se basant sur la collecte de
données extraites des dossiers de clients d’une banque publique algérienne. L’échantillon est
constitué d’entreprises privées de petite et moyenne taille domiciliées à une banque publique
algérienne au niveau de plusieurs agences à travers le territoire national. Ces agences sont
gérées par une direction centrale située à Alger. Ces entreprises ont bénéficié d’un nouveau
concours ou d’un renouvellement de crédit d’exploitation au cours de la période 2002-2007.
Nous avons pu recueillir un échantillon de 209 entreprises provenant de secteurs d’activités
différents.
L’élaboration des différents modèles s’est réalisée comme suit :
- Le modèle de l’analyse discriminante est réalisé à l’aide des logiciels : EXCEL7
et S.P.S.S 10.0 (Statistical Package for Social Science).

5
Introduction générale

- Les modèles des réseaux de neurones artificiels sont réalisés à l’aide de


programmation sous MATLAB 7.0 (Matrix Laboratory : the language of technical
computing).

Notre recherche s’articule autour de quatre chapitres :


 Le premier chapitre présente les différentes formes de crédits d’exploitation, ainsi
que le risque de crédit sous ses différentes formes et son influence sur la banque.
Il résume, ensuite, la réglementation bancaire internationale et nationale en matière
de risque de crédit.

 Le deuxième chapitre est consacré aux méthodes d’évaluation du risque de crédit à et


aux modèles du crédit scoring. Il a pour but de faire d’abord un tour d’horizon des
techniques les plus utilisées dans l’évaluation de la défaillance des entreprises et de
les synthétiser afin de mieux comprendre l’intérêt de l’intervention des réseaux de
neurones artificiels. Nous présentons les trois classes de méthodes de classification :
les méthodes statistiques paramétriques, les méthodes non-paramétriques et les
méthodes issues de l’intelligence artificielle.
Il présente ensuite les concepts théoriques du crédit scoring et la méthode d’analyse
discriminante linéaire comme outil d’analyse du crédit scoring. Le chapitre se
termine par une présentation des atouts et limites de cette méthode.

 L’intérêt du troisième chapitre est de poser les bases de fonctionnement des R.N.A
et de présenter les différents types d’architectures existantes, afin de mieux
comprendre les raisons de leur utilisation dans le cadre d’une application financière.
Il est consacré à l’approche neuronale avec tous ses fondements théoriques, ses
origines biologiques et les conditions de sa mise en œuvre, ainsi que les domaines
d’application en finance.

 Le quatrième chapitre constitue le noyau de notre recherche, il reprend l’ensemble


des méthodologies utilisées et résume la démarche empirique adoptée dans le cadre
de la recherche. Son but est l’élaboration, d’abord, des deux modèles en appliquant

6
Introduction générale

les méthodes citées précédemment (l’analyse discriminante linéaire et les réseaux de


neurones artificiels) et de procéder à la comparaison de leurs résultats. Ce chapitre
présente à la fin les avantages et les limites des R.N.A.

 En guise de conclusion, nous présenterons les résultats obtenus par les deux
méthodes et les limites de la recherche effectuée ainsi que les perspectives.

7
Chapitre 1 : Les crédits bancaires et leurs risques

Il n’y a de certain que le passé, mais on


ne travaille qu’avec l’avenir.
DETOEUF A

Chapitre 1 : Les crédits et leurs risques

Introduction
Dans une économie moderne, la presque totalité des échanges de biens ou de services,
se fait par l’intermédiaire de la monnaie quelle soit sous forme de billets de banque ou sous
forme d’opérations de dépôts ou de crédits bancaires.

D’après (Bernet-Rollande 2004, p25). Chaque agent économique (état, entreprise,


particuliers, etc.) peut détenir, à certains moments, une quantité de monnaie supérieure à ses
besoins ; il se peut, au contraire, qu’à d’autres moments, il vienne à en manquer pour faire
face à ses besoins de trésorerie ou d’équipement. La banque joue donc un rôle
d’intermédiaire entre ceux qui ont trop de disponibilités (les déposants) et ceux qui n’en ont
pas assez (les emprunteurs).

Les établissements de crédit offrent leurs services à trois grandes catégories de clients :
les particuliers, les collectivités locales, et les entreprises.
(Hull J. & al. 2007) précise que les banques sont confrontées à des coûts de faillites similaires
à ceux des autres entreprises et sont incitées à gérer prudemment leurs risques

Il est vrai qu’en octroyant un crédit, un seul objectif est recherché par le banquier :
générer des profits en utilisant les ressources dont il dispose. Cependant, l’approche du risque
dépend de la nature des engagements (De Coussergues 2002, p100) :
- selon le type de crédit accordé, la mobilisation des créances étant jugée moins
risqués que les crédits de trésorerie ;
- selon la durée des crédits, les crédits à court termes étant moins risqués que les
crédits à long terme ;
- selon les garanties dont les crédits sont assortis.

A ce titre, l’intérêt de ce chapitre consiste :

8
Chapitre 1 : Les crédits bancaires et leurs risques

- Dans un premier temps, de présenter les différentes formes de crédits


d’exploitation ;

- De présenter, dans un deuxième temps, le risque de crédit sous ses différentes


formes ainsi que son influence sur la banque ;

- Ensuite, dans un troisième temps, de survoler la réglementation bancaire


internationale et nationale en matière de risque de crédit ;

9
Chapitre 1 : Les crédits bancaires et leurs risques

1. Définition et formes des crédits d’exploitations

L’attribution des crédits aux entreprises est d’une importance capitale pour la plupart
des institutions financières mais aussi pour le développement de l’économie d’un pays.

Les crédits qui représentent la principale source de revenus des institutions financières,
entraînent des risques importants pour l’entreprise prêteuse, d’où l’importance de la maîtrise
des risques bancaires qui est le thème central des nouveaux accords de Bâle.

1.1 Définitions du crédit


Le mot crédit vient du mot latin "credere" qui signifie faire confiance. La confiance est
la base de toute décision de crédit.

Le crédit est définit par (Bernet-Rollande 2004, p26) comme une assistance financière
du banquier à l’égard de son client. Ce crédit peut donner lieu à mise à disposition de fonds et
l’on parlera alors de crédits par décaissement (ex : découvert). Il peut être plus simplement,
l’engagement par le banquier d’honorer la signature de son client en cas de défaillance de ce
dernier.

Le crédit au sens juridique, comme le définit (Benhalima A. 1997, p55) au sens de


l’article 32 de la loi bancaire du 19 août 1986, est tout acte par lequel un établissement,
habilité à cet effet, met ou promet de mettre temporairement et à titre onéreux, des fonds à la
disposition d’une personne morale ou physique ou contracte, pour le compte de celle-ci, un
engagement par signature.

Le crédit est donc fondé sur les caractéristiques suivantes :


Crédit = Confiance + Délai + Rémunération + Risque

 La confiance : faire crédit signifie faire confiance et mettre à la disposition d’une personne
morale ou physique un fond contre une promesse de le restituer plus tard. Autrement dit
faire confiance en les dirigeants et surtout en prenant en considération la solvabilité du
demandeur de crédit.

10
Chapitre 1 : Les crédits bancaires et leurs risques

 Le délai : c’est le temps accordé au crédité par le créditeur afin de rembourser le fond
emprunté.

 La rémunération : un seul objectif est recherché par le banquier : générer des profits en
utilisant les ressources dont il dispose. Le crédit contient généralement des conventions sur
le taux d’intérêt et les différentes commissions prévues en fonction des opérations
effectuées.

 Le risque : Le risque de crédit est présent dans tous les contrats financiers et constitue la
principale source de pertes pour les institutions financières

Les crédits accordés peuvent être à court, moyen ou long terme1.

1.2 Les différentes formes de crédits d’exploitation accordés aux entreprises


Les crédits destinés aux entreprises sont plus variés que les crédits aux particuliers et
leur montant est beaucoup plus élevé.

L’une des formes de crédits consenties couramment aux entreprises sont les crédits
d’exploitation. Ce sont des crédits à court terme dont la durée de remboursement est
généralement d’une année et leur remboursement est assuré par les recettes d’exploitation.

Ces crédits permettent à l’entreprise de tourner, c'est-à-dire de financer sa production et


sa commercialisation. Ils servent à financer l’actif circulant ou la trésorerie de l’entreprise. Ils
peuvent être résumés comme suit, tant dans leur nature que dans leur utilisation : Les crédits
par caisse et les crédits par signature.

1.2.1 Les crédits par caisse (crédits directs)


C’est l’autorisation donnée par la banque au client de devenir débiteur à concurrence du
montant de crédit et ce, aux clauses et conditions convenues. Le crédit par caisse constitue un
soutien direct de la banque à la trésorerie de l’entreprise.

1
Notre champ d’étude se limite aux crédits à courts termes, c'est-à-dire les crédits d’exploitation

11
Chapitre 1 : Les crédits bancaires et leurs risques

Dans le cas des PME, le crédit par caisse fait souvent l’objet d’une garantie : caution
personnelle des dirigeants, nantissement de bons de caisse ou de marchandise et plus rarement
hypothèque sur un immeuble (cf § 3.1 la politique de garanties).

On distingue deux types de crédits par caisse : les crédits de trésorerie globaux et les
crédits par caisse spécifiques.

1.2.1.1 Les crédits de trésorerie globaux.


Cette partie s’inspire essentiellement de (Bernet-Rollande 2004) et on distingue
plusieurs formes de crédit par caisse : Le découvert, le crédit de campagne, le crédit «
spot » et l’accréditif.

 La facilité de caisse
La facilité de caisse est accordée à l’entreprise lorsqu’elle a besoin de faire face à une
gêne momentanée de trésorerie. Cette autorisation est accordée pour une période donnée.
C’est le crédit destiné à combler les creux de trésorerie dus au roulement de l’actif circulant :
paie, achat de matières, règlement fiscaux etc.

 Le découvert
Ce type de crédit est mis en place dans le cas ou l’entreprise est en attente d’une rentrée
de fonds et qu’elle souhaite disposer à l’avance des fonds attendus afin de profiter d’une
opportunité (par exemple règlement d’un important marché).
Ce crédit est accordé pour une période plus longue (de quelques semaines à quelques mois)
que le crédit par caisse.

 Le crédit de campagne
Une entreprise peut subir un important décalage entre les dépenses qu’elle règle et les
rentrées qu’elle doit avoir et ce, pour différentes raisons. Elle peut avoir ce qu’on appelle une
activité saisonnière. Ainsi, elle peut fabriquer toute l’année et vendre sur une période très
courte (exemple : distillerie, industrie des engrais fabricant de jouets), ou bien elle ne peut
acheter que sur une période très courte pour vendre toute l’année (exemple : fabricant de
conserves).

12
Chapitre 1 : Les crédits bancaires et leurs risques

 Le crédit « spot »
C’est une forme de découvert momentané. Il est accordé sous forme d’avance d’une
durée de quelques heures à quelques jours, formalisé le plus souvent par des billets financiers.
Le principal avantage de ce type de financement réside dans la suppression des commissions
applicables au découvert.

 L’accréditif
L’accréditif est la possibilité pour une entreprise de disposer de fonds dans une autre
agence de sa banque ou chez un de ses correspondants.

1.2.1.2 Les crédits par caisse spécifiques.


A la différence des crédits par caisse globaux qui couvrent des besoins de nature et
d’origines très diverses, les crédits par caisse spécifiques participent au financement des
postes de l’actif circulant (stock et poste client) mais le plus souvent à mobiliser une créance
commerciale. Voici quelques types de cette forme de crédit :

 L’escompte
L’escompte est définit par (Bernet-Rollande 2004, p211) comme une opération qui
consiste pour le banquier à acheter à une entreprise les effets de commerce dont elle est
porteuse (bénéficiaire final) avant l’échéance et ce moyennant le paiement d’agios, le cédant
restant garant du paiement.

L’escompte fait donc intervenir trois parties : l’entreprise bénéficiaire de l’escompte,


appelée le cédant, le débiteur de l’effet, appelé le cédé et le banquier qui est le cessionnaire ;

 L’affacturage
C’est un contrat par lequel un établissement de crédit spécialisé, appelé factor, achète
ferme les créances détenues par un fournisseur, appelé vendeur, sur ses clients appelés
acheteurs ou bénéficiaires de services et ce moyennant rémunération (Bernet-Rollande 2004,
p223).

13
Chapitre 1 : Les crédits bancaires et leurs risques

L’entreprise peut recourir à l’affacturage soit comme instrument de mobilisation ou


instrument de recouvrement de ses créances commerciales. Les sociétés d’affacturage sont le
plus souvent des filiales de banques ;

 L’avance sur marchandises


L’entreprise qui détient des marchandises en stock peut demander à sa banque une
avance sur ses marchandises (Bernet-Rollande 2004, p225). C’est une forme classique de
crédit qui consiste à financer un stock et à appréhender en contrepartie de ce financement des
marchandises qui sont remises en gage à la banque.

Elle peut se réaliser de deux manières : la marchandise est déposée dans les locaux de
l’entreprise ou dans les locaux appartenant à un tiers (magasin général) avec délivrance d’un
récépissé warrant.

1.2.2 Les crédits par signature (crédits indirects)


La banque prête alors simplement sa signature sans supporter de charge de trésorerie.
Dans cette forme de crédit, le banquier s’engage par lettre, auprès de tiers, à satisfaire aux
obligations contractés envers eux par certains de ses clients, au cas ou ces derniers n’y
satisferaient pas eux-mêmes (Bernet-Rollande 2004, p226).
Dans ce cas, la banque aide l’entreprise en mettant à sa disposition des fonds de crédits de
trésorerie. On distingue trois types d’engagements par signature : le cautionnement bancaire,
l’aval et le crédit documentaire.

1.2.2.1 Les cautions


Une entreprise qui se propose de prendre part à la réalisation d’un marché public,
demande généralement à sa banque de lui fournir des cautions : cautions d’adjudication,
caution de bonne fin ou d’exécution, caution de retenue de garantie et caution d’escompte
(Benhalima A. 1997, p69).

14
Chapitre 1 : Les crédits bancaires et leurs risques

L’administration fiscale peut accorder un délai de paiement de la TVA de 4 mois au


plus à condition que l’entreprise soit cautionnée par une banque. En cas de défaillance, le
trésor public se retournerait contre la banque.
Le même mécanisme existe pour les droits de douanes.

1.2.2.2 L’aval
Pour faciliter à son client soit la livraison de marchandises soit l’octroi de crédit par un
confrère, le banquier peut accepter (ou avaliser) un effet de commerce tiré par son client en
s’engageant de ce fait de payer à l’échéance. A Cette date, le client assurera à son banquier la
couverture de l’effet par la somme prévue, ce dernier n’ayant pas en principe de décaissement
à effectuer (Bernet-Rollande 2004, p229).

1.2.2.3 Le crédit documentaire (« Credoc »)


Ce crédit est utilisé dans le cadre des transactions commerciales internationales pour
l’importation ou l’exportation de marchandises ou de biens d’équipement.

C’est l’engagement pris par la banque d’un importateur de garantir à l’exportateur le


paiement des marchandises contre la remise de document attestant de l’expédition et de la
qualité des marchandises prévues au contrat.

2. Les risques relatifs aux crédits bancaires

Une entreprise est d’abord un projet économique dont le déroulement dans le temps est
exposé à un risque multiforme.

Nombreuses sont les études portant sur le risque de crédit. Ce dernier est l’un des plus
anciens risques auquel sont confrontées les banques, et constitue même la principale source
de pertes monétaires de ces établissements financiers.

Le risque de crédit sous les différents traits qu’il révèle se situe au cœur des

15
Chapitre 1 : Les crédits bancaires et leurs risques

préoccupations bancaires, c’est pour cela et pour une meilleure gestion de cet aléa
qu’une réglementation pertinente a été mise en place.

2.1 Notion du risque bancaire


Il est relativement difficile de définir la notion de risque. D’après (Roncalli 2004, p18)
le risque est lié à la survenance d’un événement non prévisible qui peut avoir des
conséquences importantes sur le bilan ou le compte de résultat de la banque. Généralement,
les conséquences correspondent donc à des pertes avérées.

D’après (De Coussergues 2002, p145), tout crédit est une anticipation de revenus futurs
et tout crédit comporte le risque que ces revenus ne se produisent pas et qu’aucun
remboursement ou bien seulement un remboursement partiel n’ait lieu à l’échéance.

En matière de prêt, (De La Bruslerie 2002, p293) considère que le risque encouru est
l’incapacité de l’emprunteur à honorer les termes financiers de son contrat. Il s’agit du
paiement des flux d’intérêts et du remboursement du capital.

De par leur nature d'intermédiaires financiers, les banques sont exposées depuis toujours
à une série de risques, classés maintenant en trois grandes catégories : risques de marché,
risques de crédit et risques opérationnels. Pour une banque universelle, (Roncalli 2004) estime
que le risque le plus important est le risque de crédit, suivi par le risque opérationnel, puis par
le risque de marché.

La gestion de ces risques est en évolution constante et recouvre plusieurs aspects, dont
notamment le respect des limites et le calcul de capital.

2.2 Les différentes natures de risque


D’après (Vernimmen 2005), les risques de l’entreprise peuvent se répartir en cinq
catégories : le risque de marché, le risque opérationnel, le risque politique, le risque de
liquidité et le risque de crédit.

16
Chapitre 1 : Les crédits bancaires et leurs risques

2.2.1 Le risque de marché


L’exposition des banques au risque de marché est due essentiellement aux activités
d’échanges de titres (ou de trading). La banque est alors exposée aux fluctuations des taux
d’intérêts et de change, à la variation des prix des actifs cotés, à la variation des prix des
matières et à la variation d’autres variables de marché (Hull J. & al. 2007). Le risque de
marché concerne les taux d’intérêt, les taux de change, les cours de matières premières ou des
actions (risque de volatilité).

2.2.2 Les risques opérationnels


Ce sont des risques de pertes qui proviennent des erreurs de personnel au sens large, des
systèmes ou processus, ou des événements externes. Il concerne les désastres, les fraudes, et
les technologies (Vernimmen 2005).

2.2.3 Les risques politiques, réglementaires et légaux


Ils ont un impact sur l’environnement immédiat de l’entreprise et peuvent modifier sa
situation concurrentielle.

2.2.4 Le risque de liquidité


Il se définit comme l’impossibilité à un moment donné de faire face à des échéances de
trésorerie (l’entreprise n’a plus d’actifs, ou difficulté de liquider ses actifs à cause d’une crise
financière, ou encore difficulté de trouver des investisseurs qui permettent de donner de
nouveaux fonds à l’entreprise).

2.2.5 Le risque de crédit ou de contrepartie2


Le risque de crédit traduit la défaillance possible d’un emprunteur, d’un émetteur, d’un
émetteur d’obligation ou d’une contrepartie dans une transaction financière (Hull J. & al.
2007, p229).

2
Il y a plusieurs termes pour désigner le risque de crédit tels que : risque de contrepartie, risque de défaut, risque
de non remboursement et risque de défaillance. Pour la suite nous retiendrons le terme : risque de défaillance.

17
Chapitre 1 : Les crédits bancaires et leurs risques

Le risque de crédit est présent dans tous les contrats financiers et constitue la principale
source de pertes pour les institutions financières. Selon (Vernimmen 2005, p1051) il est
naturellement fonction de trois paramètres : le montant de la créance, la probabilité de défaut
et la proportion de la créance qui sera recouvrée en cas de défaut.
Le risque de contrepartie comporte deux aspects : un aspect externe lié à l’insolvabilité
de l’emprunteur et un aspect interne qui tient à la façon dont la banque organise la fonction
distribution de crédit (De Coussergues 2002, p145).

En résumé, c’est donc, le risque de perte sur une créance ou plus généralement celui
d’un tiers qui ne paie pas sa dette à temps, c’est-à-dire le non remboursement de ses dettes par
un emprunteur défaillant.

2.3 Typologie du risque de crédit

En général, le risque de crédit peut prendre trois formes principales : le risque de


contrepartie ou de défaut, le risque de dégradation du spread de signature et le risque de
dégradation de la qualité de l’emprunteur.

2.3.1 Le risque de défaut (default risk)

D’après (Roncalli 2004, p105), cette première forme de risque est associée à
l’occurrence d’un défaut, caractérise par l’incapacité du débiteur à faire face à ses
obligations. L’agence Moody’s retient la définition suivante du risque de défaut : « tout
manquement ou tout retard sur le paiement du principal ou des intérêts ».

Dans le second document consultatif du Comité de Bâle II, le défaut d'une


contrepartie est supposé être survenu si l'un, ou plusieurs, des quatre évènements suivants est
constaté (Sardi & Henry 2001, p186) :
1- L'emprunteur ne remboursera vraisemblablement pas en totalité ses dettes (principal,
intérêts et commissions) ;

2- La constatation d'une perte portant sur l'une de ses facilités : comptabilisation d'une
perte, restructuration de détresse impliquant une réduction ou un rééchelonnement du
principal, des intérêts ou des commissions ;

18
Chapitre 1 : Les crédits bancaires et leurs risques

3- L'emprunteur est en défaut de paiement depuis quatre-vingt dix (90) jours sur l'un de
ses crédits ;

4- L'emprunteur est en faillite juridique.

Dans ce cas là, on est en présence du défaut de la contrepartie. Il y’a trois (03) éléments
qui interviennent dans sa mesure (Dietsch & Petey 2003) :

a- La probabilité de défaut : c’est la probabilité qu’une contrepartie fasse défaut. Cette


probabilité est déterminée pour un horizon donné (généralement un an).

b- L’exposition en cas de défaut : C’est le montant des engagements de la contrepartie


lorsque l’événement défaut survient. L’exposition représente donc la perte
maximale en cas de défaut.

c- Le taux de récupération en cas de défaut : C’est le taux de recouvrement espéré après


la liquidation de l’entreprise, il est fonction de (1) la durée de la procédure
judiciaire, (2) de la valeur réelle de la garantie et (3) du rang de la banque par
rapports au autres créanciers.

2.3.2 Le risque de dégradation du spread de signature


Le Spread de crédit est une prime de risque qui lui est associée. Elle mesure donc sa
qualité (plus le risque est élevée, plus le Spread est élevé). Le risque de Spread est le risque de
voir se dégrader la qualité de la contrepartie et donc des flux (remboursements et intérêts)
espérés de cette contrepartie. Ce risque peut être mesuré d’une façon séparée pour chaque
contrepartie ou globalement dans le cas d’un portefeuille de crédit.

Ce risque fait l’objet d’un suivi quotidien par les banques soucieuses de la
valeur de leur portefeuille et qui font du mark-to-market3.

3
Technique qui consiste à réévaluer la valeur du portefeuille d’une banque en fonction des nouveaux paramètres
du marché.

19
Chapitre 1 : Les crédits bancaires et leurs risques

2.3.3 Le risque de dégradation de la qualité de l’emprunteur

Appelé également « Downgrading risk ». La dégradation de la qualité du crédit


constitue la troisième source de risque portant sur une dette. Si la perception de la qualité de
l’emprunteur se détériore, la prime de risque accordée par les marchés financiers s’accroît en
conséquence. De plus, Pour une contrepartie notée par une agence de notation, le
risque de dégradation peut se matérialiser par un abaissement de la note et ainsi une
dévalorisation de la dette qu’elle détient sans pour autant qu’il y ait défaillance.

La corrélation entre ces deux catégories (risque de défaut et de dégradation) est


très forte : d'un côté, la dégradation de la qualité de la contrepartie peut être un
précurseur du défaut et, d'un autre côté, le défaut conduit forcément à la dégradation
de la note de l'emprunteur en question.

2.4 Les conséquences du risque de crédit


A l’image de tous les risques financiers (cités précédemment), le risque de crédit n’est
pas sans effet sur la banque. Il peut se manifester, en fonction de son ampleur, sur son résultat,
sa note, sa réputation et même sa solvabilité et peut éventuellement être à l’origine d’une
crise systémique par un effet de contagion. Les conséquences du risque de crédit peuvent être
résumées comme suit :

 Dégradation des résultats de la banque


Une banque qui s’expose à plus de risque (plus de créances douteuses et
litigieuses) doit provisionner plus, et par conséquent, la banque génère des
résultats médiocres, voire même négatifs.

 Dégradation de la note de la banque


Le rating des banques constitue un indicateur de leur solvabilité et peut donc servir
à évaluer la probabilité de défaut de celles-ci. Il constitue également un outil
de surveillance prudentielle que le régulateur peut utiliser comme signal
supplémentaire de leur fragilité.
La détérioration des résultats de la banque conduit les agences de notation à réviser,
à la baisse, son rating dans la mesure où les résultats réalisés font partie des

20
Chapitre 1 : Les crédits bancaires et leurs risques

principaux facteurs que ces agences prennent en considération lors de


l’attribution des notes, ce qui portera préjudice à l’image de marque de la
banque. Ainsi, les déposants vont se précipiter à retirer leurs fonds de la
banque et les agents du secteur bancaire vont perdre confiance en elle,
provocant ainsi son illiquidité.

 Dégradation de la solvabilité de la banque


La réalisation des pertes consécutives entraîne la consommation des résultats
générés par la banque, or en cas d’insuffisance des résultats pour absorber
les pertes constatées, la banque sera dans l’obligation de les imputer sur ses fonds
propres, ce qui peut conduire à son insolvabilité définitive, à moyen ou long terme.

 Le risque de crédit, origine du risque systémique


Le risque crédit peut entraîner par un effet de contagion une crise systémique. En
effet, la faillite d’une banque, en raison de la dégradation de sa situation
financière et de son insolvabilité, peut provoquer celle d’une autre. La banque en
faillite ne remboursant pas celle qui lui a prêté des fonds sur le marché
interbancaire peut lui causer des problèmes de liquidité et donc entraîner sa chute4.

3. La gestion du risque de crédit

Le risque de crédit ou risque de défaillance est le plus ancien et, encore aujourd’hui, le
principal risque pour les institutions financières. Durant les années 1980, ce risque a fortement
augmenté en raison de la montée en puissance de divers facteurs. En effet, les banques et les
préteurs ont été confrontés à une forte augmentation du nombre de défaillances d’entreprises à
la fin des années 1980. Depuis 1995 (tableau 1.1), on assiste à une certaine décrue. Une
raison importante de cette évolution contrastée est la modification du régime juridique des
défaillances (De La Bruslerie 2002, p357).

4
Actuellement, la faillite de Lehman Brothers, quatrième banque d’affaires américaine, fragilise un peu
plus un secteur en crise depuis plus d’un an (crise de subprimes). En effet, le secteur bancaire redoute une
réaction en chaine (un effet domino).

21
Chapitre 1 : Les crédits bancaires et leurs risques

L’augmentation du nombre d’entreprises défaillantes est dû essentiellement selon (De


La Bruslerie 2002) à l’environnement juridique et les effets d’une mauvaise loi. D’autres
facteurs d’environnement interviennent aussi dans cette augmentation : la crise économique
et les évolutions des charges.

Tableau 1.1 : Nombre de défaillances


Année Nombre de défaillance (dont CA > 15 Me)
1975 14 875 nd
1980 17 375 nd
1985 26 425 nd
1990 46 495 nd
1991 53 988 nd
1992 61 228 nd
1993 68 006 nd
1994 63 199 88
1995 59 503 126
1996 64 894 120
1997 61 068 99
1998 44 543 nd
1999 40 452 nd
2000 36 611 nd
nd : non disponible
Source : De La Bruslerie 2002 p358, rapporté dans « Insee, SFAC et Nova, 2001 ».

La catégorie des PME est la plus vulnérable en raison de sa fragilité financière et /ou de
problèmes de management.

Les banques sont confrontées à des coûts de faillites similaires à ceux des autres
entreprises et sont incitées à gérer prudemment leurs risques. Comme le souligne (Hull J. &
al. 2007, p13) la gestion prudente consiste, par exemple, à minimiser la probabilité de
défaillance.

22
Chapitre 1 : Les crédits bancaires et leurs risques

La gestion du risque est l’ensemble d’outils, de techniques et de dispositifs


organisationnels qui permettent de mesurer et de contrôler les risques. Cette gestion repose
fondamentalement sur trois éléments :
 La politique de garanties ;
 La politique de provisionnement ;
 Le respect des règles prudentielles.

3.1 La politique de garanties


La décision d’octroi de crédit est basée sur le diagnostic général de la santé financière
de l’entreprise. Néanmoins, la banque requiert des garanties puisqu’elle n’accorde pas une
confiance absolue lors de l’octroi de crédits. Elle se doit de se protéger en cas de défaillance
de l’emprunteur et selon des modalités diverses.

L’octroi de crédit est conditionné par la collecte des garanties dont la mise en jeu
constitue la solution de remboursement la plus extrême en cas de défaut de remboursement.
Cependant, il faut noter que la garantie n’est prise que par esprit de prévention et ne doit être
considérée comme la condition suffisante à l’octroi des crédits. Il existe deux types de
garanties : les garanties réelles et les garanties personnelles.

3.1.1 Les garanties réelles


Elles portent sur des biens et peuvent prendre plusieurs formes : la forme
d’hypothèques lorsqu’un immeuble est affecté à l’acquittement d’une obligation, la forme de
gages lorsque des biens meublés sont donnés en garantie avec droit de rétention du créancier
ou la forme de nantissement lorsque le créancier n’a pas de droit de rétention ;

3.1.2 Les garanties personnelles (De Coussergues 2002, p166)


Elles sont données par un tiers dans le cadre de cautionnement ou d’aval. Il est très
fréquent dans le cas de crédits à des PME que le banquier demande la caution solidaire du ou
des dirigeants de l’entreprise afin d’éviter de se voir opposer une responsabilité financière
limitée aux apports et d’inciter les dirigeants à gérer l’entreprise dans l’objectif de rembourser
les créanciers.

23
Chapitre 1 : Les crédits bancaires et leurs risques

Les règles en matière de prise de garanties doivent être clairement formalisées : contrats
assurant la sécurité juridique de l’opération, la définition des cas ou les garanties sont
obligatoires et les taux de couverture.

Il est bien entendu que la prise de garanties ne supprime pas le risque de non
remboursement et de défaillance notamment en raison de la complexité des procédures
collectives.

3.2 La politique de provisionnement

Il peut arriver qu’un retard survienne dans le remboursement d’une échéance. Cela
pouvant représenter un symptôme de défaillance, il y’a lieu de classer cette créance dans une
catégorie de risque afin de lui accorder un suivi plus rapproché et de constituer une provision
pour couvrir les pertes potentielles.

On peut identifier deux catégories de créances :

1- Les créances courantes : ce sont des créances détenues sur des entreprises saines. La
constitution de leur provision est de 1% par an jusqu’à atteindre 3%. La provision
dans ce cas là a un caractère de réserve.

2- Les créances classées : ses créances font l’objet d’un provisionnement plus important
vu leur caractère risqué. Il y’a trois classes : créances à problèmes potentiels (retard
de remboursement de 3 à 6 mois, provisionnement à 30%), créances très risquées
(retard de 6 mois à 1 an, provisionnement à 50%), et créances compromises (retard
supérieur à un an, provisionnement à 100%)

3.3 La règlementation prudentielle internationale

Le risque de crédit, étant le plus important des risques bancaires, et par conséquent le
plus inquiétant, requiert la vigilance de toutes les parties concernées, en particulier les
autorités de régulation afin de faire face aux effets désastreux résultant de sa mauvaise
gestion.

24
Chapitre 1 : Les crédits bancaires et leurs risques

L'accord de Bâle II a été publié en janvier 2001 par la Banque des règlements
internationaux, dont le siège est à Bâle, en Suisse, et il constitue une mise a jour d'un accord
de 1988 visant à créer des normes en matière de suffisance du capital pour les banques.

3.3.1 L’accord de Bâle I de 1988


En matière de la mesure de risque de crédit, le texte de référence est l’accord de
Bâle I portant sur la dotation en fonds propres, son objectif principal n’est plus de
modifier substantiellement la capitalisation des banques mais plutôt : la création d’un cadre
dans lequel les banques seront incitées à améliorer leurs capacités de gestion et la
promotion des meilleures pratiques en termes du risque crédit en encourageant les banques à
renforcer leurs procédures de mesure et de gestion des risques par le recours aux techniques
de quantification fondées sur des données internes.

Ce premier accord a instauré un ratio de solvabilité, appelé communément, ratio


Cooke, celui-ci n’a pas directement force de loi mais est transcrit par les autorités de
régulation dans les réglementations locales. L’accord de 1988, centré sur le risque crédit,
impose aux banques de renommées internationales un capital réglementaire égal au
minimum à 8% du volume des actifs ajustés du risque :

Fonds propres reglementa ires


Ratio Cooke   8%
risque encouru pondéré (risque crédit  risque marché )

Les pondérations des éléments du bilan diffèrent selon le type de la créance et du


débiteur :

 0% pour les créances sur les Etats membres de l’OCDE (Organisation pour le
Commerce et le Développement Economique) ;
 20% pour les créances sur les institutions internationales, les collectivités
territoriales et les banques d’Etats membres de l’OCDE ;
 50% pour les créances hypothécaires pour l'habitat ;
 100% pour les autres créances.

25
Chapitre 1 : Les crédits bancaires et leurs risques

L’application du ratio Cooke a permis aux banques de maintenir des fonds


propres élevés comme coussin pour faire face aux risques et a réduit considérablement
la probabilité de défaillance des établissements. Il est devenu une référence dans le domaine
de la gestion du risque de crédit. Aujourd’hui, plus de 100 pays appliquent ce ratio de
solvabilité, ce qui a pour conséquence immédiate le renforcement du système bancaire.

Cependant, au cours des années 90 et malgré tous ces avantages, le risque de crédit n’a
pas baissé en raison de la présence et de la relative permanence des facteurs suivants :

 Manque de fondement économique du 8%;


 Perception très lâche des risques de crédit car il n’est pas parvenu à sélectionner les
bons risques des mauvais;
 L’insuffisance d’une seule exigence de capital minimum. Comme le signale (Dietsch
& Petey 2003), toutes les banques qui ont fait faillite, respectaient parfaitement ce
ratio. D’où la nécessité d’introduire des exigences qualitatives;
 Pondération de solvabilité rigide ne tenant pas compte de la qualité réelle des actifs
du bilan ou des crédits.

3.3.2 L’accord de Bâle II


Afin de combler les lacunes du ratio Cooke et adapter l’actuel système de
surveillance aux nouvelles exigences, les autorités en charge de la régulation bancaire
internationale ont engagé un processus de réforme pour mieux aligner l’adéquation des
fonds propres sur les principales composantes des risques bancaires (risque de crédit ; risque
de marché et risque opérationnel) et encourager les banques à renforcer leurs procédures de
mesure et de gestion du risque, ce qui a conduit à l’apparition d’un nouveau ratio de
solvabilité : le ratio Mc Donough5.

Fonds propres reglementaires


Ratio Mc Donough  8%
Risque Crédit  Risque Marché Risque Opérationnel

Le nouvel accord propose les pondérations suivantes illustrées par ce tableau :

5
William Mac Donough est le président du Comité de Bâle et de la Federal Reserve Bank de New York.

26
Chapitre 1 : Les crédits bancaires et leurs risques

Tableau 1.2 : pondération des différents risques sous Bale II


Type de crédit Exigence en fonds propres Répartition

Crédit 6,8% 85%


Marché 0,24% 3%
Opérationnel 0,96% 12%
Total 8% 100%
Source : établi à partir de (Ogien D. 2004, p303)

Le tableau montre que le risque de crédit est en «tête» en matière de


consommation de capital, mais le risque opérationnel n’est pas pour autant à négliger.
En effet, l’intégration du risque opérationnel comme variable clé dans le calcul du capital
réglementaire représente la grande innovation de l’accord.

Le dispositif de Bâle II, qui vise à permettre une couverture plus fine et plus complète
des risques bancaires, comporte trois piliers complémentaires et interdépendants : le
pilier 1 constitue le socle des exigences réglementaires minimales ; le pilier 2 institue le
principe d’un dialogue structuré entre établissements et superviseurs ; enfin, le troisième pilier
est centré sur la transparence et la discipline de marché.

Pilier I : Exigences minimales en fonds propres pour couvrir les actifs pondérés
en fonction du risque :
 Des normes renouvelées pour mieux tenir compte des risques mais sans
modification du niveau global des fonds propres (8% en moyenne) ;
 Une meilleure prise en compte des techniques de réduction des risques ;
 Une prise en compte des risques opérationnels.

Pilier II : Contrôle accru par le régulateur, avec possibilité d’un examen


individualisé des établissements :
 L’analyse du profil global de risque des établissements par les régulateurs ;
 Le contrôle des procédures et de la méthode interne d’affectation des
fonds propres ;
 La possibilité de fixer des exigences individuelles supérieures au minimal
réglementaire.

27
Chapitre 1 : Les crédits bancaires et leurs risques

Pilier III : Une plus grande discipline de marché, visant à promouvoir une
communication financière efficace, avec l’obligation de publication périodique des
informations permettant une appréhension de la structure des fonds propres et de
l'exposition de l'établissement aux risques.

Les accords de Bâle II constituent un élément de la nouvelle architecture des


relations financières internationales ; les autres éléments étant entre autres la mise en
place des nouvelles normes comptables IAS /IFRS, des règles de surveillance des
conglomérats financiers ou encore des critères de gouvernance des firmes (Lamarque E.
2005, p41).

Les réformes apportées en matière du risque de crédit par le dispositif Bâle II,
contrairement à Bâle I, offre aux banques, selon leur niveau de sophistication, le choix
entre plusieurs options de quantifications du risque de crédit. Il propose en effet deux
grandes méthodes de calcul des exigences de fonds propres relatives à leur risque de crédit :

 La première qui représente l’approche la plus simple, consiste à évaluer ce risque


selon une approche standard, s’appuyant sur des évaluations externes du crédit ;

 La seconde méthode de calcul, qui constitue la partie la plus importante et la plus


innovante du nouveau dispositif, permettrait aux banques d’utiliser leur système
de notation interne, sous réserve de l’approbation explicite de leur autorité de
contrôle.
Réparti

4. La réglementation du risque en Algérie

Le système bancaire algérien a connu plusieurs mutations à travers différentes réformes


pour ne citer que :
 La mise en place du système bancaire national et la souveraineté monétaire
(1963-1967).
 La planification financière et le système bancaire (1970-1987).
 La réforme du secteur public et l’entreprise publique après 1988.

28
Chapitre 1 : Les crédits bancaires et leurs risques

Ce système bancaire a été façonné depuis la promulgation de la loi 90-10du 14 avril


1990 relative à la monnaie au crédit (LMC).

4.1 La réalité de la réglementation avant 1990


L'environnement économique et juridique de l'Algérie d'avant 1990 était tel qu'il ôtait
tout sens à une réglementation prudentielle. En effet, le système de gestion centralisé de tout
le système économique, banques comprises, empêchait toute initiative des banques en matière
de prise de décision et de gestion des risques.

C'est ainsi que les banques, entreprises publiques, se sont retrouvées dans l'obligation
d'apporter les financements nécessaires aux entreprises domiciliées auprès d'elles, elles
mêmes publiques (sur injonction du Trésor, leur propriétaire). Par ailleurs, leur clientèle
d'entreprises publiques assurait leur solvabilité. Dans ces conditions, une réglementation
prudentielle s'est avéré tout simplement inutile.

Le changement commençait à se faire sentir à partir de la fin de la décennie 80 où


l'Algérie a entamé une série de réformes économiques, politiques et juridiques ayant touchées
tout son système productif par la promulgation de toute une batterie de textes (la loi de 1986
portant régime des banques, la révision constitutionnelle de 1989). La loi 90-10 du
14/04/1990 constitue l'avancée la plus significative s'agissant de la réforme du secteur
financier. En effet, elle a permis de rendre à l'activité bancaire toute sa spécificité en lui
assurant de nouveau le statut d'activité économique autonome qui doit gérer rationnellement
ses risques dans un environnement concurrentiel. En outre, cette loi constitue une réforme
majeure du contrôle bancaire car ayant mis en place une "Commission bancaire chargée de
contrôler le respect par les banques des dispositions réglementaires et législatives qui leur
sont applicables"6. Qui était chargée en outre de veiller à la bonne situation financière des
banques du système financier par l’inspection rigoureuse qui permet de protéger l’épargne et
contrôler l’activité des banques notamment leurs prise de risque.

6
Article 143 de la loi sur la Monnaie et le Crédit (loi 90-10 du 14/04/1990).

29
Chapitre 1 : Les crédits bancaires et leurs risques

La loi n° 90-10 loi mère de la réglementation


En application de la loi 90-10 la banque d’Algérie dans le cadre de ses missions et de
ses prérogatives édicte et promulgue des instructions et des notes aux banques à caractère
réglementaire, exécutoire et référentielle à tout agent économique.

La loi 90-10 du 14/04/1990 constitue l'avancée la plus significative s'agissant de la


réforme du secteur financier. En effet, elle a permis de rendre à l'activité bancaire toute sa
spécificité en lui assurant de nouveau le statut d'activité économique autonome qui doit gérer
rationnellement ses risques dans un environnement concurrentiel.

Cette dernière a préparé le terrain à l'instauration d'une réglementation prudentielle des


fonds propres, à l'instar de celle adoptée par le Comité de Bâle deux ans plutôt, ainsi les
membres charges de l’élaboration des textes réglementaires algérien s’inspirent largement des
dispositions proposé par le comité de Bâle II. C'est ainsi que le Conseil de la Monnaie et du
Crédit (CMC), l'organe légiférant en la matière, a promulgué un certain nombre de textes tels:

 Le règlement n° 90-01 du 04/07/1990 relatif au capital minimum des banques et


établissements financiers.

 Le règlement n° 91/09 du 14/07/1991 fixant les règles prudentielles de gestion


des banques et établissements financiers.

 L'instruction 04-99 du 12/07/1999 qui normalise les déclarations par les banques de
leurs ratios de couverture et de division des risques, …etc.

 Règlement n° 2002-03 du 14 novembre 2002 portant sur le contrôle interne des


banques et établissements financiers. Une partie de ce règlement est consacrée à la
mesure des risques notamment le risque crédit.

30
Chapitre 1 : Les crédits bancaires et leurs risques

 L’ordonnance n° 03-11 du 26 août 2003 relative à la monnaie et au crédit.


L’ancienne loi a été abrogée par ce nouveau texte7 qui constitue désormais la
nouvelle loi bancaire et s’applique à tous les acteurs financiers.

Ce nouveau texte sur la refonte de la loi 90-10 répond à un triple objectif :

- Permettre à la banque d’Algérie de mieux exercer ses prérogatives ;


- Renforcer la concentration entre la banque d’Algérie et le gouvernement
en matière financière ;
- Permettre une meilleure protection des banques et de l’épargne publique.

4.2 Le contenu de la loi de réglementation algérienne des risques


La réglementation prudentielle algérienne comporte les éléments suivants :
 La définition des fonds propres ;
 La définition du capital minimum ;
 La définition des risques encourus ;
 Le ratio de solvabilité;
 La division des risques;
 Le provisionnement des créances;
 La centrale des bilans;
 La centrale des risques.

4.2.1 Les fonds propres


Les fonds propres sont définis par le règlement n° 95-04 du 20 avril 1995 modifiant et
complétant le règlement n° 91-09 du 14 août 1991 fixant les règles prudentielles de gestion
des banques et établissements financiers. Les fonds propres au sens de l'instruction n°74-94
sont composés des fonds propres de base et des fonds propres complémentaires, desquels sont
déduits certains éléments.

7
L’actualisation de la loi 90-10 fait suite au scandale financier qui a éclaboussé le milieu bancaire et financier
Algérien au cours de l’année 2003par la faillite de deux banques à capitaux privées : El Khalifa et la banque pour
le commerce et l’industrie de l’Algérie (BCIA).

31
Chapitre 1 : Les crédits bancaires et leurs risques

a. Les fonds propres de base :


Ceux-là peuvent être qualifiés de fonds propres au sens propre du terme dans la mesure
où ils constituent le passif de la banque envers ses actionnaires. Ils comprennent:
- Le capital social composé des actions et parts libérées ou pas;
- Les réserves autres que celles de réévaluation (réserves légales, statutaires, les
réserves réglementées …etc.8) et les fonds pour risques bancaires généraux
(FRBG). Il s'agit des montants affectés à la couverture de risques bancaires non
identifiés9 ;
- Le report à nouveau créditeur, constitué des résultats bénéficiaires non
distribués des exercices passés et non affectés à un compte de réserves.

De ces fonds propres de base, sont déduits :


- La partie indisponible du capital (la part du capital social non appelée ou
appelée mais non encore versée) ;
- Les actions propres détenues car dans une optique de liquidation de la banque,
celles-ci n'auraient aucune valeur ;
- Les immobilisations incorporelles d'exploitation (fonds de commerce, logiciels
informatique, brevets, …etc.) ;
- Le report à nouveau débiteur : les résultats négatifs des exercices passés non
encore imputés ;
- Les pertes enregistrées à des dates intermédiaires de l'exercice en cours.
- Les pertes de l'exercice en cours.

b. Les fonds propres complémentaires :


- Les réserves de réévaluation;
- Les dotations prévues par la législation en vigueur ;
- Certains éléments figurants dans le bilan de la banque ou de l'établissement
financier qui seraient librement utilisables ;
- Les fonds provenant de l'émission de titres ou d'emprunts subordonnés.

8
Et toutes autres réserves qui sont constituées par affectation des résultats passés.
9
Ce qui les différencie des provisions.

32
Chapitre 1 : Les crédits bancaires et leurs risques

4.2.2 La définition du capital minimum


Le capital est le gage de la solvabilité du fait de sa liquidité, aussi les banques et
établissements financiers doivent disposer d’un minimum qui est passe de cinq cent millions
de dinars (500 000 000 DA) pour les banques et cent millions de dinars (100 000 000 DA)
pour les établissements financiers (règlement n° 90-01 du 4 juillet 1990, modifié et complète
par le règlement n° 93-03 du 4 juillet 1993), à deux milliards cinq cent millions de dinars (2
500 000 000 DA) pour les banques et cinq cent millions de dinars (500 000 000 DA) pour les
établissements financiers (règlement 04-01 du 4 mars 2004, article 2).

4.2.3 La définition des risques encourus :


Sont considérés comme étant des actifs risqués les éléments suivants :
- Les crédits à la clientèle et au personnel,
- Les concours aux banques et établissements financiers,
- Les titres de placement,
- Les titres de participation,
- Les créances sur l'Etat et les collectivités locales,
- Les immobilisations,
- Les comptes de régularisation,
- Les engagements par signature du hors bilan.

Desquels il faudra déduire :


- Le montant des amortissements sur les immobilisations,
- Le montant des provisions constituées pour dépréciation des titres ou pour
couverture des créances,
- Le montant des garanties reçues de l'Etat, des organismes d'assurances, les
banques et établissements financiers,
- Les garanties reçues de la clientèle sous forme de dépôts ou d'actifs financiers
aptes à être liquidés en cas de besoin sans grand risque de perte sur leur valeur.

4.2.4 Le ratio de solvabilité


Le ratio de solvabilité en vigueur dans notre pays s'inspire largement du ratio Cooke
dont il a repris la formule :

33
Chapitre 1 : Les crédits bancaires et leurs risques

- Il reprend les fonds propres prudentiels au numérateur (voir supra définition des
fonds propres nets),
- Il recense les risques pondérés au dénominateur.

Les pondérations utilisées par la Banque d’Algérie différent légèrement de celles


édictées par le Comite Bâle. Elles sont définies par l’instruction 74-94 du 29 novembre 1994
comme suit:

a. Par type de contrepartie :


- Etat ou assimilés : 0% ;
- Banque d’Algérie : 0% ;
- Banques et Etablissements financiers installés en Algérie : 5% ;
- Banques et Etablissements financiers installes a l’étranger : 20% ;
- Clientèle : 100% ;
- Personnel : 100% ;
- Immobilisations : 100% ;
- Titres de placement et de participation : 100%.

b. Par type de concours :


- Concours de bilan ;
- Concours hors bilan ;

4.2.5 La division des risques


Les banques doivent veiller à la diversification de leurs portefeuilles en respectant les
règles suivantes :
- La banque doit veiller à ce que le montant des risques encourus sur un seul client
n’excédent pas 25% des fonds propres nets de la banque ;
- Le montant des crédits encourus sur les bénéficiaires, dont les risques dépassent
pour chacun d’eux, 15% des fonds propres nets, n’excèdent pas 10 fois ses fonds
propres nets.

34
Chapitre 1 : Les crédits bancaires et leurs risques

4.2.6 Le provisionnement des créances


Dans le but d’un meilleur suivi des crédits accordés à la clientèle, les créances devront
faire l’objet d’un classement par niveau de risque en vue de la constitution de provisions pour
le risque de crédit. Les modalités de classements et de provisionnement sont précisées dans
l’instruction 74-94 du 29 novembre 1994.

Les créances sont classées selon leur niveau de risque pour permettre leur
provisionnement, on y distingue les créances courantes et les créances classées.

 Les créances courantes :


Ce sont les créances dont le recouvrement dans les délais, parait assuré vu la situation
financière saine des débiteurs. Le montant de la provision est de 1 à 3% du
montant de ces créances courantes.

 Les créances classées :


- Les créances à problème potentiel : ce sont les créances souffrant d’un
retard de remboursement « raisonnable » mais dont le recouvrement n’est pas
tout à fait compromis. Ce retard raisonnable est défini par l’Instruction entre
3 et 6 mois. Le niveau de provisionnement est de 30%.

- Les créances très risquées : ce sont les créances accusant un retard de


remboursement de 6 mois à 1 an. Le recouvrement de ces créances parait donc
très incertain, elles sont provisionnées à 50%.

- les créances compromises : ce sont des créances dont le recouvrement n’est


plus envisageable après tous les moyens de recours. Ce sont des pertes
définitives pour la banques et sont provisionnées à 100%.

4.2.7 La centrale des bilans


La centrale des bilans a pour mission la collecte, le traitement et l’analyse des
informations comptables et financières, en vue de dégager le maximum d’informations
susceptibles de servir de base à des études économiques et financières. Une autre de ses
missions, c’est la normalisation et l’uniformisation du retraitement des documents

35
Chapitre 1 : Les crédits bancaires et leurs risques

comptables. Le fonctionnement et l’organisation de la centrale des bilans sont décrits dans le


règlement n°96-07 du 03 juillet 1996.

4.2.8 La centrale des risques


La centrale des risques a pour objet la collecte, la centralisation et la diffusion des
informations relatives aux risques bancaires et des opérations de crédit-bail faisant intervenir
une banque, un établissement financier ou tout autre établissement de crédit.

4.3 Les conséquences de Bâle II en Algérie


Alors que les pays magrébins et arabes se lancent dans le projet Bâle II, par la mise en
place graduelle des dispositions de l’accord, la plupart de ces pays adoptent dès 2008 ou
comptent adopter l’approche standard.

Cette approche est applicable dans le contexte algérien pour cause, la notation externe
qui est le moteur n’est pas disponible dans notre pays, les agences de notation ne sont pas
présentes et même si c’était le cas, les services qu’elles fourniraient ne s’adresseront qu’à de
grosses entreprises ayant les moyens de payer leur notation. Ce qui peut intéresser la banque
algérienne finançant la PME qui ne peut supporter le coût d’une notation externe, c’est la
mise sur pieds de la centrale des bilans et la concrétisation du projet de cotation banque
d’Algérie qui pourra allouer une cote de crédit à chaque contre partie, permettant ainsi
l’application de la méthode standard de Bâle II.

Une application des nouvelles réformes baloises en Algérie sont une réalité lointaine
car à l’avenir les conditions suivantes doivent être remplies avec une application correcte du
second accord :

1. Compléter les bases de données historiques sur les défauts sur des cycles
économiques entiers (niveau de défaut en phase de croissance et de récession) en
puisant dans les dossiers de crédit des banques et du CNRS (registre de
commerce) ;

36
Chapitre 1 : Les crédits bancaires et leurs risques

2. Des systèmes de traitement d’information récents et évolutifs que doivent détenir


les banques et la banque centrale ;

3. Des procédures judiciaires efficaces quant aux recouvrements des créances et


liquidation d’actifs ;

4. Une politique de gestion des risques, avec des objectifs clairs et des moyens
suffisants doit être pilotée par la plus haute instance managériale de la banque ;

5. Un effort en matière de transparence financière et de communication de la part des


entreprises ;

6. Un marché boursier des actifs, comportant la cotation de plusieurs titres


d’entreprises et de banques afin d’évaluer le capital, ce qui induirait des efforts
pour économiser leurs fonds propres ;

7. Une modernisation dans la gestion de la banque et l’intégration d’outils de mesures


des risques et de notation interne, tel que le projet qui a été initié au CPA en
collaboration avec le MEDA10 , le CPA a été une banque pilote pour l’application
des cotations banque d’Algérie, projet en attente à cause de l’indisponibilité des
données sur support numérique et l’absence d’une instance de validation de la
numérisation des données.

10
Programme visant à mettre en œuvre les mesures de coopération destinées à aider les pays tiers
méditerranéens à procéder à des réformes de leurs structures économiques et sociales et à atténuer les effets du
développement économique sur le plan social et environnemental.

37
Chapitre 1 : Les crédits bancaires et leurs risques

Conclusion

Le risque de crédit est un élément indissociable de l’activité bancaire et par


conséquent aucune institution ne peut l’éliminer . à cet effet, la banque doit de se doter des
instruments à la fois réglementaires et analytiques afin de mieux encadrer l’octroi de crédit et
de mieux gérer son risque.

Toutefois, la réalisation du risque de crédit a toujours pour impact la baisse des


résultats, et à l’extrême, le laminage des fonds propres, voir même la faillite de la banque.

Dans le cadre de la nouvelle réforme du ratio Cooke, les banques sont


autorisées à utiliser leur propre « modèle interne », sous l’œil attentif des superviseurs, pour
évaluer leurs risques de crédit et apprécier leurs besoins en fonds propres. Cette
nouvelle règle incite les banques à sophistiquer leurs modèles internes de mesure et de suivi
des risques de crédit.

Le chapitre suivant présentera quelques méthodes que les banques peuvent utiliser afin
d’évaluer le risque crédit.

38
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

L’erreur est la règle. La vérité est l’accident


de l’erreur.
DUHAMEL G.

Chapitre 2 : Les méthodes d’évaluation du risque


de crédit et le crédit scoring

Introduction
Lors du premier chapitre nous avons pu définir les contours de notre recherche en
abordant les aspects théoriques qui définissent la notion du risque de crédit ou de défaillance.

La prévision du risque de crédit est une des préoccupations majeures du monde


bancaire. La mesure et la gestion du risque de crédit ont pris de plus en plus d'importance
dans l'industrie bancaire, suscitant le développement de nouveaux outils et moyens permettant
de minimiser les pertes.

Il est vrai qu’en octroyant un crédit, un seul objectif est recherché par les établissements
financiers : générer des profits en utilisant les ressources. Cependant, ces établissements
doivent anticiper la détection de défaillance des entreprises sollicitant un crédit. Les
techniques d’analyses de données sont ainsi souvent utilisées afin de réaliser un premier tri
dans la multitude de dossiers déposés.

Le développement récent de nouvelles techniques fondées sur l’intelligence artificielle


et l’importance de leurs applications justifient qu’un nouvel état des lieux soit réalisé.

L’objectif de ce deuxième chapitre est de mettre en avant, dans un premier temps, les
méthodes classiques d’évaluation du risque de crédit à savoir l’analyse financière, la notation

39
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

financière (ou le rating) avec leurs avantages et leurs limites. Le deuxième volet est consacré
aux modèles d’évaluation du risque de crédit tels que les systèmes experts et les modèles de
scoring.

Après avoir définit les concepts du crédit scoring, on présente les trois grandes familles
d’outils d’analyse statistiques utilisés dans la prévision de la défaillance des entreprises (les
modèles paramétriques, les modèles non-paramétriques et les modèles issues de l’intelligence
artificielle). Le dernier volet est consacré à la technique d’analyse discriminante linéaire
(ADL) qui est la plus populaire et la plus utilisée dans le secteur bancaire, avant de la mettre
en expérimentation dans le volet pratique de cette recherche.

40
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

1. Les méthodes d’évaluation du risque de crédit

La stabilité économique est l’une des priorités des pouvoirs publics. Pour atteindre cet
objectif, un système bancaire fiable est nécessaire, assurant ainsi un niveau de faillite très
faible et une bonne protection des déposants.

Dans Bâle II, les banques sont libres d’utiliser leur propre modèle d’évaluation des
probabilités de défaut, préalablement validé par le régulateur, afin de déterminer le montant
de fonds propres à détenir (Hull J. & al. 2007, p229).

Les banques, de leurs côté, ont vite compris l’enjeu de la gestion du risque de crédit, et
ont élaboré des techniques pour gérer ce risque moyennant différentes méthodes d’évaluation
(analyse financière, notation financière et méthodes statistiques).

1.1 L’analyse financière


D’après (Cohen E. 1997, p7), l’analyse financière est un ensemble de concepts, de
méthodes et d’instruments qui permettent de formuler une appréciation relative à la
situation financière d’une entreprise, aux risques qui l’affectent, au niveau et à la qualité de
ses performances .

L’analyse financière fait un grand usage de rapports (ratios) en tout genre pour dessiner
le profil financier d’une entreprise, notamment pour exprimer en valeur relative les
performances de l’entreprise (Colasse B. 2003, p35).

L’objet même de l’analyse financière correspond aux attentes du banquier qui


trouve dans cet outil un moyen de diagnostiquer pertinemment l’entreprise, en
s’appuyant sur les informations internes et externes à celle-ci. Ainsi, elle permet d’apprécier
la situation financière de l’entreprise, de suivre son évolution passée et d’anticiper son
évolution future.

41
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Parmi les outils utilisés dans l’analyse financière on distingue : les ratios, les
conceptions des fonds de roulements (besoins en fonds de roulement et de trésorerie), la
capacité d’autofinancement et l’étude des emplois et ressources appréhendées dans les
tableaux de financement.

Comme la méthode des ratios est la plus répandue, nous nous contenterons de présenter
brièvement cette méthode.

1.1.1 La méthode des ratios


La méthode des ratios constitue vraisemblablement la technique la plus répandue
d’analyse financière. Le ratio peut se définir comme le rapport entre deux grandeurs
caractéristique d’une entreprise et que l’analyste estime liées par une certaine logique
économique. A partir d’un ensemble de ratios, on peut confectionner un tableau de bord de
l’entreprise qui synthétisera les informations pour prendre des décisions.

Les ratios peuvent être exprimés en par un nombre, un pourcentage, ou par une durée
(nombre de jours, de mois ou d’années). Ils doivent être significatifs, compréhensibles et d’un
coût de confection raisonnable. Les différents ratios peuvent être regroupés selon quatre
principales catégories :
 Les ratios de structure : ils analysent les grandes masses du haut du bilan. Ils
expriment les conditions dans lesquelles l’entreprise assure son équilibre financier à
partir du cycle de financement et des opérations du cycle d’investissement.

 Les ratios de liquidité : ils mesurent l’aptitude de l’entreprise à transformer ses actifs
circulants en liquidité afin de faire face aux dettes à court terme. Ils sont établis dans
le cadre d’une analyse liquidité-éligibilité.

 Les ratios de gestion : ils constituent l’un des points clés du diagnostic financier. Ils
mesurent la rotation des composantes principales des besoins en fonds de roulement
d’exploitation (stocks, créances, clients et dettes fournisseurs). Ils permettent de

42
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

prévoir les fluctuations des besoins en fonds de roulement.

 Les ratios de rentabilité : la rentabilité est l’aptitude à produire un résultat. Les ratios
de rentabilité contribuent à évaluer les résultats de l’entreprise en rapprochant sa
capacité bénéficiaire à des grandeurs significatives provenant du bilan, du compte
résultat et du tableau des soldes intermédiaires de gestion.

1.1.2 Avantages et limites de la méthode des ratios


La méthode des ratios présente les avantages suivants :
 Les ratios permettent de mesurer l’évolution dans le temps, des performances
réalisés par l’entreprise ;

 Les ratios permettent d’apprécier la position de l’entreprise par rapport aux


performances des entreprises concurrentes ;

 Les ratios permettent au banquier d’évaluer et d’anticiper le risque


d’insolvabilité d’un client sollicitant un crédit.

Néanmoins, le traitement par l’analyse financière à court terme, telle qu’elle est
pratiquée par les banques algériennes, est une méthode classique d’appréhension du
risque de crédit.

La lenteur et la longueur de sa réalisation et son caractère subjectif constituent des


inconvénients majeurs affectant ses résultats. L’intérêt de la méthode est réduit pour les
causes suivantes :
 Le dépôt des comptes de l’exercice passé se fait en retard (3 mois après), ce qui
rend les ratios calculés insignifiants puisqu’ils ne reflètent pas exactement la
situation actuelle de l’entreprise ;

43
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

 Les bilans comptables peuvent être modifiés pour des raisons commerciales ou
fiscales ;

 Les facteurs externes tel que : la politique monétaire, le taux d’inflation, la


politique fiscale ne sont pas pris en compte.

Malgré les restrictions que compte l’analyse par les ratios, elle demeure une méthode de
diagnostic et d’aide de décision indispensable. Son utilisation reste tributaire de la qualité et
de la fiabilité de l’information comptable.

1.2 La notation financière (Rating)


Le ‘Rating’ est un mot d’origine Américaine qui signifie évaluation ; il désigne à la fois
un processus d’analyse de risque et le résultat final de cette analyse (la note) 1.

Une note ou rating est un indicateur synthétique résumant le degré de solvabilité


d’un emprunteur ou d’un prêt. Il existe deux types de notation : la notation externe et la
notation interne.
 La notation externe : dans ce cas la note est émise par une agence de notation.
 La notation interne : dans ce cas la note est émise par une banque.

1.2.1 La notation externe


La notation externe est du ressort des agences de notation. Celles-ci se chargent
d’évaluer le risque présenté par un émetteur d’instruments financiers, qu’il soit un Etat,
une collectivité territoriale, un établissement de crédit ou une entreprise, et diffusent
régulièrement des notes qui reflètent la qualité des émissions.

1
Le développement de la notation financière a été lent aux Etats-Unis, seul l’événement de la faillite en juin
1970 de l’entreprise de transport américaine (Penn Central Transportation Company) imposa définitivement le
rating.

44
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

1.2.1.1 Les agences de notation


Les agences de notation sont des institutions chargées de la notation des entreprises 2.
Elles cherchent à évaluer les entreprises en fonction de la conjoncture économique. Elles ont
pour rôle essentiel d’attribuer une note de crédit (ou rating) traduisant la qualité de crédit d’un
titre obligataire (Hull J. & al. 2007, p229).
Ainsi, les agences de notation ont un double rôle : traiter l’information selon la
conjoncture du marché et la certifier sur la base de la réglementation. Les trois agences
dominant le marché mondial de notation externes sont :

 Moody’s Investors Service, principale filiale de Moody’s Corporation, fondée en


1913 a commencé son activité réelle en 1919. Société indépendante depuis 2000
(USA) , auparavant filiale du groupe Dun & Bradstreet, spécialisée dans la notation
des opérations de titrisation ;

 Standard & Poor’s : filiale du groupe McGraw & Hill crée en 1924 à New York
spécialisée dans la notation des sociétés industrielles ;

 Fitch Investor Service, dit Fitch (IBCA), crée en 1922 filiale à 97% du groupe
français.

Les agences de notation européennes :


- EDEF : Agence d’évaluation Financière Française, crée en France en 1986. la
moitié de son capital a été reprit par Standard & Poor’s ;

- Euronotation : crée en 1990 en France pour faire face au monopole des


agences américaines ;

2
Les notes publiées par les agences de notation concernent essentiellement les entreprises de grande taille qui
sont cotées. La plupart des entreprises de taille moyenne ou petite n’ont aucune obligation émise ou cotée sur le
marché financier, de ce fait elles ne sont pas notées.

45
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

- IBCA limited: Inter Banking Credit Analysis, crée en 1990 en grande


Bretagne. Deux ans plus tard, Euronotation et IBCA s’unissent pour donner
naissance à l’agence IBCA notation groupe.

Ces agences opèrent à la demande des entreprises et éventuellement des collectivités


publiques désirant être notées.

1.2.1.2 Procédure générale de la notation externe


Les agences de notation classent les émetteurs en leur attribuant des notes allant de la
meilleure, qui correspond à des émetteurs à solvabilité indiscutable, à la plus mauvaise
indiquant la défaillance établie. Les notes publiées par l’agence font l’objet d’un suivi
permanent facilité par l’engagement d’informations souscrit par les bénéficiaires. Le schéma
suivant illustre les étapes de notation financière d’une agence.

Figure 2.1 : Les étapes de notation financière

Premier contact

Examen de recevabilité

Décision Rejet

Demande de notation

Etude de notation

Comité
Appel
Publication
de la note Accepté Refusé
Notation
Sans suite

Suivi

Source : Karyotis 1995, p25

46
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

1.2.1.3 Les grilles de notations


L’idée initiale est d’attribuer à chaque entreprise une note (rating) fournissant une
indication sur son risque supposé. La notation à court terme juge de la capacité du débiteur à
remplir ses engagements à un an au plus. Alors que la notation à long terme estime cette
capacité à plus d’un an. Le tableau ci-après présente les échelles de notation de quelques
agences :
Tableau 2.1 : échelle de notation à long terme
Interprétation Standard & Poor’s Moody’s
Catégorie la plus élevée AAA Aaa
Catégorie élevée AA Aa
Catégorie moyenne supérieure A A
Catégorie moyenne BBB Bbb
Catégorie moyenne inférieure BB Bb
Spéculative B B
Position faible CCC Ccc
Fortement spéculative CC Cc
La mauvaise qualité C C
Dans le défaut D -
Source : établi à partir de Gourieroux C. 2003.

1.2.1.4 Les limites de la notation externe


La notation externe présente les limites suivantes :
 Comme nous l’avons déjà signalé, la notation concerne les entreprises de grande
taille qui sont cotées. En effet, se faire noter par une agence de notation reste
une opération très coûteuse pour une PME et encore plus pour des entreprises moins
importantes. D’où la nécessité, pour chaque banque de disposer dispose de sa propre
méthode de notation ;

 Alors qu’une contrepartie peut refuser la note externe qui lui est attribuée où
s’opposer à sa publication, elle ne peut donner son avis sur la manière dont
une banque analyse sa demande de crédit.

47
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

1.2.2 La notation interne


Le système de notation interne (SNI) sert comme outil d’aide à la décision en matière
d’octroi de crédit, constitue une recommandation du comité de Bâle pour la couverture du
risque de crédit et de constitution des provisions, un outil de tarification des crédits puis
un moyen de mesure de performance de la banque et d’allocation optimale de fonds
propres.

Le système de notation interne est un outil de tarification des crédits (pricing).


Ainsi, les emprunteurs présentant une situation stable et rentable paieront un coût
moindre, ceux ayant un profil plus risqué paieront davantage. Le crédit peut être tarifié avec
la formule suivante :

Td  Tr  f  r  u
Avec :
Td : le prix du crédit ;
Tr : le taux de refinancement ;
f : les frais administratifs ;
r : le coût du risque ;
u : la rémunération du capital.

Le SNI est un outil indispensable pour la mise en place d’une démarche RAROC (Risk
Adjusted Return On Capital), qui constitue une approche de mesure de performance de
la banque en terme de rentabilité ajustée aux risques du portefeuille. La formule RAROC3
permet aussi de définir une règle d’allocation optimale du capital économique.

1.3 Les modèles d’évaluation du risque


Les modèles de prévision de défaillance sont des outils permettant de déterminer la
probabilité qu'une entreprise soit défaillante dans un horizon plus ou moins lointain. Ces
outils fonctionnent à partir des informations financières des entreprises sous analyse.

3 resultat pertes moyennes


RAROC 
.
fonds propres economiques

48
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Dans la plupart des cas, les informations financières sont extraites de la comptabilité de
ces entreprises.

1.3.1 Utilité des modèles d’évaluation du risque

L’utilisation de modèles dans le cadre de la décision de crédit est justifiée par quatre
considérations :
 Premièrement, les modèles d’évaluation du risque de crédit permettent de réduire le
temps requis pour l’évaluation de la demande de crédit;

 Deuxièmement, les modèles améliorent le processus de décision de crédit en


spécifiant les interrelations entre les différents éléments du processus de crédit et
facilitent une visualisation complète et mieux structurée de la situation;

 Troisièmement, les modèles contribuent a assurer une certaine cohérence dans les
décisions de crédit relevant d’un même officier ou entre celles prises par différents
officiers de crédit;

 Quatrièmement, les modèles permettent d’atténuer le biais des décideurs à


accorder des poids élevés aux facteurs, indicateurs ou signaux allant en sens
contraire de celui souhaite.

1.3.2 Les systèmes experts et les modèles de scoring


Les systèmes experts et les modèles de scoring sont les deux principaux outils utilisés
dans les banques pour décider de l’octroi de crédit, mais aussi pour noter les emprunteurs. Les
systèmes experts en vigueur dans les banques reposent sur des méthodes essentiellement
qualitatives. A l’inverse, les modèles de scoring reposent sur des méthodes quantitatives. Les
deux types de modèles utilisent des informations comptables et financières.

49
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

1.3.2.1 Les systèmes experts


Ils sont plus fréquemment utilisés pour la mesure du risque des grands clients
(corporate). L’approche des systèmes experts est de nature qualitative. Elle cherche à
reproduire de façon cohérente les règles de décision des experts en matière de crédit ou leur
système d’évaluation du risque (Dietsch & Petey 2003, p43). Ces règles sont déterminées de
manière totalement empirique, en interrogeant les experts de crédit sur leur pratique. Cet
ensemble de règles servira à constituer la base de connaissances du système expert.

(Dietsch & Petey 2003) a résumé les avantages et les importantes limites des systèmes
experts comme suit :
 Les avantages des systèmes experts
- Ils sont construits à partir de l’expérience et font l’objet d’une validation à
postériori.
- Ils sont de nature qualitative, mais intègre toujours des normes quantitatives.
- Ils reproduisent le mode de raisonnement des experts en matière de crédit.
- Ils sont plus précis car ils intègrent des effets de l’environnement.
- Ils ne réclament pas de disposer de longs historiques de données, car ils
s’appuient sur l’expérience des experts. Ceci lui confère un avantage certain
sur les méthodes de scoring.

 Les limites des systèmes experts


- Ils font part d’une grande part de subjectivité des experts. Ainsi, la qualité de
management d’un dirigeant célèbre n’est pas appréciée de la même façon que
celle d’un dirigeant inconnu.
- Ils donnent une part importante aux jugements des experts les plus influents
dans l’institution financière.
- Une entreprise bien notée par un système expert aura tendance à mieux se
comporter qu’une entreprise moins bien notée.
- Enfin, dans la mesure où les systèmes experts reposent sur l’expérience des
experts, il est difficile de définir des procédures scientifiques de test des

50
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

résultats de ces systèmes, alors que les modèles de scoring peuvent être soumis
à toute une batterie de tests d’inférence statistique.

1.3.2.2 Les modèles de crédit scoring


Ces modèles sont adaptés à la mesure du risque de défaut dans la clientèle de la banque
de détail et celle des petites et moyennes entreprises (PME). Ces modèles de score sont des
outils de mesure de risque qui utilisent des données historiques et des techniques statistiques.

Les modèles de crédit scoring peuvent être répertoriées en trois classes :


 La plus grande classe regroupe les méthodes statistiques paramétriques comme
l’analyse discriminante linéaire ou quadratique, et les techniques
économétriques.

 La deuxième classe regroupe les méthodes non paramétriques comme le


partitionnement récursif et les estimateurs à noyau.

 La troisième classe, la plus récente, s’inspire de l’intelligence artificielle comme


les réseaux de neurones artificiels et les algorithmes génétiques.

Un état des lieux des modèles de crédit scoring sera présenté dans la section 3 après
avoir définit le crédit scoring.

2. Le crédit Scoring

Les premiers modèles de score remontent aux travaux précurseurs de Beaver (1966) et
Altman (1968). En France, la centrale de bilans de la Banque de France a fortement
contribué à leur diffusion (Bardos M. 2001) et ils sont de plus en plus utilisés par les
institutions financières, notamment dans le domaine du crédit à la consommation et du crédit
aux petites et moyennes entreprises.

51
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

2.1 Définitions du crédit Scoring

Le crédit Scoring est le processus d’assignation d’une note (ou score) à un emprunteur
potentiel pour estimer la performance future de son prêt (Feldman, 1997).

Le crédit Scoring utilise des mesures quantitatives de performance et les caractéristiques


des prêts précédents pour prédire la performance des prêts futurs avec des caractéristiques
similaires. Le crédit Scoring n’approuve, ni ne rejette une demande de prêt, il peut plutôt
prédire la probabilité d’occurrence de mauvaise performance (défaut) telle que définie par le
préteur (Caire et Kossmann, 2003).

Le crédit Scoring constitue un ensemble de modèles de décision et les techniques sous-


jacentes qui aident dans la décision d’octroi des crédits de consommation (Thomas et al.
2002).

Plusieurs explications peuvent être fournies sur la définition et le rôle du crédit Scoring,
elles peuvent être résumées sur la figure ci-dessous :

Figure 2.2 : Processus du crédit Scoring

Prêts Modèle de Nouvelles


précédents notation de crédit demandes de prêt

Adapté de Yang L. (2001)

En résumé, on peut dire que le modèle de score est un outil de mesure du risque de
crédit qui utilise des données historiques et des techniques statistiques. Son objet est de
déterminer les effets de diverses caractéristiques des emprunteurs sur leur chance de faire
défaut. Il résulte de cette application une « fonction score » qui, comme son nom
l’indique, génère des « scores » pour chaque emprunteur. Les institutions financières
peuvent ensuite utiliser ces notes pour ranger les emprunteurs en classes de risque et leur
affecter une probabilité de défaut.

52
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Ainsi, l’objet du crédit Scoring est de prédire le risque et non de l’expliquer; il est
toutefois important de déterminer les facteurs important qui séparent au mieux entre les bons
et les mauvais emprunteurs.

2.2 Historique du crédit Scoring 4

En (1941), poursuivant le travail pilote de Fischer sur l’analyse discriminante, Durand


fut le premier à reconnaître la possibilité d’utiliser les techniques statistiques pour discriminer
entre les bons et les mauvais emprunteurs. Le crédit Scoring est une discipline qui a fait son
apparition aux environ des années soixante (60).

Dans les années cinquante, Fair, Isaac, & Company est habituellement cité comme la
firme a avoir développé les premiers systèmes de crédit Scoring pour les crédits de
consommation aux Etats-Unis. Cette firme continue d’être le leader dans l’industrie du crédit
Scoring (Thomas & al. 2002).

Depuis, l’industrie continue de croître et les domaines d’application des techniques de


Scoring s’élargissent au crédit immobilier, au secteur des cartes de crédit, au marketing etc.

En (1968) Altman a significativement contribué au développement, à la promotion et à


une meilleure compréhension du crédit Scoring et de ses techniques.

En (1978) Conan et Holder en France construisent une fonction score à partir de 5


ratios.

En (1983) La Banque de France a appliquée la méthode de score aux entreprises de


moins de 500 salariés. L’analyse s’est appuyée sur 8 ratios.

4
Voir Thomas & al. (2002) pour plus de détail sur l’histoire du Crédit Scoring .

53
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

En (1996) Eisenbeis présente une vue générale sur l’histoire et l’application des
techniques de crédit Scoring au portefeuille des banques « business portfolios ».

Les développements cités concernent surtout les pays développés car l’application du
crédit Scoring est assez rare dans les pays en développement5. On peut citer quelques
exemples en Afrique :

 En (1993), un des premiers modèles de scoring dans un contexte africain fut


développé par Viganò pour la Caisse Nationale du Crédit Agricole (CNCA) du
Burkina Faso ;

 En (1998), Schreiner et Nagarajan ont analysé la probabilité de défaut en Gambie ;

 Plus récemment, en (2004) Schreiner a initié un travail en micro finance en


développant un modèle de scoring pour une institution de micro finance bolivienne ;

Toutefois, des recherches ont été menées pour analyser la probabilité de défaut mais la
plupart n’avaient pas pour objet de faire des prédictions sur les prêts futurs.

2.3 Construction d’un modèle de scoring


L’élaboration d’un modèle de Crédit scoring suit un cheminement logique qui se
scinde en quatre étapes, à savoir :

 Le choix du critère de défaut et de la population à analyser : on doit dans ce


cadre distinguer entre les événements de défaillance et de défaut. La défaillance est le
plus souvent appréciée sur la base de critères subjectifs. Le défaut quant à lui, le
comité de Bâle a précisé la définition du défaut.

5
En Algérie, jusqu’à la fin de la réalisation de cette thèse, il n’y a pas de banque publique qui utilise le crédit
Scoring. Toute fois, la société générale et la banque BNP Paribas utilisent cette technique pour les crédits de
consommation.

54
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Quant à la population, il est nécessaire de disposer de données historiques de


crédits comprenant un nombre suffisant de défauts.
On doit également retenir un horizon temporel pour le modèle. L’horizon est d’un an si
l’on utilise l’information de l’année précédente N-1 pour prévoir les défauts de l’année
en cours N. le score mesure alors la probabilité de défaut à un an (Dietsch M., Petey J.
2003).

 Le choix des variables explicatives : Les variables doivent en principe traduire


des dimensions variées du risque de défaut. On peut alors utiliser divers types de
données :
- Comptables et financières, qui permettent de construire des ratios
financiers retraçant les diverses dimensions du risque ;

- Bancaires, notamment les données de fonctionnement du compte


permettant d’identifier la régularité du comportement de paiement des
emprunteurs ;

- Qualitatives (âge, ancienneté dans cette activité, existence d’incident dans


le passé, etc.).

 Le choix de la technique d’analyse : ils existent plusieurs techniques pour la


construction des modèles de score (voir section 3). Les techniques de « Scoring » les
plus utilisées dans le secteur bancaire font appel à des méthodes linéaires pour leur
simplicité et leur grande robustesse. L’analyse discriminante est la principale
technique utilisée pour la construction des modèles de score.

 La validation du modèle : La validation du modèle est la dernière étape dans la


construction d’un modèle de crédit scoring. Il s’agit de mesurer la performance
du modèle obtenu ainsi que sa capacité prédictive.
Il existe plusieurs méthodes de validation des modèles de crédit scoring (cf.
méthodes de validation §3.2.3). Elles sont fondées sur les méthodes habituelles

55
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

de l’inférence statistique et sur des tests de robustesse appliqués sur un


échantillon témoin qui n’a pas été utilisé pour la construction du modèle.

3. Les différentes techniques d’analyse statistiques pour la construction des


modèles de scoring

Les statisticiens ont mis au point des techniques d’analyses descriptives qui permettent
d’opérer une sélection dans les données disponibles et de ne conserver que les plus
explicatives.

Ces techniques bien que déjà anciennes, n’ont pu être réellement appliquées qu’à partir
des années 60, avec l’arrivée d’outils de calculs informatiques.

La prévision de la défaillance des entreprises a fait l’objet de nombreux travaux


empiriques. Elle se fonde sur l’analyse économique et financière d’entreprises défaillantes et
d’entreprises non défaillantes ou saines, afin de déterminer les variables qui séparent au
mieux les deux classes. Nous proposons un état des lieux des différentes méthodes ou
techniques de classification utilisées et l’énumération n’est en aucun cas exhaustive.

Le but est de faire un tour d’horizon des techniques les plus utilisées et de les
synthétiser afin de mieux comprendre l’intérêt de l’intervention des réseaux de neurones.

Le travail présenté par (Refait 2004) résume la lecture des articles fondateurs. Nous
présentons en premier lieu les trois classes de techniques de classification : les méthodes
statistiques paramétriques, les méthodes non-paramétriques et les méthodes issues de
l’intelligence artificielle.. En second lieu, nous présentons la méthodologie commune des
différentes techniques.

56
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

3.1 Les différentes techniques utilisées pour la construction d’un modèle de scoring
Les études peuvent être répertoriées en trois classes. La plus grande classe regroupe les
méthodes statistiques paramétriques comme l’analyse discriminante linéaire ou quadratique,
et les techniques économétriques. La deuxième classe regroupe les méthodes non
paramétriques comme le partitionnement récursif et les estimateurs à noyau. La classe la plus
récente s’inspire de l’intelligence artificielle comme les réseaux de neurones artificiels et les
algorithmes génétiques.

3.1.1 Les méthodes statistiques paramétriques


Les méthodes paramétriques de classification statistique visent à établir une relation
fonctionnelle entre les variables explicatives et la variable expliquée. Il existe trois familles de
méthodes :

3.1.1.1 La méthode unidimensionnelle de Beaver6


Beaver (1966) a été le réel point de départ et la référence de nombreuses études
empiriques relatives à la prédiction de défaillance. Son objectif est de classer les entreprises
sur la base du ratio le plus discriminant. C’est une classification dichotomique
unidimensionnelle, fondée sur un ratio unique. Cette méthode qui est de nature exploratoire
n’est plus utilisée actuellement.
Son manque de robustesse est lié à l’unicité du ratio utilisé. Les analyses
multidimensionnelles permettent une description plus riche de la situation de l’entreprise.

3.1.1.2 Les modèles fondés sur l’analyse discriminante


Altman est le premier, en (1968), a avoir exploité simultanément plusieurs ratios à
l’aide d’une analyse discriminante linéaire multidimensionnelle7. Altman utilise une règle de
décision simple qui consiste à affecter l’entreprise au groupe dont elle est le plus proche. A la
différence de l’analyse univariée le rattachement à l’une des deux classes ne se fait pas à

6
Pour plus de détails, voir Beaver 1966.
7
Pour plus de détails, voir par exemple Bardos 2001.

57
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

partir d’un seul ratio mais sur la base d’une combinaison de plusieurs indicateurs. L’objectif
est alors de déterminer la combinaison optimale qui permet de distinguer au mieux les deux
classes.

C’est le principe de l’analyse discriminante de Fisher qui aboutit à la construction d’une


fonction appelé score (cette méthode est présentée dans la section 4).

Si l’analyse discriminante reste la technique la plus utilisée pour la prévision de


défaillance au sein des entreprises bancaires, elle présente cependant certaines limites. Elle
repose notamment sur un ensemble d’hypothèses a priori sur la distribution des variables.
D’autres outils sont donc parfois utilisés.

3.1.1.3 Les modèles de régressions avec des variables qualitatives


Face à la contrainte de multinormalité qui est rarement respectée empiriquement dans
l’analyse linéaire et quadratique, d’autres méthodes sont proposés : les techniques
économétriques sur variables qualitatives comme le modèle Probit et le modèle Logit. Ils
supposent une distribution différente des variables comptables.

Le modèle Logit suppose que les erreurs suivent une loi logistique. Le modèle Probit
suppose que les erreurs suivent une loi normale. Dans les deux modèles, la variable endogène
est une variable qualitative. Elle prend la valeur 0 ou 1 selon que l’entreprise est défaillante ou
non.
Le modèle Probit a été le moins utilisé dans la prédiction de défaillances des
entreprises.

Cette technique présente deux avantages :


- Elle ne nécessite pas d’hypothèses à priori sur la distribution des variables.
- Elle tient compte de la probabilité à priori d’appartenance à un groupe.

58
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Par contre elle pose des problèmes pour la prévision des entreprises qui n’appartiennent
pas à l’échantillon de construction. En effet, l’échantillon de prévision doit contenir
exactement les mêmes pourcentages d’entreprises des deux classes que l’échantillon ayant
servi à la construction du modèle. Cette hypothèse présente un réel obstacle à l’utilisation de
cette technique.

3.1.2 Les méthodes statistiques non-paramétriques


On utilise les modèles non-paramétriques lorsque les ratios ne suivent pas de loi multi
normale et que les erreurs ne suivent pas une loi logistique ou une loi normale.
Ces méthodes ne nécessitent aucune hypothèse relative à la distribution des variables. Il existe
deux catégories de techniques : le partitionnement récursif et l’estimation non paramétrique
des lois de distribution des ratios.

3.1.2.1 Les modèles de partitionnement récursif


C’est un algorithme qui consiste à construire un arbre décisionnel 8. Comme le signale
(Perez M. 2002, p105), à chaque nœud de l’arbre les entreprises sont séparées en deux
groupes en fonction d’un ratio et de sa valeur seuil. La construction se fait pas à pas, en
minimisant le risque d’erreur probable de classement, à chaque nœud. On aboutit ainsi à la
construction d’un arbre de décision, avec des sous-groupes d’entreprises auxquels sont
associés des taux d’erreur (figure 2.3). Un nœud est considéré comme final ou feuille quand
aucune diminution d’erreur de classement n’est plus possible.

Le partitionnement récursif est néanmoins peu utilisé dans la prévision de défaillance.


Contrairement à l’analyse discriminante, il présente les inconvénients suivants :
 Cette méthode est très sensible au choix des probabilités de défaut à priori et des
coûts d’erreur de classement.
 Il requiert qu’à chaque nœud de l’arbre de décision soit déterminée une valeur seuil
pour le ratio considéré, ce qui nuit à la stabilité temporelle de l’indicateur.

8
. Voir Frydman H., Altman E., et Kao D, 1985.

59
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

 L’arbre se construit en chaînage avant et ne permet pas de retour en arrière dans


l’arborescence. Il peut arriver qu’un indicateur soit utilisé deux fois ce qui rend
l’interprétation difficile.

Figure 2.3 : Le partitionnement récursif

G1 :100 ; G2 :100 ; G3 :100

x5 < 1,2 x5 ≥ 1,2

G1 :12 ; G2 :68 ; G3 :40 G1 :88 ; G2 :32 ; G3 :60

x2 < 5,6 x1 ≥ -90,8

G1 :5 ; G2 :60 ; G3 :5 x2 ≥ 5,6 x1 < -90,8 G1 :18; G2 :17 ; G3 :56


Affecté à G2 Affecté à G2
G1 :7 ; G2 :8 ; G3 :35 G1 :70 ; G2 :15 ; G3 :4
Affecté à G3 Affecté à G1

Trois groupes G1, G2, G3 sont à discriminer. A chaque nœud sont représentés sur le schéma
les effectifs des groupes et la coupure.
Source : Bardos 2001, p 85

3.1.2.2 Les modèles d’estimation non-paramétrique des lois de distribution des ratios
Afin de résoudre le problème de non-multinormalité des ratios, il est possible d’estimer
la loi de probabilités des ratios par les méthodes non-paramétriques. Les méthodes non-
paramétriques ne s’appuient pas sur une forme spécifique de loi déterminée à priori. Le
principe est de faire un lissage des observations permettant d’estimer une fonction de densité
par une moyenne pondérée locale des fréquences. C’est le principe de la méthode du noyau9.

Un point est pondéré d’autant plus fortement qu’il est proche du point x en lequel la
fonction de densité est estimée. Le paramètre de lissage est crucial car il détermine la taille du
voisinage, c'est-à-dire le nuage de points pris en considération pour estimer localement la

9
Voir Calia et Ganugi 1997.

60
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

fonction de densité; il fixe également la pondération de chaque point. Il conditionne donc la


précision de l’estimation.

Le principal défaut de cette technique statistique est le nombre important de données


qu’elle requiert, par rapport à l’estimation paramétrique de la loi de distribution des ratios.

3.1.3 Les méthodes issues de l’intelligence artificielles


Face aux nombreuses contraintes liées aux méthodes statistiques traditionnelles,
d’autres méthodes issues de l’intelligence artificielle ont vu le jour. Elles relèvent plus
précisément, de l’apprentissage automatique. Il existe deux catégories de méthodes : les
réseaux de neurones artificiels et les algorithmes génétiques.

3.1.3.1 Les réseaux de neurones artificiels


La technique des réseaux de neurones a pris une ampleur considérable au cours des
années 90, tant par le développement de la recherche et la multiplication des modèles
auxquels ils ont donné lieu, que par l’extension des applications à des domaines nouveaux et
très variés. Le principe des réseaux de neurones artificiels sera plus détaillé dans le chapitre
suivant.

3.1.3.2 Les algorithmes génétiques


Leur fonctionnement est assez proche des réseaux de neurones. Un algorithme
génétique traite les informations disponibles, les ratios comptables sélectionnés et la situation
de chaque entreprise (défaillante ou saine). L’algorithme, par itérations successives, déduit
des régularités, des règles générales du processus de défaillance qu’il peut ensuite appliquer à
d’autres entreprises10. Le principe d’un algorithme génétique est d’imiter le processus
d’évolution naturelle des espèces. D’après (Varetto 1999), Il se fonde sur les trois principes
du Darwinisme :

10
Pour une illustration, voir Varetto F., 1999

61
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

 sélection des individus


 reproduction des individus : ‘les meilleurs’
 croisements génétiques et mutations aléatoires des gènes.

L’algorithme génétique analyse donc des populations de solutions - c'est-à-dire des


modes de traitement de l’information à prévoir la défaillance - et évalue leur qualité, en
l’occurrence le taux de bon classement des entreprises qu’elles fournissent. Il aboutit alors à
une nouvelle population de solutions, plus homogène. La procédure est réitérée et s’arrête
lorsque la population de solutions atteint un certain niveau d’homogénéité, fixé
préalablement.

3.2 La méthodologie commune des différentes techniques ou méthodes.


De nombreux travaux ont tenté avec succès d’évaluer le risque de défaut des entreprises
en se basant sur l’analyse financière. Le principe général est similaire, bien qu’il existe une
variété de techniques. Disposant de données comptables d’entreprises et connaissant la classe
d’appartenance durant la période d’observation, ces techniques parviennent à sélectionner les
variables comptables les plus discriminantes puis à établir une relation statistique entre ces
variables et la classe d’appartenance des entreprises. Une probabilité de défaillance est parfois
estimée. La qualité de l’indicateur de risque ainsi élaboré est jugée selon les erreurs de
classement : le pourcentage d’entreprises défaillantes considérées comme saines (erreur de
type I) et inversement, le pourcentage d’entreprises saines considérées comme risquées
(erreur de type II).

D’après (Refait 2004), il existe quatre étapes nécessaire à la construction d’un modèle
de prévision de défaillance : la construction d’un échantillon, la sélection des variables
explicatives de la défaillance, le choix du mode de classification des entreprises entre les deux
classes, et enfin l’estimation de la qualité de prévision effectuée.

62
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

3.2.1 La construction de l’échantillon


L’élaboration de l’échantillon joue un rôle important dans la qualité de la prévision. Il
est basé sur deux piliers importants : le premier est la définition de la défaillance et le choix
de l’horizon de prévision sont importants, le second est le choix des caractéristiques des
entreprises sélectionnées.

 Définition de la défaillance et de l’horizon de prévision : elle est primordiale dans


la construction de l’échantillon puisqu’elle caractérise les deux populations qui déterminent
l’indicateur de risque. A partir d’un échantillon global d’entreprises, deux sous-échantillons
doivent être construits : l’échantillon des entreprises dites ‘ saines’ et l’échantillon des
entreprises dites ‘ défaillantes’.

La détermination de ce qu’est une entreprise défaillante est un problème délicat,


susceptible de nuire à la robustesse de l’indicateur. La majorité des auteurs considère la
défaillance comme l’ouverture d’une procédure judiciaire. Cependant, certains auteurs
considèrent la défaillance comme un défaut de paiement. Le comité de Bâle met en effet
l’accent sur l’estimation du risque de défaut et non sur celle du risque de défaillance.

Parallèlement à la définition de la définition de la défaillance, le choix de l’horizon de


prévision est important. Il conditionne la date de la défaillance des entreprises et la date des
données qui vont fonder la discrimination, l’écart de temps entre les deux étant l’horizon de
prévision. Un arbitrage est à faire entre une échéance trop proche, dont l’intérêt est limité car
elle ne permet pas d’éviter la faillite et limiter les pertes, et une échéance trop lointaine, qui ne
permet pas une prévision précise. Les études diffèrent légèrement sur ce point, mais
généralement, deux horizons sont choisis : un an et trois ans avant la défaillance.

 Les caractéristiques des entreprises : représentativité et homogénéité de


l’échantillon : la construction des deux sous-échantillons pose le double problème de la
représentativité et homogénéité des deux sou-échantillons. L’échantillon de base doit être
représentatif : du point de vue des secteurs d’activités, de la taille des entreprises mais
également du rapport entre le nombre d’entreprises et d’entreprises saines. Néanmoins, cette

63
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

représentativité crée une homogénéité qui est susceptible de créer un biais statistique : des
facteurs explicatifs peuvent être masqués par des effets sectoriels ou des effets de taille.
Afin de concilier ces deux exigences et d’améliorer la qualité de prédiction de la défaillance,
les solutions suivantes ont été préconisées :
- Une bonne représentativité est possible lorsque le nombre d’entreprises exploitées
est élevé. Elle doit cependant être vérifiée par la comparaison entre les
caractéristiques de l’échantillon et celle de la population globale.
- Le fait de limiter la portée de l’indicateur à une population cible, par un secteur
économique limité ou on intervalle restreint de taille d’entreprises.

L’inconvénient de cette méthode est qu’elle exige que soit élaboré un indicateur par
secteur et par taille. Il se pose alors le problème du choix d’agrégation des secteurs
économiques et de l’ampleur des intervalles de taille.

3.2.2 La sélection des variables explicatives


La prévision de la défaillance est réalisée à partir de données comptables. Les variables
explicatives retenues sont généralement des ratios comptables diverses. Mais les
caractéristiques des entreprises prises en compte sont similaires.

Conformément à l’enseignement de l’analyse financière, les trois éléments les plus


corrélés à la défaillance sont : la rentabilité de l’entreprise (économique ou financière), la
structure de son bilan et sa capacité de remboursement.

 La rentabilité de l’entreprise : La rentabilité économique met en considération un


résultat d’exploitation. La rentabilité financière met en rapport une variable de résultat avec le
capital financier. Elle est souvent exprimée par le ratio résultat global sur capitalisation
boursière.

64
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

 La structure du bilan : elle met en rapport un élément de l’actif et un élément du


passif. Elle permet de rendre compte d’éventuels déséquilibres qui peuvent causés le non-
respect des engagements financiers de l’entreprise.

 La capacité de remboursement : elle est mesurée de différentes manières : par le


ratio cash flow sur dette totale, par le ratio intérêts dus sur chiffre d’affaires, et par le ratio
revenu d’exploitation sur intérêts dus.

Conjointement aux données comptables, des informations liées à l’organisation de


l’entreprise ou à la nature de son financement, par exemple, peuvent être utilisées.

3.2.3 La méthode de validation


Une fois l’échantillon constitué, il convient d’établir un lien statistique entre les
variables explicatives retenues et l’appartenance à l’une des deux classes. La qualité de
prévision de l’indicateur de risque est mesurée par le taux de bons classements.

La divergence entre les études se situe dans la construction de l’échantillon qui sert à
calculer les taux de bons classements, nommé échantillon test. Les études qui utilisent une
très grande base de données mesurent le taux de bons classements à partir d’un autre
échantillon différent de l’échantillon de construction tel que Bardos (1998) et Bardos M. et
Zhu W.H. (1997). Dans d’autres études, l’échantillon de base ou initial est le même que celui
qui est utilisé pour la validation ce qui rend l’indicateur de risque peu performant.

En général trois méthodes de validation sont utilisées : la validation croisée, le jack-


knife, et le bootstrap.

 La validation croisée : en anglais cross-validation. Une validation croisée d’ordre V


consiste à découper l’échantillon initial en V sous-échantillons de taille approximativement
égale, puis à estimer l’indicateur de risque à partir de V-1 groupes pour enfin calculer le taux

65
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

de bons classements sur le V me groupe. Le taux de bons classements théorique est estimé par
la moyenne des V taux de bons classements empiriques.

 Le jack-knife : il consiste à construire n sous-échantillons de n-1 entreprises, en


négligeant successivement chacune des n entreprises de l’échantillon initial. Les n taux de
bons classements sont calculés sur l’échantillon initial à partir des n indicateurs estimés des n
sous-échantillons. Le taux de bons classements théorique est estimé par la moyenne des n
taux de bons classements empiriques.

 Le bootstrap : il consiste à construire un échantillon à partir d’un tirage aléatoire


avec remise des entreprises de l’échantillon initial. L’échantillon est généralement de même
taille que l’échantillon initial. Un indicateur est élaboré à partir de l’échantillon construit et le
taux d’erreur de classement qu’il procure est calculé sur l’échantillon initial. Un taux d’erreur
apparent est calculé sur l’échantillon construit. L’écart entre les deux taux d’erreur de
classement est mesuré. Le taux d’erreur de classements théorique est estimé par le taux
d’erreur apparent calculé sur l’échantillon initial auquel s’ajoute la moyenne empirique des
écarts.

Le niveau des taux de bons classements dépend donc, du mode de validation choisi. Les
trois modes de rééchantillonage citées permettent de calculer une moyenne de bons
classements.

4. L’analyse discriminante linéaire (ADL)

L’analyse discriminante est un outil statistique qui peut être utilisé pour des fins
descriptives et de classification afin d’analyser une diversité de situations dans différents
domaines comme la finance, le marketing. Elle est utilisée pour modéliser la valeur d’une
variable dépendante qualitative et sa relation avec un ou plusieurs variables explicatives.

66
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Etant donné n observations réparties en k classes et décrites par p variables explicatives,


l’analyse discriminante tente de trouver des combinaisons linéaires de ces variables qui
permettent de mieux distinguer les différents groupes de cas. Ces combinaisons sont appelées
fonctions discriminantes. La mise en œuvre de l’analyse discriminante est basée sur certaines
hypothèses clés :
 Les variables explicatives ne sont pas hautement corrélées entre eux.
 La moyenne et la variance d’une variable explicative donnée ne sont pas
corrélées.
 Les variables explicatives sont normalement distribuées.
 La corrélation entre deux variables explicatives données est constante au sein
du groupe (la matrice de Variance-covariance est homogène).

D’après (Saporta G. 2006, p439), on distingue deux aspects en analyse discriminante :


 Le premier descriptif : cherche quelles sont les combinaisons linéaires de
variables qui permettent de séparer le mieux possible les k catégories et donner
une représentation graphique qui rende compte de cette séparation.

 Le second décisionnel : un nouvel individu se présente pour lequel on connait


les valeurs des prédicateurs. Il s’agit alors de décider dans quelle catégorie il
faut l’affecter. C’est un problème de classement (et non de classification). 11

Outre les aspects de l’analyse discriminante, deux méthodes sont à distinguer (Bardos
M. 2001) :
 La méthode géométrique : elle ne repose que sur les notions de distances et
ne fait pas intervenir des hypothèses probabilistes. En effet, on remarque dans
la figure ci-dessous une région d’incertitude dans laquelle on trouve des
individus appartenant aux deux groupes. Le but de la méthode géométrique et
de trouver un axe qui permette de minimiser la zone d’incertitude c'est-à-dire

11
Dans le cas de classement, les classes sont connues et le problème devient un problème d’affectation des
individus. Alors que le but de la classification est de construire une ou plusieurs partitions (classes). Les classes
formées doivent être le plus homogène possible.

67
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

de maximiser la séparation entre ces deux groupes. Cependant, l’utilisation de


cette méthode conduit à des affectations incorrectes lorsque la dispersion des
groupes n’est pas parfaite.

Figure 2.4 : Distribution de deux groupes sur deux variables et tracé


de la fonction discriminante

Source : adapté à partir de Saporta 2006.

 La méthode probabiliste : elle fait intervenir, comme son nom l’indique, des
hypothèses probabilistes, et prend ainsi en compte la probabilité a priori
d’appartenir à un groupe.

Dans cette présente étude, c’est la méthode probabiliste qui sera utilisée et dont la
construction sera développée.

4.1 Construction du modèle


Le modèle d’analyse discriminante est un modèle probabiliste qui repose sur le fait que
les descripteurs et les classes sont traités comme des variables aléatoires et vise a construire
un outil d’aide à la décision qui permet d'affecter à l’un des groupes (défaillant ou sain) toute
observation nouvelle caractérisée par des descripteurs (ratios).

Si par exemple la variable aléatoire « classe » vaut « zéro » pour une entreprise
défaillante et « un » pour une entreprise saine et que, par souci de simplification, les

68
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

descripteurs sont deux ratios financiers R1 et R2, alors la formulation du problème de


classification serait : étant donné une entreprise nouvelle dont les ratios financiers sont de
valeur r1 et r2, quelle est la probabilité que cette entreprise soit défaillante (c'est-à-dire que la
variable « classe » soit égale à zéro)?
Cette probabilité est la probabilité a posteriori de la classe « entreprises défaillantes ». Elle est
donnée par la formule de Bayes qui elle-même repose sur deux concepts importants : la
probabilité a priori de chaque classe et la densité de probabilité conditionnelle de chaque
descripteur.

Dans le cas de deux groupes la formule de bayes s’écrit ainsi :

P : la proportion du groupe j dans l’échantillon (c’est la probabilité à priori qu’un élément i


j
appartienne à la classe Gj).
Quant à la densité de probabilité conditionnelle d’un descripteur, il s’agit de la probabilité qu’un
descripteur prenne une valeur issue d’un tirage d’un groupe déterminé.

Dans ce cas, on considère que la distribution des entreprises saines et celle des
entreprises défaillantes suivent toutes les deux des lois normales multi variées dont les
matrices de variances-covariances sont égales. La formule de Bayes permet de construire la
fonction score.12
La règle de décision consiste à classer l’observation dans le groupe pour lequel la probabilité
à posteriori est la plus forte et cela revient aussi à la classer dans le groupe selon que son score
soit inférieur ou supérieur à un certain seuil.

4.2 Sélection des variables

Dans le cas de l’analyse discriminante, plusieurs approches sont envisageables, pour


sélectionner les variables qui rentrent dans la construction de la fonction score, l’algorithme
de sélection utilise la méthode pas à pas (StepWise) en anglais ou il introduit successivement

12
Pour une démonstration plus détaillée, voir Bardos 2001.

69
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

les variables puis à sélectionner celles qui minimisent le lambda de Wilks (qui fera l’objet de
plus amples explications plus bas). Il est à noter qu’une variable déjà introduite peut être
éliminée car son pouvoir discriminant va être apporté par une combinaison de variables qui
seront introduites par la suite.

Le lambda de Wilks est donné par la formule suivante :

V : la Matrice de variance totale

W : matrice de variance intra-classes.

La signification de cette statistique entre deux pas est vérifiée par un test de Fisher qui
rejette la signification de l’apport de la variable au pas P+1 si :

: Lambda de Wilks pour la p ème variable.


n : Nombre d’observations.
k : Nombre de groupes, dans notre cas c’est K= 2
p ,p+1 représentent les de Wilks calculés avant et après l’introduction de la
nouvelle variable.

Le test est construit comme suit H0 : Non apport de la variable à la discrimination


H1 : Apport de la variable à la discrimination

On rejette H0 si :

4.3 Vérification de la validité du modèle


Avant d’interpréter la fonction score on doit tester si au niveau des scores discriminants
on obtient une différence entre les groupes afin de mesurer, statistiquement, la performance
du modèle. Plusieurs critères sont utilisés :

70
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

4.3.1 La distance de Mahalanobis (Saporta 2006)


Sous l’hypothèse de la normalité des vecteurs et de l’égalité de la matrice variance-
covariance, la distance de Mahalanobis théorique est :

La distance de Mahalanobis estimée est:

Le test de Mahalanobis se présente ainsi :

H0 : ² 0 µ1 = µ2

H1 : ² 0 µ1 µ2

On rejette H0 si :

Où n1et n2 sont respectivement les tailles des groupes G1 et G2.

D’une manière générale, plus la distance de Mahalanobis est grande, meilleure est la
discrimination.

4.3.2 La valeur propre

ut B u

u tV u
u : Le facteur discriminant.
B : La variance interclasse.
V : La variance totale.

71
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

La valeur propre n’est que la projection de la variance interclasse sur l’axe discriminant
divisé par la projection de la variance totale sur l’axe discriminant. On peut en déduire que
plus la valeur propre est proche de un plus la discrimination est parfaite.

4.3.3 La corrélation canonique


C’est une autre mesure de la performance liée directement à la valeur propre.

δ = λ ½

Un bon modèle de crédit scoring va donner une corrélation canonique proche de 1.

4.4 La performance du modèle


Pour que l’outil statistique soit efficace, on doit juger la performance du modèle. La
performance de la fonction score est calculée a partir du taux de bon classement qu’elle
fournit. Le taux de bon classement est la fréquence empirique des entreprises bien classées par
le modèle pour chaque groupe.

Plusieurs outils sont utilisés pour mesurer la performance d’un modèle. L’on peut citer
les courbes et les indicateurs de performance tels que La courbe ROC (Receiver Operating
Characteristic) et la courbe de CAP (Cumulative Accuracy Profile), la statistique de Mann-
Whitney.

4.4.1 La statistique de Mann-Whitney


La statistique de Mann-Whitney est une mesure de concordance entre le résultat de
classification et le groupe d’origine auquel appartient l’observation (entreprises).
Cette statistique est calculée en construisant des paires formées d’une part d’une entreprise
saine et d’une entreprise défaillante d’autre part.
NC
U 
t

72
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Si le nombre des entreprises saines est n1 et que le nombre des entreprises défaillantes
est n2, alors le nombre total des paires est égal à t = n1.n2 et NC est le nombre de paires
concordantes.
Le test de Mann-Whitney permet de voir si les deux groupes sont bien séparés. Si la
valeur calculée de la statistique est supérieure à la valeur tabulée d’une loi normale de
moyenne μ=0,5 et de variance б² = (n1 + n2+1) / (12. n1. n2) alors l’hypothèse que les deux
groupes ne sont pas séparés est rejetée.

4.4.2 La méthode de validation croisée

La méthode a été déjà présenté (cf. §3.2.3).


Cette méthode consiste à diviser l’échantillon en deux, l’un servira à la construction du
modèle, l’autre servira pour la validation du modèle et éventuellement à simuler le
comportement futur du modèle. Cette méthode permet d’estimer le taux de bon classement
des entreprises de l’échantillon de construction.

Pour examiner la concordance entre la réalité et le résultat du modèle, on construit une


table de d’affectation. La table ci-dessous présente le cas de trois classes.

Tableau 2.2 : Table d’affectation – dénombrement des différents cas.

Groupe d’affectation
Groupe réel A B C
A x y z
B r s t
C l m n
Source : Bardos 2001, p9.

Dans ce tableau, les individus qui sont sur les cases de la diagonale principale (AA, BB
et CC), sont bien classés, les autres sont mal classés.
xsn
Le taux global de bons classements est :
x y zr st l mn
x
Le taux de bons classements dans la classe A est :
x yz

73
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

y zr t l m
Le taux global d’erreur de classement est :
x y zr st l mn

L’objectif est de parvenir à définir une règle d’affectation ayant un faible taux d’erreur.
Cette règle sera utilisée pour prévoir l’appartenance à un groupe d’un nouvel individu hors
échantillon (c'est-à-dire hors de l’échantillon qui a servi à construire le modèle ou la règle)
dont le groupe d’appartenance est inconnu.

4.5 Limites de l’analyse discriminante linéaire

Si l’analyse discriminante reste la technique la plus utilisée pour l’évaluation du risque


de crédit au sein des organismes bancaires, elle présente cependant certaines limites qui
poussent les chercheurs à trouver d’autres outils. Elle repose notamment sur un ensemble
d’hypothèses a priori sur la distribution des variables, nécessaires à sa mise en place.

Les limites les plus importantes sont :


 La normalité des indicateurs (Perez M. 2002) : avant de construire un modèle, on
doit s’assurer de la normalité de la distribution. En général, la distribution ne
respecte pas une loi normale. Souvent, on tente de transformer les données afin de
s’en approcher (ex. utilisation du logarithme). Cette opération entraine une perte de
compréhension et les données deviennent difficiles à interpréter.
L’analyse discriminante (ADL) est donc parfois utilisée sans que cette hypothèse ne
soit totalement respectée, entrainant ainsi des erreurs de classement et une nuisance
à la capacité du modèle.

 L’égalité des matrices de variance-covariance : la dispersion des indicateurs doit


être égale à l’intérieur de chaque groupe. En pratique, cette hypothèse n’est pas
vérifiée c’est la raison pour laquelle les règles quadratiques sont plus appropriées
mais elles impliquent plus d’estimations de paramètres. Par ailleurs, lorsque les
échantillons sont de petite taille les fonctions obtenues sont peu robustes.

74
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

 La linéarité de la séparation des groupes : l’ADL suppose que les entreprises


saines et les entreprise défaillantes soient séparables linéairement par une droite.
Dans le cas de la prévision de la défaillance, le problème n’est pas séparable
linéairement puisqu’il ya chevauchement entre les deux groupes (figure 2.4).

 Les estimateurs : il convient de signaler qu’en pratique, on utilise les estimateurs de


μ1 ,μ2 ,Σ et non pas leurs valeurs exactes et cela pose un problème dans le scoring
financier puisqu’on ne peut pas connaitre les valeurs justes de la moyenne des
variables des entreprises saines, la moyenne des variables des entreprises défaillantes
et la matrice de variance-covariance.

 Le choix de l’échantillon : Un autre désavantage de l’analyse discriminante est que


les échantillons d’où sont tirées les entreprises ayant fait faillite et celles n’ayant pas
fait faillite dans les études d’analyse discriminante n’ont pas étés tirés de façon
aléatoire. Ces entreprises sont jumelées selon certaines caractéristiques comme la
taille de l’entreprise ou de l’industrie et donc il existe un biais dans les études
d’analyse discriminante.

75
Chapitre 2 : Les méthodes d’évaluation du risque de crédit et le crédit scoring

Conclusion

Donc, l’analyse discriminante linéaire est une approche statistique d’appréciation du


risque. Son caractère objectif, précis et général fait d’elle un outil de gestion très performant.

Mais le non respect de chacune des hypothèses, citées précédemment, affaibli


l’efficacité de l’analyse discriminante et peut entrainer des erreurs dans l’affectation des
individus à une classe ou à une autre. Les biais restent cependant relativement faibles et
n’empêchent pas l’utilisation de cet outil.

Pour tirer le maximum d’avantage et de précision dans ses résultats, l’utilisation d’un
modèle de Scoring doit être adaptée à la population pour laquelle il est destiné.

Un modèle de Scoring (construit à l’aide de l’ADL) n’est pas le modèle parfait. Bien
qu’il apporte beaucoup de performance à la gestion, son utilisation doit se faire d’une manière
étudiée pour tirer le plus de ses avantages et subir le moins ses inconvénients.

Le chapitre suivant présente les fondements théoriques de l’approche neuronale qui est
moins contraignante que l’analyse discriminante.

76
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Cerveau : instrument qui nous permet


de penser que nous pensons.
AMBROSE BIERCE

Chapitre 3 : Les réseaux de neurones


artificiels (R.N.A)

Introduction

Conçus à l'origine comme des modèles mathématiques très simplifiés de notre cerveau,
les réseaux de neurones formels ou artificiels (R.N.A) sont des systèmes d'apprentissage par
exemple, imitant en cela la façon dont nous apprenons par essais, erreurs et corrections
successives à effectuer des tâches complexes.

Concrètement, les techniques neuronales sont des outils mathématiques et


algorithmiques qui s'avèrent être puissants et commodes pour résoudre des problèmes non
linéaires et complexes. Ils nourrissent des contributions provenant des mathématiques
(optimisation, statistiques, systèmes non linéaires, théorie de la décision), de la physique
statistique, de l'informatique (intelligence artificielle, reconnaissance des formes). En
modélisation, il existe une interaction importante entre créateurs de modèles et chercheurs en
neurosciences et science cognitives1.

1
Il existe d’autres termes pour désigner les réseaux de neurones artificiels : les modèles cognitives, les systèmes
connexionnistes, les modèles mimétiques et les modèles parallèles.

77
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

L’intérêt de ce chapitre est de poser les bases de fonctionnement des R.N.A et de


présenter les différents types d’architectures existantes, afin de mieux comprendre les raisons
de leur utilisation dans le cadre d’une application financière.

Le chapitre commence par un aperçu historique des RNA, il présente ensuite le mode de
fonctionnement, ainsi que les différentes architectures des réseaux, il définit ensuite les
différentes étapes de mise en œuvre d’un réseau neuronal et se termine par un survol des
applications des RNA dans le domaine de la finance.

78
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

1. Historique

À ses début, l’intelligence artificielle consistait en la difficile tâche de reproduire


l’essentiel du fonctionnement du cerveau humain sous forme machine. Bien entendu l’étendue
des recherches sur l’état du cerveau à cette époque était trop peu suffisante pour engendrer un
modèle parfait et même encore aujourd’hui l’étendue des recherches sur le cerveau humain
sont trop peu avancées pour reproduire sous forme machine le cerveau humain. Toutefois les
chercheurs à cette époque pouvaient s’appuyer sur un modèle connu et reproductible, le
neurone.

1.1 Aperçu historique


Les recherches sur les réseaux de neurones artificiels ont débutées dans la fin des années
cinquante (50). L’apparition de ces méthodes étant héritière de la révolution scientifique de
cette époque et consistait en la transposition de la pensée humaine sous forme machine. Ces
recherches sur le lien entre l’esprit humain, son cerveau et la machine étaient conduites par
une variété de chercheurs tels que NEWMAN, TURING, CHURCH, NEWELL et SIMON allaient
d’ailleurs produire les fondations de ce que l’on appelle aujourd’hui l’intelligence artificielle
(Joudouin J.F. 1994). Ces recherches allaient aboutir sur un modèle mimétique au cerveau
humain, le réseau de neurones, reproduisant de manière exhaustivement simpliste un modèle
neuronal.

De façon générale, on situe le début des réseaux de neurones artificiels en 1943 avec les
travaux de MC CULLOCH et PITTS qui montrèrent qu’un réseau de neurones discret, sans
contrainte de topologie, peut représenter n’importe quelle fonction booléenne et donc émuler
un ordinateur.

En 1958, ROSENBLATT propose le premier algorithme d’apprentissage, qui permet


d’ajuster les paramètres d’un neurone.

79
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

En 1969, MINSKY et PAPERT publient le livre Perceptrons dans lequel ils utilisent une
solide argumentation mathématique pour démontrer les limites des réseaux de neurones à une
seule couche. Ce livre avait une influence telle que la plupart des chercheurs abandonnèrent le
champ de recherche sur les réseaux de neurones.

Face aux limites de l’approche neuronale, des auteurs comme SIMON et MINSKY se sont
orientés vers une nouvelle voie de l’intelligence artificielle tentant de reproduire le
raisonnement humain à partir d’une approche symbolique. Les systèmes experts font alors leur
apparition et gagnent leur titre de noblesse.

En 1982, HOPFIELD propose des réseaux de neurones associatifs et l’intérêt pour les
réseaux de neurones renaît chez les scientifiques.

En 1986, RUMELHART, HINTON et WILLIAMS publient, l’algorithme de la


rétropropagation (§cf. apprentissage supervisé) de l’erreur qui permet d’optimiser les
paramètres d’un réseau de neurones à plusieurs couches.

Le retour à l’approche neuronale s’amorce alors dans les années quatre-vingt (80). Les
chercheurs ne tentent plus d’imiter le fonctionnement du cerveau humain et des neurones
biologiques en tout point, mais s’en servent simplement pour guider leurs recherches. Ainsi,
une solide alliance naît entre neurophysiologues et neuroinformaticiens. Ces derniers se
basent sur les découvertes faites au niveau du fonctionnement du cerveau humain, pour tenter
d’appréhender une intelligence qui serait artificielle, tandis que les neurophysiologues tentent
de modéliser le cerveau humain par ordinateur.

En 1990, PEREZ nous montre la différence fondamentale entre l’approche traditionnelle


(systèmes expert) et l’approche neuronale. Dans la première approche, les frontières sont
clairement établies entre les différentes fonctions d’un ordinateur; c'est-à-dire qu’il distingue
clairement les entrées, les sorties, les organes de traitement et la mémoire. Alors que dans
l’approche neuronale les fonctions vont s’enchevêtrer et se fusionner, mais surtout se

80
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

délocaliser et en se diffusant dans chaque neurone artificiel. Ainsi, le neurone est à la fois
organe d’entrée, sortie, de mémoire et de traitement.

À partir de ce moment, la recherche sur les réseaux de neurones connaît un essor


fulgurant et les applications commerciales de ce succès académique suivent au cours des
années 90.

Aujourd’hui, on retrouve les réseaux de neurones solidement implantés dans diverses


industries : dans les milieux financiers pour la prédiction des fluctuations de marché ; en
pharmaceutique pour analyser le « QSAR » (quantitative structure activity relationship) de
diverses molécules organiques ; dans le domaine bancaire pour la détection de fraudes sur les
cartes de crédit et le calcul de cotes de crédit; dans les départements de marketing de
compagnies de diverses industries pour prévoir le comportement des consommateurs; en
aéronautique pour la programmation de pilotes automatiques; etc.

Les applications sont nombreuses et partagent toutes un point commun essentiel à


l’utilité des réseaux de neurones2: les processus pour lesquels on désire émettre des
prédictions comportent de nombreuses variables explicatives et surtout, il existe possiblement
des dépendances non linéaires de haut niveau entre ces variables qui, si elles sont découvertes
et exploitées, peuvent servir à l’amélioration de la prédiction du processus. L’avantage
fondamental des réseaux de neurones par rapport aux modèles statistiques traditionnels réside
dans le fait qu’ils permettent d’automatiser la découverte des dépendances les plus
importantes du point de vue de la prédiction du processus.

1.2 Les origines biologiques


Les réseaux de neurones artificiels étant construits par analogie au fonctionnement du
cerveau, il convient donc d’en exprimer brièvement les bases biologiques, afin de mieux
comprendre leur fonctionnement.

2
Il faut rappeler que l’approche neuronale qui se base sur un principe de parallélisme est simulée sur des
ordinateurs séquentiels. Il n’existe pas encore d’ordinateur dont le hardware est construit la neuro-puce.

81
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Le cerveau humain est composé d’environ vingt cinq (25) milliards de neurones à la
naissance et atteint ensuite , à l’âge adulte, le nombre approximatif de cent (100) milliards de
neurones interconnectés qui font circuler l’information.

Le neurone est une unité cellulaire de relais et d’interprétation de signaux situés dans le
système nerveux et cérébral (Figure 3.1).

Figure 3.1 : Le neurone biologique

SYNAPSE

Source : Jodouin 1994, p5

Chaque neurone a pour but de véhiculer l’influx nerveux (représentant l’information


sous forme codée) vers d’autres neurones avec lesquels il est relié. Il reçoit cette information
par d’autres cellules par l’intermédiaire de ses dendrites (récepteurs) et la transmet à travers
son axone. Les connexions entre neurones se font par l’intermédiaire des synapses (lieux de
contact entre l’axone d’un premier neurone et la dendrite d’un second neurone) ou circulent
des neurotransmetteurs qui font passer l’influx nerveux d’une cellule à une autre. Les
synapses transmettent l’information au noyau (le soma) en faisant la sommation des influx
qu’il reçoit. Il compare alors cette somme à un seuil qui lui est propre afin de déterminer si
l’information doit être transmise à un autre neurone ou si elle ne doit pas être propagée.

82
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Il faut préciser qu’un neurone pris indépendamment des autres ne représente pas un
grand intérêt. C’est la combinaison de l’ensemble des neurones qui fait la richesse du cerveau
humain.

2. Fonctionnement des RNA

Les modèles, ainsi développé ont permis de proposer de nouvelles méthodes de


traitement des données, de nouveaux systèmes de traitement de l'information. Au fur et à
mesure du développement des moyens de calcul et de l'augmentation de la puissance des
ordinateurs, les réseaux de neurones ont marqué les années 90 en proposant de nouveaux
paradigmes pour le calcul, de nouvelles méthodes de modélisation, et en réintroduisant les
méthodes numériques au sein de l'I.A. le domaine s'est développé extrêmement vite en
proposant des méthodes pratiques pour résoudre des problèmes de grande taille et des
applications ont été réalisées dans la plupart des domaines traditionnels de l'ingénierie
(diagnostic, contrôle, reconnaissance de caractères et d'images, prévision de série temporelles,
discrimination, etc.)

2.1 Définitions
Il n’y a pas de définition universelle des réseaux de neurones artificiels. Nous proposons
ci-après quelques définitions proposées par la littérature.

2.1.1 Le neurone formel


Le neurone artificiel s’inspire de son modèle biologique. C’est un automate qui
communique avec d’autres neurones qui s’active en fonction d’impulsions reçues. Les
connexions inter neuronales sont représentées par une matrice de poids. Le neurone reçoit de
ses voisins des inputs (entrées) et envoie lui-même un output (sortie). L’activation du neurone
est le plus souvent définie comme la somme pondérée des entrées (Lemberg 1994, p210).

83
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Un neurone est une fonction non linéaire, paramétrée, à valeurs bornées (Dreyfus 2004,
p3).

On peut déduire que le neurone formel, n’est donc qu’une unité de calcul qui imite de
façon très simple le fonctionnement d'un neurone biologique (figure ci-après).

Figure 3.2 : Le neurone formel

O1 Neurone j
W1j

Oi Wij Σ F(Σ)=θ
Oj
Wmj
Om

Source : Lebel Fabrice 2006, p5

Oi = signal en provenance du neurone i.


Wij = poids de la liaison entre le neurone i et le neurone j.
F = fonction d’activation.
θ = seuil d’activation.
m

Σ =  wij .oi
i 1

Ici, le neurone j reçoit des signaux, Oi, i = 1..m, en provenance des neurones i. Le niveau
d'activation du neurone j, Σ, est la somme des signaux Oi pondérés par les poids synaptiques
Wij. Un signal Oj est émis par le neurone j si le résultat de sa fonction d'activation F(Σ) est
supérieur au seuil d'activation θ.

2.1.2 Les réseaux de neurones artificiels


Un réseau de neurones est un processeur massivement distribué en parallèle qui a une
proportion naturelle pour stocker de la connaissance empirique (experiential knowledge) et la
rendre disponible à l'usage. Il ressemble au cerveau sur deux aspects:

84
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

1. La connaissance est acquise par le réseau à travers un processus d'apprentissage


2. Les connexions entre les neurones, connues sous le nom de poids synaptiques
servent à stocker la connaissance (Haykin 1994, p2).

Un réseau de neurones (Artificial Neural Network) est un modèle de calcul dont la


conception est très schématiquement inspiré du fonctionnement de vrais neurones (humains ou
non). (Falavigna 2008, p8)

Un réseau de neurones est une fonction mathématique, comprenant, comme toute


fonction, des variables et un résultat ; elle comprend de plus des paramètres ajustables appelés
poids. Le calcul du résultat est effectué par n'importe quel ordinateur ; celui-ci peut être muni
d'un logiciel spécifique de traitement de données par réseaux de neurones, ou bien l'utilisateur
peut écrire lui-même un court programme dans le langage de son choix. Un réseau de
neurones n'est que très exceptionnellement un objet matériel (circuit électronique spécialisé) ;
cela peut être le cas pour des applications ayant de très fortes contraintes de vitesse de
traitement ou de miniaturisation (Dreyfus 1997, p1)

2.1.3 L’apprentissage
On appelle apprentissage des réseaux de neurones la procédure qui consiste à estimer
les paramètres des neurones du réseau, afin que celui-ci remplisse au mieux la tâche qui lui est
affectée (Dreyfus & al. 2004, p10).

Afin que le réseau puisse découvrir la forme de la relation entre les variables, il suit, en
général, deux types d’apprentissage: l’apprentissage supervisé et l’apprentissage non
supervisé (cf. § 2.2.3):

 Un apprentissage est dit supervisé lorsque l’on force le réseau à converger vers un état
final précis, tout en lui présentant une forme donnée.

85
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

 Un apprentissage est dit non supervisé lorsque le réseau est laissé libre de converger
vers n’importe quel état final, tout en lui présentant une forme donnée.

2.2 Les composants du réseau de neurones artificiel


Un réseau de neurones artificiel est définit par trois composants : l’architecture du
réseau, les fonctions d’activations et le mode d’apprentissage

2.2.1 L’architecture du réseau


C'est la structure des connexions entre les neurones qui composent le réseau, elle décrit la
topologie du modèle. Elle peut être quelconque, mais le plus souvent il est possible de
distinguer une certaine régularité.
On distingue deux types de modèles : les réseaux non bouclés ou multicouches et les réseaux
bouclés.

2.2.1.1 Les réseaux non bouclés ou multicouches


Un réseau de neurones non bouclé réalise une (ou plusieurs) fonctions de ses entrées,
par composition des fonctions réalisées par chacun des neurones (Dreyfus & al. 2004, p4).

Un réseau de neurones non bouclé est donc représenté graphiquement par un ensemble
de neurones« connectés » entre eux, l’information circulant des entrées vers les sorties sans
« retour en arrière » : si l’on représente le réseau comme un graphe dont les nœuds sont les
neurones et les arêtes les « connexions » entre ceux-ci, le graphe d’un réseau non bouclé est
acyclique : si l’on se déplace dans le réseau, à partir d’un neurone quelconque, en suivant les
connexions, on ne peut pas revenir au neurone de départ. Les neurones qui effectuent le
dernier calcul de la composition de fonctions sont les neurones de sortie ; ceux qui effectuent
des calculs intermédiaires sont les neurones cachés (voir figure 3.5).

86
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

2.2.1.2 Les réseaux bouclés ou récurrents


Nous introduisons ici l’architecture la plus générale pour un réseau de neurones, les
« réseaux bouclés », dont le graphe des connexions est cyclique : lorsqu’on se déplace dans le
réseau en suivant le sens des connexions, il est possible de trouver au moins un chemin qui
revient à son point de départ (un tel chemin est désigné sous le terme de « cycle »). La sortie
d’un neurone du réseau peut donc être fonction d’elle-même; cela n’est évidemment
concevable que si la notion de temps est explicitement prise en considération (Dreyfus & al.
2004, p7).
Figure 3.3 : réseau bouclé

0 3 0

0 5 g(kT)
U1(kT)
1 0
1

1
0 4
U2(kT)
Source : Dreyfus & al. 2004, p8
Réseau bouclé à deux entrées. Les chiffres dans les carrés indiquent le retard attaché à chaque
connexion, multiplié de l’unité de temps (ou période d’échantillonnage) T. le réseau contient un
cycle qui va du neurone 3 au neurone 4 et revient au neurone 3.

Ainsi, à chaque connexion d’un réseau de neurones bouclé (ou à chaque arête de son
graphe) est attaché, outre un poids comme pour les réseaux non bouclés, un retard, multiple
entier (éventuellement nul) de l’unité de temps choisie. Une grandeur, à un instant donné, ne
pouvant pas être fonction de sa propre valeur au même instant, tout cycle du graphe du réseau
doit avoir un retard non nul.

2.2.2 Les fonctions d’activations


On distingue deux phases. La première est habituellement le calcul de la somme

pondérée des entrées (a) selon l'expression suivante : a  (wi.ei) .

87
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

A partir de cette valeur, une fonction de transfert (fonction d'activation) calcule l'état de
la valeur du neurone. C'est cette valeur qui sera transmise aux neurones avals. Il existe de
nombreuses formes possibles pour la fonction d’activation. La plupart de ces fonctions sont
continues, offrant une infinité de valeurs possibles comprises dans l'intervalle [0, 1] ou [-1, 1].
Plusieurs fonctions répondant à cet impératif peuvent être utilisées, mais la plus
communément utilisée est la fonction sigmoïde. Le tableau ci-dessous résume ces fonctions.

Tableau 3.1 : Fonctions d’activation

Source : Bibliothèque de fonction de Matlab 7.0

2.2.3 Le mode d’apprentissage

L'apprentissage est la propriété la plus intéressante des réseaux neuronaux. Elle ne


concerne cependant pas tous les modèles, mais les plus utilisés. L'apprentissage est une phase
du développement d'un réseau de neurones durant laquelle le comportement du réseau est

88
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

modifié jusqu'à obtention du comportement désiré. L'apprentissage neuronal fait appel à des
exemples.

2.2.3.1 Notion générale


La notion d’apprentissage est claire et intuitive pour les humains ou les animaux: c’est
une procédure cognitive qui doit faire en sorte que l’individu réalise, de manière autonome,
une tâche donnée Typiquement, cette procédure s’effectue à partir d’exemples: ainsi, pour
apprendre à lire à un enfant, on lui présente des exemples de lettres et de chiffres, écrits avec
des écritures et des fontes différentes. À la fin de l’apprentissage, on attend de l’enfant qu’il
soit capable de lire non seulement tous les chiffres et lettres de son livre de lecture, mais
également tous les chiffres et lettres qu’il est susceptible de voir. En d’autres termes, on attend
de lui qu’il ait une capacité de généralisation à partir des exemples qui lui ont été présentés,
sans qu’il ne soit jamais nécessaire de lui fournir une description analytique et discursive de la
forme et de la topologie des chiffres et des lettres (Dreyfus 2004, p2).

L’apprentissage numérique poursuit exactement le même objectif: il s’agit de faire en


sorte, à l’aide d’une procédure numérique programmée et exécutée sur un ordinateur, d’inférer
un modèle d’un processus que l’on observe et sur lequel on peut effectuer des mesures, c’est-
à-dire un ensemble d’équations qui décrivent le processus observé et qui permettent de faire
des prédictions concernant le comportement de celui-ci. L’apprentissage est un algorithme qui
permet d’ajuster ces paramètres.

On n’a aucune idée a priori sur le modèle : on choisit une forme d’équation aussi
générale que possible, et l’on ajuste les paramètres de cette équation de manière à lui conférer
la meilleure capacité de généralisation possible. On ne s’intéresse pas particulièrement aux
valeurs de ces paramètres mais on s’intéresse à la capacité de généralisation du modèle.
Autrement dit, on cherche à estimer la qualité des prédictions que le modèle peut effectuer
dans des situations qu’il n’a pas rencontrées dans l’apprentissage.

89
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

2.2.3.2 Les règles d’apprentissage


Il existe deux types d’apprentissage : l’apprentissage non supervisé et l’apprentissage
supervisé.

 L’apprentissage non supervisé


Il est utilisé lorsque on n’est pas en mesure de présenter au système un échantillon
mettant en regard une quantité d’information, et la forme qu’elle est censée représenter
(Paquet, 1997). Par conséquent, le réseau s’auto organise, comme c’est le cas pour
l’algorithme de Kohonen, en vue d’être capable de découvrir la forme à partir des
données fournies et sans aide extérieure.

 L’apprentissage supervisé
Il consiste en l’existence d’un échantillon sur lequel le réseau apprend (s’entraîne) à
reconnaître les formes (figure 3.4). On connaît donc, en tous points ou seulement en
certains points, les valeurs que doit avoir la sortie du réseau en fonction des entrées
correspondantes : c’est en ce sens que l’apprentissage est dit supervisé. Ce qui signifie
qu’un « professeur» peut fournir au réseau des « exemples » de ce que celui-ci doit
faire. Cette technique s’opère à l’aide de l’algorithme de rétropropagation du gradient
présenté ci-après.

Figure 3.4 : Evolution des courbes d’erreur durant la phase d’apprentissage.


Erreur

Echantillon
de validation

Echantillon
d’apprentissage

Nombre
d’itérations
Nombre d’itérations donnant la meilleure
performance en généralisation

Source : Paquet 1997b, p89.

90
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

 L’algorithme de rétropropagation du gradient (Lemberg 1994, p212).

N neurones en entrée, M en sortie, Nk le nombre de neurones de la couche cachée n°k


1 - Initialiser toutes les connexions Wij aléatoirement.
2 - Présenter une forme (x1, x2, ... , xN) en entrée et la sortie souhaitée (s1, s2, ... , sM).
3 - Calculer les sorties de chacun des neurones des couches cachées et de la couche de sortie.
Pour la première couche :
N
x  f ( wij (t ) xj  j )
1
j i  j  N1
i 1

Pour la seconde couche :


N1
x  f ( wij (t ) xj   j )
2
j i  j  N2
i 1

etc., θj,  j seuils des neurones et la fonction f étant une fonction de transfert sigmoïde.
4 - Modifier les connexions, récursivement.
Wij représente la connexion la connexion entre le neurone i et le neurone j, xi représente la sortie
du neurone i.
Wij (t 1)  Wij (t )  .j.xj
 j  xj (1  xj )(sj  xj ) si les (x1, x2, ... , xM) sont les sorties des neurones de la
couche de sortie.
 j  xj (1  xj ) p.Wjp La somme se fait sur tous les neurones de la couche
p
supérieure connectés au neurone j.
  est le coefficient d’apprentissage.

5 – Revenir à 2 jusqu’à stabilisation du système.

En résumé, quelque soit le type d’apprentissage, le réseau de neurones se paramètre à


partir de l’échantillon d’apprentissage3. Autrement dit, l’algorithme d’apprentissage ajuste les

3
Les données disponibles doivent être réparties en trois sous-ensembles (apprentissage, validation et test) à
raison de 60%, 30% et 10% respectivement.

91
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

poids synaptiques tout en minimisant une fonction de coût. Cette dernière n’est, en fait, que la
somme des carrés des erreurs produits par le réseau eu égard le résultat souhaité.

3. Les différentes architectures de RNA

Il n'est pas possible d'énumérer l'ensemble des types de réseaux de neurones disponibles
à ce jour. Cependant, à titre illustratif on présente les modèles les plus populaires. Les
chercheurs n'ont cessé d'inventer de nouveaux types de réseaux toujours mieux adaptés à la
recherche de solutions de problèmes particuliers. On présentera trois types de réseaux de
neurones : le perceptron multi couches, les réseaux de HOPFIELD, et les réseaux de KOHONEN.

3.1 Perceptron Multi-Couches (MLP)

Le Perceptron multicouches (Multi Layer Perceptron) est sans doute le plus simple et le
plus connu des réseaux de neurones. La structure est relativement simple : une couche
d'entrée, une couche de sortie et une ou plusieurs couches cachées. Chaque neurone n'est relié
qu'aux neurones des couches précédentes, mais à tous les neurones de la couche précédente.
La fonction d'activation utilisée est en générale une somme pondérée.

Figure 3.5 : Perceptron Multi-Couches

Source: Lebel Fabrice 2006, p6.

92
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Un réseau de neurones non bouclé à n entrées, Nc neurones cachés et NO neurones de


sortie réalise NO fonctions non linéaires de ses n variables d’entrée par composition des Nc
fonctions réalisées par ses neurones cachés (Dreyfus 2004, p5).

3.2 Réseaux de HOPFIELD.

Ces réseaux sont des réseaux bouclés ou récurrents, un peu plus complexes que les
Perceptrons multicouches. Chaque cellule est connectée à toutes les autres et les changements
de valeurs de cellules s'enchaînent en cascade jusqu'à un état stable. Ces réseaux sont bien
adaptés à la reconnaissance de formes. D’après (Dreyfus 2004), la sortie d’un neurone du
réseau peut donc être fonction d’elle-même ; cela n’est évidemment concevable que si la
notion de temps est explicitement prise en considération.

Figure 3.6 : Le réseau de HOPFIELD

Source : Lebel Fabrice 2006, p6

Ce réseau est formé de N neurones ne pouvant envoyer et recevoir que des valeurs
binaires [+1,-1], la fonction de transfert de chaque neurone est une fonction à seuil. Ce réseau
peut être utilisé pour résoudre des problèmes comme celui du voyageur de commerce, où il
s’agit de minimiser la distance parcourue en visitant N villes sans passer deux fois par la
même (Lemberg 71).

93
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

3.3 Les Réseaux de KOHONEN ou cartes auto-organisatrices

D’après (Tuillier 1997, p4), le concept de réseau non supervisé est issu des observations
des neurobiologistes sur la cartographie cérébrale qui s'auto-structure dans les premières
années d'existence de l'être humain. Le réseau artificiel, qui ne comprend pas de couche
cachée, est globalement basé sur le même principe : lorsque l'on présente la base de données
au réseau lors de l'apprentissage, un seul neurone de la couche de sortie est activé par une ou
plusieurs informations d'entrée (pour autant que celles-ci soient suffisamment voisines).

Les neurones de sortie se spécialisent pendant l'apprentissage en reconnaissant certaines


caractéristiques qui leur deviennent spécifiques et des neurones de sortie voisins reconnaissent
des objets d'entrée dont les caractéristiques sont voisines. La couche de sortie une fois
stabilisée après de multiples présentations des données d'entrée constitue donc une carte
ordonnancée unie ou bidimensionnelle de l'ensemble des informations multidimensionnelles
de la base étudiée.

Figure 3.7 : Le réseau de KOHONEN

Source : Tuillier 1997, p5

Cette figure illustre la projection vectorielle effectuée par l'algorithme. La base de


données d'entrée est représentée à gauche de la figure par n vecteurs x k (population
d'entreprises, de logements, de ménages, etc. décrits par un vecteur de k caractéristiques).
La carte de Kohonen, bidimensionnelle dans cette illustration, est située à droite. Les sites
(neurones) de la carte, de dimension 4 x 5 dans la figure mais qui peut être de dimension
quelconque, sont affectés de jeux de poids wij initiaux également de dimension k,
aléatoires (quoique petits) à la première itération.

94
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Les réseaux de KOHONEN dont on parle généralement sans les distinguer, décrivent en
fait trois familles de réseaux de neurones :

 Vector Quantization (VQ) : ils sont basés sur l’apprentissage non supervisé.
Introduite par Grossberg (1976), la quantification vectorielle est une méthode
généralement qualifiée d'estimateur de densité non supervisé. Elle permet de
retrouver des groupes sur un ensemble de données, de façon relativement similaire à
un k-means algorithm que l'on préfèrera d'ailleurs généralement à un VQ si la
simplicité d'implémentation n'est pas un élément majeur de la résolution du
problème.

 Self Organizing Map (SOM) : ils sont basés sur l’apprentissage non supervisé. Les
SOM sont issus des travaux de FAUSETT (1994) et KOHONEN (1995). Ces réseaux
sont très utilisés pour l'analyse de données. Ils permettent de cartographier en deux
dimensions et de distinguer des groupes dans des ensembles de données. Les SOM
sont encore largement utilisés mais les scientifiques leur préfèrent maintenant les
LVQ.

 Learning Vector Quantization (LVQ) : ils sont basés sur l’apprentissage supervisé.
Les réseaux utilisant la méthode LVQ ont été proposés par Kohonen (1988).

Des trois types de réseaux présentés ici, la LVQ est la seule méthode qui soit réellement
adaptée à la classification de données par "recherche du plus proche voisin".

95
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

4. Les étapes de mise en œuvre d'un réseau de neurones artificiel

En général, la conception d'un modèle passe par deux étapes bien distinctes. La première
est le choix d'un type de modèle, plus précisément d'une structure de modèle, ce qui revient à
fixer la relation mathématique qui va être utilisée comme modèle, y compris le nombre de ses
paramètres. La seconde étape s'appelle l'apprentissage, et fait l'objet de très nombreux travaux
de recherches. Chaque modèle (perceptron multi-couches, réseaux à fonctions radiales de
base, etc.) est connu avec son ou ses algorithmes d'apprentissage, plus ou moins complexes,
destinés à estimer au mieux les paramètres du modèle. Même si de nombreux travaux de
recherches perdureront encore longtemps en vue d'améliorer les performances des algorithmes
d'apprentissage, des solutions satisfaisantes existent dans de nombreux cas (Verleysen M.,
Lendasse A. 2003).

La première chose à faire n'est pas de choisir le type de réseau mais de bien choisir ses
échantillons de données d'apprentissage, de tests et validation. Ce n'est qu'ensuite que le choix
du type de réseau interviendra.

Afin de clarifier un peu les idées, voici chronologiquement les quatre grandes étapes qui
doivent guider la création d'un réseau de neurones :

 Choix et préparation des échantillons : le processus d'élaboration d'un réseau de


neurones commence toujours par le choix et la préparation des échantillons de
données. Comme dans les cas d'analyse de données, cette étape est cruciale et va
aider le concepteur à déterminer le type de réseau le plus approprié pour résoudre
sont problème. La façon dont se présente l'échantillon conditionne : le type de réseau,
le nombre de cellules d'entrée, le nombre de cellules de sortie et la façon dont il
faudra mener l'apprentissage, les tests et la validation.

 Elaboration de la structure du réseau : la structure du réseau dépend étroitement


du type des échantillons. Il faut d'abord choisir le type de réseau : un perceptron

96
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

standard, un réseau de Hopfield, un réseau à décalage temporel (TDNN), un réseau


de Kohonen, un ARTMAP etc. Dans le cas du perceptron par exemple, il faudra aussi
choisir le nombre de neurones dans la couche cachée. Plusieurs méthodes existent et
on peut par exemple prendre une moyenne du nombre de neurones d'entrée et de
sortie, mais rien de vaut de tester toutes les possibilités et de choisir celle qui offre les
meilleurs résultats.

 Apprentissage : l'apprentissage consiste tout d'abord à calculer les pondérations


optimales des différentes liaisons, en utilisant un échantillon. La méthode la plus
utilisée est la rétropropagation : on entre des valeurs dans les cellules d'entrée et en
fonction de l'erreur obtenue en sortie (le delta), on corrige les poids accordés aux
pondérations. C'est un cycle qui est répété jusqu'à ce que la courbe d'erreurs du
réseau ne soit croissante (il faut éviter le sur-apprentissage du réseau de neurones qui
deviendra alors moins performant). Il existe d'autres méthodes d'apprentissage.

 Validation et Tests : alors que les tests concernent la vérification des performances
d'un réseau de neurones hors échantillon et sa capacité de généralisation, la validation
est parfois utilisée lors de l'apprentissage. Une fois le réseau calculé, il faut toujours
procéder à des tests afin de vérifier que notre réseau réagit correctement. Il y a
plusieurs méthodes pour effectuer une validation (cf. §1.1.3 du chapitre2) dans le cas
général, une partie de l'échantillon est simplement écarté de l'échantillon
d'apprentissage et conservé pour les tests hors échantillon. Dans les cas de petits
échantillons, on ne peut pas toujours utiliser une telle distinction, simplement parce
qu'il n'est pas toujours possible d'avoir suffisamment de données dans chacun des
groupes ainsi crées. On a alors parfois recours à des procédures comme la validation
croisée pour établir la structure optimale du réseau.

97
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

5. Les domaines d’application des RNA

Les réseaux de neurones sont maintenant une technique de traitement de données bien
comprise et maîtrisée. Ils permettent de faire des prévisions, d’élaborer des modèles, de
reconnaître des formes ou des signaux, etc.

Si cette vérité est largement admise aux États-Unis, au Japon et en Grande-Bretagne,


elle semble plus difficile à faire reconnaître en France, en dépit de la disponibilité
commerciale d'outils logiciels 100 % français d'excellente qualité ; pourtant, de nombreuses
applications sont opérationnelles (Dreyfus 1997, p1).

Par conséquent, la diffusion des réseaux de neurones dans le monde n’est pas
homogène. Leur progression et le nombre d’applications sont plus élevés aux Etats-Unis qu’en
Europe.

Nous essayons, à travers les lectures faites, de situer les domaines qui s’ouvrent aux
applications des réseaux de neurones. Cette liste n’est en aucun cas exhaustive, nous
présentons brièvement, dans un premier temps, les exemples dans divers domaines. Nous nous
intéressons, particulièrement aux applications spécifiques à la finance.

5.1 Les domaines d’application divers


Les domaines « potentiels » d’application des réseaux de neurones sont : le traitement de
signal, la classification et la prédiction. Voici quelques exemples d’applications diverses
inspirées de l’article de (Dreyfus 1997) :

5.1.1 La modélisation non-linéaire de données


 Prédiction des propriétés des molécules organiques en pharmaceutique tel que le
programme « QSAR » (quantitative structure activity relationship).

98
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

 Prédiction des propriétés mécaniques de caoutchoucs pour pneumatiques à partir de


la composition des mélanges utilisés (collaboration Michelin – ESPCI 4).

 Prévision de l’évolution future d’un processus.

 La prédiction des résultats des élections législatives en fonction des sommes


dépensées pendant la campagne électorale réalisée à l'ESPCI.

5.1.2 La détection d'anomalies


 Détection précoce d’anomalies de fonctionnement comme le système réalisé par la
société Netral S.A. pour Elf-Atochem.

 Diagnostic et control d’un procédé de fabrication comme celui réalisé par Sollac
pour le diagnostic de la qualité de soudure par points.

5.1.3 La reconnaissance de formes


 La lecture des codes postaux (centres français de tri postal).

 La lecture automatique des caractères manuscrits. La société A2iA a réalisé un


système neuronal pour la lecture automatique des montants écrits en toutes lettres sur
un chèque. Ce système est en service dans les banques françaises.

5.2 Les domaines d’application en finance


Il nous a paru plus raisonnable de nous limiter aux domaines en relation avec notre
champ de recherche et dans lesquels des travaux ont été effectivement publiés comme le
soulignent (Cottrell M. & al. 1996), (Burrell P.R. & Folarin B.O. 1997), ainsi que (Fadlalla

4
ESPCI : École Supérieure de Physique et de Chimie Industrielles à Paris.

99
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Adam, Lin Chien-Hua 2001)5. Nous avons distingué quatre domaines : le «business
forecasting», la gestion de portefeuille, la prévision de faillite et l’octroi de crédit. Il s’agit de
domaines classiques d’application des méthodes de prévision et de classification les plus
usuelles

5.2.1 Le « Business Forecasting » : les réseaux de neurones artificiels sont utilisés dans
beaucoup de secteurs d’activité. Voici trois applications de prévision : la prévision de
la consommation électrique, la prévision du prix de la farine, et la prévision des résultats
financiers. Cette dernière est bien une application qui relève de la planification financière.

a/ Prévision de la consommation électrique :

– Rajagopalan, Jongepier, van der Sluis (1992) : Les indicateurs utilisés par les
auteurs sont : la prévision de la température minimale et maximale, la prévision de
la vitesse du vent, et la consommation électrique un an auparavant. La base de
données utilisée contient 61 cas pour les mois de mars et avril 1990.

– Dorizzi, Duval, Debar (1992) : Les données utilisées sont les consommations demi
horaires (s’étalant du 01/01/86 au 31/12/91), corrigées par l’élimination des ruptures
importantes et des jours de fêtes. Un certain nombre de données climatiques sont
également utilisées.

– Mangeas, Cottrell, Girard, Girard, Muller (1993): Les données utilisées couvrent
la période 1986-1990. L’année 1991 est utilisée comme jeu de test.

b/ Prévision des résultats financiers


– De Bodt, Oblin (1994) : Trois séries de données sont utilisées par les auteurs. Il
s’agit de résultats opérationnels trimestriels sur cinq ans d’un grand groupe industriel
pour trois secteurs d’activités.

5
L’article présente une étude très intéressante concernant essentiellement la finance.

100
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

c/ Prévision du prix de la farine


– Chakraborty, Mehrotra, Mohan, Ranka (1992) : Les auteurs travaillent sur
l’évolution du prix de la farine dans trois villes américaines. Le jeu d’apprentissage
reprend 90 données pour chaque série.

5.2.2 La gestion de portefeuille : Les marchés financiers ont constitué, ces dernières années,
le domaine d’application en finance pour les réseaux de neurones et ce pour deux
raisons au moins. La première est la disponibilité d’un grand nombre de données, ce qui
conduit naturellement à un archivage systématique des transactions, prix, volumes et
autres informations utiles. La seconde est l’espoir de gains importants et rapides par
l’utilisation d’une « technologie révolutionnaire » associée aux importants moyens
modernes de calcul.

a/ “Trading” sur contrats à terme


– Collard (1991) : Le réseau de neurones est utilisé pour générer des ordres d’achat et
de vente d’un contrat à terme.

– Trippi, DeSieno (1992) :“Trading” de contrats à terme sur indices boursier. Le


système réalise des opérations d’achat et de vente sur des contrats à terme sur
l’indice S&P500.

– Grudnitski, Osburn (1993) : Prévision du prix de contrats à terme sur le S&P et


l’or. Les données utilisées portent sur la période 1982-1990. Elles reprennent des
indicateurs comme le taux de croissance mensuel de la masse monétaire, l’évolution
de la volatilité des prix du S&P et de l’or, l’engagement net en fin de mois des
grands spéculateurs, etc.

b/ Sélection d’actions
– Swales, Yoon (1992) : Les données utilisées sont de nature qualitative et
proviennent essentiellement d’une analyse de contenu de la lettre annuelle du

101
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

président aux actionnaires. L’étude porte sur deux ensembles constitués de 98


entreprises.

– Kryzanowski, Galler, Wright (1993) : Les données portent sur le compte de


résultats et le bilan de 120 entreprises cotées en bourse. Une période de six années
est couverte (de 1984 à 1989).

c/ Le “Rating” des obligations


– Moody, Utans (1992) : Les auteurs utilisent 10 ratios financiers qui décrivent la
situation de l’entreprise pour tenter de prédire le “rating” des obligations. Le nombre
d’entreprises traitées et la période couverte ne sont pas précisés.

d/ “Pricing” de produits dérivés


– Hutchinson, Lo, Poggio (1994) : Pour cela, les auteurs utilisent des échantillons de
données simulées de près de 6000 prix. Les données utilisées portent sur une période
de 5 années (de 1987 à 1991) et sont constituées des prix de fermeture des contrats à
terme sur le S&P500 et des options sur ce contrat.

e/ Prévision des taux de change


– Refenes, Azema-Barac (1994) : des données horaires ont été recueillies durant une
période allant de 1988 à 1989 (soit 260 jours dont 200 sont utilisés pour
l’apprentissage et 60 pour les tests). Une seconde application utilise des données
journalières s’étalant de 1984 à 1986.

– Azoff (1994) : Prévision de contrats à terme sur le taux de change entre le dollar
américain et la livre sterling.

5.2.3 La prévision de faillite et l’octroi de crédit : Le parcours des applications portant sur la
prévision de faillite et l’octroi de crédit nous a conduit à grouper la présentation de ces
deux domaines d’application. Les méthodes utilisées sont en effet fort semblables et

102
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

séparer les deux domaines aurait inévitablement conduit à des répétitions inutiles. Voici
quelques exemples d’applications :

a/ Prévision de faillite :
– Coats et Fant (1992) : Les données proviennent de la base de données
COMPUSTAT. L’étude concerne 188 entreprises dont 94 entreprises identifiées
comme malsaines.

– Tam et Kiang (1992) : Echantillon composé de 118 banques du Texas dont 59 ont
fait faillite et 59 étaient saines. Chaque paire a été constituée en tenant compte de la
taille de la banque, du nombre de succursales, de l’âge et de son statut. Les données
ont été collectées sur deux années (un an et deux ans avant la faillite). 19 ratios ont
été calculés pour chaque banque et regroupés en 5 catégories.

– Wilson et Sharda (1994) : Echantillon composé de 129 entreprises dont 65 ont fait
faillite et 64 sont saines. Les données ont été prises sur la période 1975-1982. Elles
ont été sélectionnées à partir des “Moody’s Industrial Manuals”.

– Altman, Marco et Varetto (1994) : Les données utilisées proviennent de la


Centrale des Bilans italiennes. Différents échantillons ont été utilisés. Ils portent sur
plus de 1000 entreprises et distinguent trois catégories : les entreprises saines, les
entreprises qui ont fait faillite et les entreprises vulnérables

b / Octroi de crédit :
– Madey and Denton (1990) : 300 dossiers de décision d’octroi de crédit étudiés par
une filiale d’un grand groupe pétrolier.

– Reilly, Collins, Scofield and Ghosh (1990): 1602 prêts hypothécaires accordés
durant les années 1984, 1985 et 1986. L’état des remboursements a été évalué à fin
1987 afin de classer les prêts en deux catégories.

103
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

– Smith (1990) : Le système est opérationnel depuis 1988. Sa mise en place a permis
un accroissement de 18% des profits de l’entreprise utilisatrice par rapport aux
performances des systèmes classiques (fondés sur des modèles d’analyse
discriminante).

104
Chapitre 3 : Les Réseaux de neurones artificiels (R.N.A)

Conclusion

Après avoir mis en avant les concepts théoriques de base se rapportant aux réseaux de
neurones artificiels, ainsi que les conditions de leur mise en œuvre. Nous avons remarqué à
travers le survol des domaines d’application, que la prévision est le champ d’études privilégié
des RNA. C’est dans cette optique que nous allons mettre en pratique ses fondements à travers
une étude empirique touchant un problème crucial de la finance bancaire qui est l’évaluation
du risque de crédit de défaillance des emprunteurs.

105
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Le fait scientifique est conquis (sur les


préjugés), construit (par la raison) et constaté
(dans les faits). BACHELARD G.

Chapitre 4 : Elaboration du modèle paramétrique


(ADL) et du modèle neuronal

Introduction

Comme nous l’avons déjà mentionne dans l'introduction, le but de cette recherche est
de développer un modèle de risque de crédit pour la prévision de la défaillance des petites et
moyennes entreprises algérienne à l’aide de certaines de leurs caractéristiques.

Deux techniques ont été utilisées pour développer les modèles. La première technique
est une technique statistique paramétrique très répandue basé sur l’analyse discriminante et la
deuxième est une approche neuronale issue de l’intelligence artificielle. Nous avons eu
recours au logiciel SPSS 10 (Statistical Package for Social Science) pour mettre en œuvre la
technique de l’ADL et la programmation à l’aide de MATLAB 7.0 (Matrix Laboratory : the
language of technical computing) pour la technique neuronale.

Nous avons présenté en détail, dans ce qui précède, les principes et la méthodologie de
chacune des deux méthodes pour l’évaluation du risque de défaillance.

Ce chapitre constitue le noyau de notre recherche, il reprend l’ensemble des


méthodologies utilisées et résume la démarche empirique adoptée dans le cadre de la
recherche. Le but de celle-ci est d’élaborer, d’abord, les deux modèles (scoring et réseaux de
neurones artificiels) et de procéder à la comparaison de leurs résultats.

106
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Pour ce faire, le chapitre présente d’abord l’échantillon expérimental qui comporte la


présentation de la base de données, les critères de classement et les indicateurs de sélection.
Une analyse statistique de l’échantillon de travail est ensuite présentée. On passe ensuite à
l’élaboration du modèle de scoring à l’aide de l’analyse discriminante linéaire avec la
présentation des étapes de construction et la présentation des résultats de classements. L’étape
suivante est consacrée à la conception de deux modèles neuronaux avec le choix des
paramètres adéquats et la discussion de leurs résultats. Une Comparaison des résultats des
trois modèles élaborés (ADL, le réseau de neurones n°1 et le réseau de neurones n°2) est
synthétisée. Le chapitre se termine par la présentation des avantages et des limites de
l’approche neuronale.

107
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

1. Présentation des données de l’échantillon expérimental

Nous nous intéressons à ce niveau à la démarche empirique adoptée dans le cadre de


l’analyse des variables. Notre démarche de collecte de données comporte plusieurs étapes : le
choix de la base de données, le choix du critère de classement et le choix des indicateurs de
classement.
Afin de se faire une idée sur la structure des données utilisées, on procède d’abord à une étude
statistique et descriptive de ces données.

Nous allons donc présenter les différents éléments relatifs à l’échantillon expérimental
et ses caractéristiques statistiques. En particulier :
- La base de données utilisée
- Le critère de classement.
- La description des variables utilisées.

1.1 La base de données


La base de données définit la population ciblée. L’idéale aurait été de définir un
échantillon à partir d’une population mère, mais nous avons adopté une démarche purement
empirique en collectant (dans la mesure du possible) … Celle-ci est constituée d’entreprises
privées de petite et moyenne taille domiciliées à une banque publique algérienne au niveau de
plusieurs agences à travers le territoire national. Ces agences sont gérées par une direction
centrale située à Alger. Ces entreprises ont bénéficié d’un nouveau concours ou d’un
renouvellement de crédit d’exploitation au cours de la période 2002-2007.

Nous avons pu recueillir un échantillon de 209 entreprises provenant de secteurs


d’activités différents. Il y a lieu de signaler que tous les dossiers contenant des irrégularités ou
des manques en matière de documentations comptables ou fiscales ont été éliminés.
La répartition sectorielle de l’échantillon expérimental est la suivante :
- 75 entreprises du secteur bâtiment et travaux publiques.
- 35 entreprises du secteur de services.
- 99 entreprises du secteur industriel.

108
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

1.2 Définition des critères de classement


Les entreprises de la base de données sélectionnés sont réparties sur des classes selon
un critère de défaillance définit par la réglementation en vigueur au sein de la banque
d’Algérie1 (cf. chap1 paragraphe 4). Ainsi, la banque distingue deux groupes : les créances
saines et les créances classées :
- Les créances courantes (Saines)
- Les créances classées : elles regroupent trois catégories
- Les créances à problèmes potentiels- Les créances très risquées.
- Les créances compromises.

De cette répartition résulte quatre classes :


1. Les entreprises saines : cette classe contient les entreprises qui ne présentent pas de
problème de remboursement et qui ont pu rembourser les crédits consentis de
manière régulière et ponctuelle, en respectant les échéances;

2. Les entreprises à problèmes potentiels : cette classe contient les entreprises dont le
recouvrement intégral, en dépit d’un retard qui reste raisonnable, parait encore
assuré. Ces entreprises ont des difficultés de remboursement des intérêts et / ou du
principal depuis plus de trois (03) mois dont le retard est inférieur à six (06) mois ;

3. Les entreprises très risquées : cette classe contient les entreprises dont le
recouvrement intégral parait très incertain, et dont la situation financière laisse
entrevoir des pertes probables. Les retards dans le paiement des intérêts ou du
principal échus se situent entre six (06) mois et un (01) an ;

4. Les entreprises compromises : cette classe contient les entreprises défaillantes qui
n’ont pas pu honorer leurs engagements envers la banque.

1. Article 9 de l’instruction N° 34-91 du 14 novembre 1991 relative à la fixation des règles prudentielles de
gestion des banques et établissements financiers.

109
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

La répartition de l’échantillon de l’étude est résumée dans le tableau ci-après :

Tableau 4.1 : Répartition de l’échantillon global par classe


Pourcentage
Catégorie d’entreprises Classes Echantillon
Saines 1 88 42,1 %
A problèmes potentiels 2 44 21,1 %
Très risquées 3 47 22,5 %
compromises 4 30 14,3 %
Total 209 100 %

On remarque la prudence de la banque dans la proportion élevée de la première classe


(42,1%).

1.3 Sélection des indicateurs


Pour les besoins de l’étude, nous avons collecté (dans la mesure du possible) les
variables susceptibles de refléter la véritable situation financière de l’entreprise demandant un
crédit d’exploitation.

Le risque de défaillance peut se traduire dans la structure de l’entreprise ce qui nous


conduit à analyser les éléments du bilan. Ce risque peut aussi apparaître dans l’exploitation ce
qui amène à analyser le compte de résultats.

D’une part, on dispose des bilans des entreprises qui peuvent être examinés sur les
années passées2. D’autre part, on dispose d’information sur les ouvertures de procédures
judiciaires, notamment les dates de ces dernières.

Dans ce sens nous avons pu extraire deux types de variables :


- Variables extracomptables.
- Variables comptables.

2. Pour une demande de crédit, les banques exigent les bilans des trois dernières années

110
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

1.3.1 Les variables extracomptables


Ce sont des variables qualitatives. Notre base de données contient les indicateurs
suivants :
1- Bâtiment et travaux publics.
1- Le secteur d’activité 2- Services.
3- Industrie.

1- Société par action SPA.


2- Le statut juridique 2- Société à responsabilité limitée SARL.
3- Entreprise unitaire à responsabilité limitée EURL.
4- Société en nom collectif SNC.

1- Entreprises dont l’âge se situe entre [1 – 5[ ans.


3- L’âge 2- Entreprises dont l’âge se situe entre [5 – 10[ ans.
3- Entreprises dont l’âge se situe entre [10 – 15[ ans.
4- Entreprises dont l’âge se situe entre [15 – 20[ ans.
5- Entreprises dont l’âge est plus de 20 ans.

4- La nature de demande de crédit 1- Renouvellement de demande de crédit.


0- Nouvelle demande de crédit.

5- La localité géographique 1- Alger.


0- Autre.

1.3.2 Les variables comptables


Les variables comptables utilisées sont des ratios comptables calculés à partir des
bilans financiers des clients et des comptes de résultats. Ces ratios ont été sélectionnés parmi
quatre catégories de ratios, à savoir :
- Les ratios de structure et d’équilibre financier ;
- Les ratios d’activité et de gestion ;
- Les ratios de rentabilité ;
- Les ratios de liquidité.

111
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Les variables quantitatives retenues sont constituées d’une batterie de 17 ratios


comptables décrits ci-dessous :

Tableau 4.2 : Liste des ratios financiers et leurs types.


Ratios Formule Interprétations
R1 Actif circulant/Dettes à court terme Il mesure la capacité de l’entreprise à payer ses dettes à
court termes à l’aide de son actif.
R2 Total dettes/Total bilan Il éclaire la capacité d’emprunt de l’entreprise.

R3 Fond de roulement/Actif circulant Couverture de l’actif par le FR. il indique la part de la


couverture de l’actif circulant.
R4 Fond de roulement/Besoins en fond de Il mesure le degré de couverture du BFR par le FR.
roulement
R5 Frais financiers /Excédent brut Il mesure le poids de l’endettement de l’entreprise.
d’exploitation
R6 Dettes à long et moyen terme/Capacité Il permet de connaitre le nombre d’années nécessaires
d’autofinancement au CAF pour rembourser les dettes.
R7 Capitaux permanents/Immobilisations Il mesure la couverture des emplois stables par les
ressources stables.
R8 Dettes à long et moyen terme/Capitaux Il indique la capacité d’autofinancement pour
permanents rembourser les dettes à long et moyen terme.
R9 Fond propre/Total bilan Il mesure le degré d’indépendance financière de
l’entreprise
R10 Chiffre d’affaires (hors taxes)/Actif total Il mesure la rotation de l’actif.

R11 Excédent brut d’exploitation/chiffre Il mesure l’efficacité de commercialisation et de


d’affaire (hors taxes) production de l’entreprise.
R12 Frais financiers/Chiffre d’affaire (hors Il indique l’importance des intérêts payés aux créanciers
taxes) (banques, fournisseurs,) par rapport au CA.
R13 Dettes à long et moyens terme/Fond Il exprime l’endettement de l’entreprise.
propre
R14 Résultat net/Fond propre Il mesure l’aptitude à rentabiliser les fonds apportés par
les associés.
R15 Disponibilité/Dettes à court terme Il mesure la capacité de l’entreprise à payer ses dettes à
court termes à l’aide des disponibilités.
R16 Fond propre/Total dettes Il exprime le degré d’indépendance vis-à-vis de ses
créanciers prêtant à long terme.
R17 Valeur ajoutée/Chiffre d’affaire (hors Il mesure le taux d’intégration dans le processus de
taxe) production et le poids des charges externes.

112
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

2. Description de l’échantillon expérimental

Il est utile de procéder à une étude descriptive élémentaire de l’échantillon de travail


afin de relever certaines caractéristiques de variables retenues.

2.1 Description statistique de l’échantillon expérimental

2.1.1 Selon le secteur d’activité


La répartition des entreprises de notre échantillon selon leur secteur d’activité peut être
résumée dans le tableau et le graphique suivant :

Tableau 4.3 : La répartition des entreprises selon le secteur d’activité


Secteur d'activité Bâtiment Services Industrie Total

Nombre d'entreprises 75 35 99 209


35,89% 16,75% 47,37% 100%

On remarque d’après le graphique qu’une grande part du portefeuille de la banque est


destinée à l’industrie suivie du bâtiment, le secteur service ne constitue que 17% du
financement des projets.

2.1.2 Selon le statut juridique


Les entreprises de notre échantillon prennent une des formes juridiques suivantes : SPA,
SARL, EURL et SNC. Le tableau suivant résume cette répartition :

113
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Tableau 4.4 : La répartition des entreprises selon le statut juridique

Statut juridique SPA SARL EURL SNC Total

Nombre d'entreprises 35 116 46 12 209


16,75% 55,50% 22,01% 6% 100%

Le graphique montre que plus de la moitié des clients sont des sociétés à responsabilité
limitée suivis par les EURL qui occupent presque le quart des relations de la banque.

2.1.3 Selon la localité géographique


La répartition des entreprises de notre échantillon selon leur localité géographique peut
être résumée dans le tableau et le graphique suivant :

Tableau 4.5 : La répartition des entreprises selon la localité géographique

Localité géographique Alger Autre Total

Nombre d'entreprises 47 162 209


22,49% 77,51% 100%

Le graphique montre que plus des ¾ des entreprises clientes se situent hors Alger. Ceci
peut s’expliquer par l’encouragement des projets à travers le territoire national.

114
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

2.1.4 Selon la catégorie d’âge


Notre échantillon contient les entreprises réparties selon leur âge comme suit :

Tableau 4.6 : La répartition des entreprises selon l’âge


Catégorie d'âge [1 - 5[ ans [5 - 10[ ans [10 - 15[ ans [15 - 20[ ans + 20 ans Total

Nombre d'entreprises 108 67 12 6 16 209


51,67% 32,06% 5,74% 2,87% 7,66% 100%

Le graphique indique que la banque finance les jeunes entreprises (ne dépassant pas
cinq ans) pour encourager les nouveaux projets et ainsi faire face à la concurrence.

2.1.5 Selon la nature de la demande


Cette description est résumée par le tableau et le schéma suivant :

Tableau 4.7 : La répartition des entreprises selon la demande


Nature de la demande Nouveau crédit Renouvellement Total
Nombre d'entreprises 87 122 209
41,63% 58,37% 100%

115
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

D’après le graphique, on déduit que la banque favorise le renouvellement des anciens


clients, c’est une mesure de prudence.

2.2 Analyse de l’échantillon expérimental


L’objectif de cette analyse est d’étudier la relation entre les variables explicatives
retenues et la classe de risque.
La dépendance entre le critère de défaillance et les variables qualitatives est réalisée à
l’aide de l’analyse de contingence. Dans le cas des variables quantitatives l’analyse se fait sur
la base des tests de moyennes.

2.2.1. Analyse de contingence


L’analyse des variables qualitatives s’effectue en utilisant la statistique du khi-deux qui
mesure l’indépendance entre deux variables qualitatives. La statistique du khi-deux d’écart à
l’indépendance est définie comme suit :
2
 nn 
 nij  i i 
 c2   
N 
  ( p  1)( k  1) 
2

ni n j
N

Où :
nij : la fréquence réelle dans la i me ligne et la j me colonne.
nij/N : la fréquence prévue dans la i me ligne et la j me colonne.
P : le nombre de lignes.
k : le nombre de colonnes.

Le test d’hypothèse, au seuil de confiance α, est donné par :


H0 : indépendance entre deux variables qualitatives
H1 : dépendance entre deux variables qualitatives
On rejette H0 si  c  2 ( p  1)(k  1)
On accepte H0 si c  2 ( p  1)(k  1)

En pratique, cette analyse a été menée en utilisant les tableaux croisés à l’aide SPSS et
les statistiques y afférents (Khi-deux, coefficients de contingence etc.).

116
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

2.2.1.1. Analyse de la classe de risque en fonction du secteur d’activité

Tableau 4.8 : la classe de risque en fonction du secteur d’activité


Secteur BTP Service Industrie Total
Classe 1 36 48% 17 49% 35 35% 88
Classe 2 17 23% 6 17% 21 21% 44
Classe 3 15 20% 9 26% 23 23% 47
Classe 4 7 9% 3 9% 20 20% 30
Total 75 35,89% 35 16,75% 99 47,37% 209

Le tableau indique que les clients exerçant dans le domaine de l’industrie ont la
proportion la plus élevée. Cette proportion est répartie de la même manière sur les quatre
classes, ce qui reflète l’indépendance de ces deux variables. Ceci est confirmé par R 2 = 7,25%
et qui est inférieur à 50%.

2.2.1.2. Analyse de la classe de risque en fonction du statut juridique

Tableau 4.9 : la classe de risque en fonction du statut juridique


Statut SPA SARL EURL SNC Total
Classe 1 9 25,71% 52 44,83% 21 45,65% 6 50% 88
Classe 2 7 20% 26 22,41% 9 19,57% 2 16,67% 44
Classe 3 9 25,71% 25 21,55% 9 19,57% 4 33,33% 47
Classe 4 10 28,57% 13 11,21% 7 15,22% 0 0% 30
Total 35 16,75% 116 55,50% 46 22,01% 12 5,74% 209

Ce tableau indique la place importante qu’occupent les sociétés à responsabilité limitée


parmi la clientèle de la banque. Cette proportion élevée est remarquée dans les quatre
catégories ce qui prouve l’indépendance du statut juridique et le degré de solvabilité. Cette
indépendance est confirmée par R2 = 11,52% et qui est inférieur à 50%.

117
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

2.2.1.3 Analyse de la classe de risque en fonction de la localité géographique


Tableau 4.10 : la classe de risque en fonction de la localité géographique
Localité Autre Alger Total
Classe 1 76 46,91% 12 25,53% 88
Classe 2 30 18,52% 14 29,79% 44
Classe 3 32 19,75% 15 31,91% 47
Classe 4 24 14,81% 6 12,77% 30
Total 162 77,51% 47 22,49% 209

Le calcul de R2 a donné une valeur de 8,65% qui est nettement inférieure à 50% ce qui
implique une indépendance entre l’âge et le degré de solvabilité.

2.2.1.4 Analyse de la classe de risque en fonction de la catégorie d’âge


Tableau 4.11 : la classe de risque en fonction de l’âge
Catégorie âge [1 - 5[ [5 - 10[ [10 - 15[ [15 - 20[ + 20 ans Total
Classe 1 50 46,30% 21 31,34% 5 41,67% 2 33,33% 10 62,50% 88
Classe 2 18 16,67% 19 28,36% 2 16,67% 2 33,33% 3 18,75% 44
Classe 3 28 25,93% 13 19,40% 1 8,33% 2 33,33% 3 18,75% 47
Classe 4 12 11,11% 14 20,90% 4 33,33% 0 0% 0 0% 30
Total 108 51,67% 67 32,06% 12 5,74% 6 2,87% 16 7,66% 209

Le calcul de R2 a donné une valeur de 17,86% qui est nettement inférieure à 50% ce qui
implique une indépendance entre l’âge et le degré de solvabilité.

2.2.1.5 Analyse de la classe de risque en fonction de la nature de la demande


Tableau 4.12 : la classe de risque en fonction de la nature de la demande
Nature de la demande Nouveau crédit Renouvellement Total
Classe 1 28 32,18% 60 49,18% 88
Classe 2 15 17,24% 29 23,77% 44
Classe 3 27 31,03% 20 16,39% 47
Classe 4 17 19,54% 13 10,66% 30
Total 87 41,63% 122 58,37% 209

118
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Le tableau fait ressortir que la proportion est presque égale et que la banque accorde des
crédits aux deux catégories de clients : nouveaux ou anciens. Ceci justifie l’indépendance de
type de demande avec le degré de solvabilité. Ceci est confirmé par R2 = 12,14% et qui est
inférieur à 50%.

2.2.2 Comparaison des moyennes


En faisant usage du TEST-T, nous avons testé l’égalité des moyennes de certaines
variables pour connaître la répartition des entreprises à travers les quatre classes prédéfinit
(Annexe B2). Les résultats des tests effectués révèlent qu’aucune différence significative n’a
été trouvée entre les classes d’emprunteurs sur les variables suivantes : R1, R11, R14 et R16.
Par contre, il y a une différence significative entre les classes d’emprunteurs sur les
autres variables. Ce constat ne veut nécessairement pas dire que ces variables ne contribuent
pas à la distinction entre les différentes classes de risques.

3. Elaboration du modèle de Scoring à l’aide de l’ADL

L’analyse discriminante généralise à plusieurs descripteurs quantitatifs (soit p variables


explicatives) la question à laquelle l’analyse de la variance permet de répondre : comment à
partir des valeurs d’une variable quantitative prédire le classement des observations parmi k
groupes distincts (Desbois 2003, p28).

Comme déjà présenté dans le chapitre 2 paragraphe 4, le principe de l’analyse


discriminante linéaire est de former des combinaisons linéaires des variables explicatives
permettant d’affecter les individus à leur groupe d’origine avec un minimum d’erreur de
classement.

L’échantillon global doit être divisé en deux échantillons : échantillon de construction


(80%) et l’échantillon de validation ou test (20%)

119
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Tableau 4.3.1 : Répartition de l’échantillon global


Classe d’entreprise Echantillon de Echantillon de Total
construction validation
1 (Saine) 70 18 88
2 (A pb. potentiel) 35 9 44
3 (Très risquée) 37 10 47
4 (Compromise) 24 6 30
Total 166 43 209

L’analyse discriminante se déroule en quatre (04) étapes :


1- Vérification de l’existence de différence entre les groupes ;
2- Vérification de la validité du modèle;
3- Construction de la fonction score ;
4- Vérification de la performance du modèle;

3.1 Vérification de l’existence de différence entre les groupes


Ce test permet de vérifier s’il existe réellement des groupes distincts. Cette vérification
se fait à l’aide de l’un des deux indicateurs suivants :
 La statistique des groupes sous SPSS qui donne la moyenne et la variance (Voir
annexe B0) ;

 Le test du F et le Lambda de Wilks s’observe dans le tableau « test d’égalité des


moyennes de groupes » suivant :

120
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Tableau 4.3.1.1: Tests d'égalité des moyennes des groupes

Lambda
de Wilks F ddl1 ddl2 Signification
R1 ,984 ,857 3 163 ,465
R2 ,619 33,496 3 163 ,000
R3 ,391 84,736 3 163 ,000
R4 ,934 3,851 3 163 ,011
R5 ,949 2,933 3 163 ,035
R6 ,940 3,447 3 163 ,018
R7 ,946 3,111 3 163 ,028
R8 ,623 32,938 3 163 ,000
R9 ,949 2,898 3 163 ,037
R10 ,950 2,869 3 163 ,038
R11 ,981 1,057 3 163 ,369
R12 ,967 1,869 3 163 ,137
R13 ,945 3,178 3 163 ,026
R14 ,943 3,302 3 163 ,022
R15 ,958 2,399 3 163 ,070
R16 ,981 1,076 3 163 ,361
R17 ,981 1,039 3 163 ,377
STAT ,978 1,206 3 163 ,309
SECT ,971 1,612 3 163 ,189
NAT ,940 3,458 3 163 ,018
CAT_AGE ,993 ,408 3 163 ,747
LOC ,968 1,798 3 163 ,150

Source SPSS

Ainsi, on obtient des valeurs significatives (risque α<0.0005) pour les valeurs de
F=32.55, F=84.16 et F=32.74. L’hypothèse nulle d’égalité des moyennes des différents
groupes d’entreprise pour les variables R2, R3 et R8 est rejetée.
Etant donné que ces variables sont les plus discriminantes, l’existence des groupes est donc
justifiée.

3.2 Vérification de la validité du modèle


Ce test permet de valider la fonction de score obtenue à l’aide de l’analyse
discriminante linéaire. La validité du modèle se fait à partir des indicateurs suivants :
 Le test de Box ;
 La corrélation canonique globale ;
 Le lambda de Wilks.

121
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

3.2.1 Le test de Box


Ce test mesure l’égalité de matrices de variance-covariance locales. D’après les résultats
du tableau suivant, nous somme conduits à rejeter l’hypothèse nulle d’égalité des matrices
variance-covariance entre les quatre classes. Comme la valeur de F tend vers 0, l’analyse est
donc valide.

Tableau 4.3.1.2 : Résultats du test


M de Box 2304,768
F Approximativement 24,904
ddl1 84
ddl2 27558,002
Signification ,000
Teste l'hypothèse nulle de matrices de
covariance à égales populations.

Source SPSS

3.2.2 La corrélation canonique de l’analyse discriminante


La corrélation canonique mesure la force de l’association entre les scores de
discrimination et le regroupement des observations (les groupes). Elle représente le rapport de
la variance entre les groupes et la variance totale estimée par la fonction discriminante. Le
modèle est validé lorsque cette statistique se rapproche de 1.

Tableau 4.3.1.3: Valeurs propres


% de la Corrélation
Fonction Valeur propre variance % cumulé canonique
1 3,812 a 64,0 64,0 ,890
2 1,522 a 25,6 89,6 ,777
3 ,621 a 10,4 100,0 ,619
a. Les 3 premières fonctions discriminantes canoniques ont
été utilisées pour l'analyse.

Source SPSS

Dans ce cas la corrélation canonique est égale à 0.89 pour la première fonction
discriminante, proche de 0.8 pour la seconde et proche de 0.6 pour la dernière. Donc le test
est vérifié, le modèle est validé.

122
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

3.2.3 Le Lambda de Wilks


Le Lambda de Wilks (Λ) mesure la proportion de la dispersion dans les groupes. Plus la
valeur de Λ est grande, plus grande est la variation entre les groupes en tant que proportion du
total et par conséquent plus faible est le degré d’efficacité de la fonction discriminante à
séparer les groupes. Le modèle est bon lorsque cette statistique (Λ) tend vers 0.

Tableau 4.3.1.4: Lambda de Wilks

Test de la ou Lambda
des fonctions de Wilks Khi-deux ddl Signification
de 1 à 3 ,051 475,168 21 ,000
de 2 à 3 ,245 224,569 12 ,000
3 ,617 77,044 5 ,000

Source SPSS

Dans ce cas, le Lambda de Wilks est significatif pour les trois fonctions. Il est meilleur
pour la première fonction discriminante et égal à Λ1=0.051. Les fonctions sont donc valides.

Les trois tests sont vérifiés. Il s’agit maintenant de construire la fonction score et de
vérifier la performance du modèle.

3.3 Construction de la fonction score


La fonction linéaire discriminante s’écrit comme une moyenne pondérée des variables
explicatives, résumant ainsi en un seul indicateur l’information apportée par les q variables
explicatives sélectionnées parmi les descripteurs : Z   0  1. X 1   2 . X 2  ....   q . X q ;

Dans cette équation similaire à celle de la régression multiple, Z est la variable à


prédire dont les valeurs doivent permettent de distinguer les différents groupes de clients, les
Xj sont les variables explicatives et les α figurent les coefficients à estimer d’après les valeurs
j

observées sur l’échantillon de construction. Les estimations des coefficients aj = ̂ j de cette

équation sont choisies de manière à minimiser les différences interindividuelles au sein de


chaque groupe (groupes homogènes) pour les valeurs de Zh tout en maximisant les
différences entre les groupes (groupes bien séparés).
Si le nombre de groupes est k, on peut construire (k-1) fonctions discriminantes. Dans
notre cas k = 4 et les fonctions sont au nombre de trois. Parmi ces trois fonctions il faudra

123
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

choisir la plus pertinente. Le pouvoir discriminant des axes est donné par le tableau des
coefficients des fonctions discriminantes.

Tableau 4.3.2
Coefficients des fonctions discriminantes canoniques

Fonction
1 2 3
R2 3,609 -2,117 -,454
R3 ,244 ,317 ,035
R8 -,923 ,035 4,033
R11 -,971 ,566 ,157
R12 ,018 ,043 ,005
R15 ,012 -,024 -,030
R16 ,010 ,005 ,003
(Constante) -1,000 -,167 -1,251
Coefficients non standardizes Source: SPSS

D’après le test précédent, seul la première valeur de Lambda de Wilks est significative
avec une probabilité nulle au seuil de risque α=0.05. Il n’y a donc qu’une seule fonction
discriminante (Z) réellement utilisable, à savoir la première. Le tableau 4.3.2 des coefficients
des fonctions discriminantes canoniques nous donne la fonction de score suivante :
Z = 3,586*R2 + 0,246*R3 – 0,919*R8 – 0,964*R11 + 0,18*R12 + 0,12*R15 + 0,10*R16 - 1,024

Les sept ratios retenus par cette fonction sont :


R2 = Total dettes / Total bilan
Ce ratio éclaire la capacité d’emprunt de l’entreprise. En principe, l’endettement à terme ne doit pas
excéder la moitié des capitaux propres. Il constitue, pour le banquier, un élément de sécurité. Pour un
bon équilibre d’entreprise, il est souhaitable que ce ratio ne soit pas inférieur à 1.

R3 = Fond de roulement / Actif circulant


Ce ratio, donne une appréciation sur le taux de couverture des actifs circulants par le fond de
roulement. Il est préférable qu’il soit inférieur à 0.5.

R8 = Dettes à long et moyen terme / Capitaux permanents.


Plus ce ratio est faible plus la protection est grande. Dans le cas ou l’entreprise veut utiliser sa capacité
d’autofinancement pour rembourser ses dettes à long et moyen terme, c’est un bon indicateur. Il
préférable qu’il soit inférieur à 0.5.

R11 = Excédent brut d’exploitation / Chiffre d’affaire (hors taxes).


Il indique la performance de l’entreprise sur le plan industriel et commercial ainsi que son aptitude à
générer des ressources de trésorerie. L’excédent brut d’exploitation doit être supérieur ou égal à 15%
du chiffre d’affaire.

124
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

R12 = Frais financiers / Chiffre d’affaires (hors taxes).


Ce ratio indique l’importance des intérêts payés aux créanciers (banques, fournisseurs,…) par rapport
au chiffre d’affaire. Les frais financiers ne doivent pas excéder les 5% du chiffre d’affaire.

R15 = Disponibilité / Dettes à court terme


Ce ratio mesure la capacité de l’entreprise à payer ses dettes à court termes à l’aide des disponibilités.
Il exprime la liquidité immédiate.

R16 = Fond propre / Total dettes.


Il indique dans quelle mesure l’entreprise travaille avec ses fonds propres et exprime le degré
d’indépendance vis-à-vis de ses créanciers prêtant à long terme. Les banquiers exigent généralement
que ce rapport soit supérieur à 0.5.

Une fois le score calculé, le banquier doit être en mesure de classer l’entreprise dans
l’une des quatre classes (saine, problème potentiel, très risquée ou compromise). Pour cela,
une note limite est calculée pour chaque groupe, afin d’affecter chaque entreprise dans le
groupe adéquat. Ces scores sont calculés à partir du tableau des fonctions aux barycentres des
groupes :

Tableau 4.3.3 : Fonctions aux barycentres des groupes


Fonction
CLASSE 1 2 3
1 ,391 -,768 -,752
2 2,116 1,920 ,185
3 -3,393 ,662 ,243
4 1,004 -1,582 1,549
Fonctions discriminantes canoniques non
standardisées évaluées aux moyennes des groupes Source : SPSS

Les scores discriminants par classe permettent de distinguer la position de chaque


groupe. Ces valeurs représentent des seuils entre chaque classe.

3.4 Vérification de la performance du modèle


L’analyse discriminante conduit généralement à définir une règle de décision. La
mesure de performance de l’outil discriminant est donnée par le taux de bons classements
reposant sur cette règle de décision. La qualité de discrimination est donnée par le taux de
bons classements de l’échantillon de construction (qui doit être élevé) et de l’échantillon test
ou validation (Bardos M. 2001).

125
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

3.4.1 Résultats de classement de l’échantillon de construction


L’élaboration du modèle de l’ADL à l’aide de SPSS et de l’échantillon de construction a
donné les résultats résumés dans le tableau 4.3.4. Le récapitulatif de classement de
l’échantillon de construction est donné par (l’annexe B3).

Tableau 4.3.4 : Résultats du classement


a de l’ech. De construction

Classe(s) d'affectation prévue(s)


CLASSE 1 2 3 4 Total
Original Effectif 1 66 0 0 4 70
2 7 28 0 0 35
3 3 0 34 0 37
4 10 0 0 14 24
% 1 94,3 ,0 ,0 5,7 100,0
2 20,0 80,0 ,0 ,0 100,0
3 8,1 ,0 91,9 ,0 100,0
4 41,7 ,0 ,0 58,3 100,0
a. 85,5% des observations originales classées correctement Source : SPSS.
SOURCE

Le tableau indique que le modèle de l’ADL donne un taux de bon classement global de
85,5% pour l’échantillon de construction :
- Sur les 70 entreprises a priori saines 66 ont été classées saines ;
- Sur les 35 entreprises a priori à pb. potentiels 28 ont été bien classées ;
- Sur les 37 entreprises a priori très risquées 34 ont été classées très risquée ;
- Sur les 24 entreprises a priori compromises 14 ont été classées compromises.
Donc sur 166 entreprises 142 ont été bien classées soit 142/166 = 85,54%. D’où le taux
d’erreur global est de 14,46%

Sur les 70 entreprises classées à priori saines :


- 66 classées saines, soit un taux de bon classement de 94.3%
- 4 classées compromises, soit un taux d’erreur de 5,7%.

Sur les 35 entreprises classées à priori à problème potentiels :


- 28 classées problème potentiel, soit un taux de bon classement de 80%
- 7 classées saines, soit un taux d’erreur de 20%

Sur les 37 entreprises classées a priori très risquées :


- 37 classées très risquées, soit un taux de bon classement de 91,9%
- 3 classées saines, soit un taux d’erreur de 8,1%.

126
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Sur les 24 classées a priori compromises :


- 14 ont été classées compromises soit un taux de bon classement de 58,3%.
- 10 classées saines, soit un taux d’erreur de 41,7%.

Cette fonction discriminante semble performante, les quatre classes ont de bon taux de
classement. Comme tout travail statistique, il reste à élaborer la dernière étape, qui est celle de
la validation du modèle.

3.4.2 Résultats de classement de l’échantillon de validation


Nous avons adopté la méthode de la validation croisée. Etant donné que le logiciel SPSS
10.0 ne donne pas le diagnostic de classement pour l’échantillon de validation, nous avons
utilisé la méthode de la distance géométrique afin d’affecter l’individu à la classe
correspondante. La méthode se résume à l’aide de l’algorithme suivant :

1 – calculer la distance de l’individu i à chaque classe à l’aide de la fonction au barycentre :


Di1 = ‫׀‬Z*i - f1 ‫׀‬ Où Z*i est le score de l’individu i.
Di2 = ‫׀‬Z*i - f2‫׀‬ fj est la fonction au barycentre de la classe j.
Di3 = ‫׀‬Z i - f3‫׀‬
*
Dij est la distance de l’individu i à la classe j.
Di4 = ‫׀‬Z i - f4‫׀‬
*

2 – calculer le minimum des distances : Min = minimum (Di1, Di2, Di3, Di4) ;

3 – Si Min = Di1 alors l’individu i est affecté à la classe 1


Sinon Si Min = Di2 alors l’individu i est affecté à la classe 2
Sinon Si Min = Di3 alors l’individu i est affecté à la classe 3
Sinon l’individu i est affecté à la classe 4
Finsi
Finsi
Finsi
Source : conçu par l‘étudiante et réalisé sous SPSS.

Après exécution de ce programme, nous obtenons les résultats de classement récapitulés


comme suit :

127
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Tableau 4.3.5 : Diagnostic des observations pour l’échantillon de validation

N° N° Classe effective Score Classe prévue


Classe effective Score Classe prévue
1 23
1** -1,45 4 2 -3,70 2
2 24
1 -1,18 1 2 -4,38 2
3 25
1 -0,53 1 2 0,66 2
4 26
1 -1,33 1 2 -4,39 2
5 27
1** -1,77 2 2 -4,39 2
6 28
1 2,80 1 3 -2,42 3
7 29
1 -2,53 1 3 -3,63 3
8 30
1** -3,19 2 3 -1,91 3
9 31
1 -1,76 1 3 -3,63 3
10 32
1 -1,65 1 3 -3,15 3
11 33
1 -6,42 1 3 -4,00 3
12 34 3 -3,01 3
1** -4,32 4
13 35
1 0,66 1 3 -3,42 3
14 36 3 -4,00 3
1 -0,89 1
15 37 3 -3,01 3
1 -3,39 1
16 38
1 -1,44 1 4** -2,10 2
17 39
1 0,20 1 4** -3,18 1
18 40
1 1,46 1 4** -2,15 1
19 41
2** -2,35 3 4** -3,22 1
20 42
2 -3,70 2 4** -2,26 1
21 43
2** -3,07 4 4** 0,55 2
22 ** : observation mal classée
2 -3,70 2

Source : établi par l’étudiant sous SPSS

La synthèse de la phase de validation est résumée dans le tableau suivant :

Tableau 4.3.6 : Résultats de classement de l’échantillon de validation


Classe(s) d’affectation prévue(s)
CLASSE 1 2 3 4 Total
Effectif 1 14 2 0 2 18
2 0 7 1 1 9
3 0 0 10 0 10
4 4 2 0 0 6
% 1 78 11 0 11 100
2 0 78 11 11 100
3 0 0 100 0 100
4 67 33 0 0 100
72% des observations originales classées correctement

128
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Le tableau indique que le modèle de l’ADL donne un taux de bon classement global de
72% pour l’échantillon de validation :

Sur les 18 entreprises classées à priori saines :


- 14 sont bien classées, soit un taux de bon classement de 78%
- 4 sont mal classées, soit un taux d’erreur de 22%.

Sur les 9 entreprises classées à priori à problème potentiels :


- 7 sont bien classées, soit un taux de bon classement de 78%
- 2 sont mal classées, soit un taux d’erreur de 22%.

Sur les 10 entreprises classées à priori très risquées :


- 10 sont classées, soit un taux de bon classement de 100%

Sur les 6 classées à priori compromises :


- 6 sont mal classées, soit un taux d’erreur de 100%.

On remarque alors que l’ADL, nous donne un taux global de bons classements de 72 %,
avec un taux d’erreur de 28 %. Ces taux confirme la fiabilité des résultats obtenus et assure la
robustesse du modèle obtenu.

Nous allons appliquer, dans le paragraphe suivant, une autre méthode d’évaluation du
risque de crédit à savoir la technique des réseaux de neurones artificiels.

129
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

4. Conception et élaboration du modèle neuronal

La méthode de l’ADL utilise des variables linéaires pour construire les fonctions scores,
c'est-à-dire qui constituent des critères monotones. Dans le but d’améliorer ce résultat, on
applique la technique neuronale aux mêmes données. Ceci permettra de prendre en compte la
non linéarité des variables.

Afin d’aboutir au modèle optimum et pour mieux tester la robustesse de réseaux de


neurones, nous allons tenter de construire deux modèles neuronaux :
 Un modèle qui prend en compte toutes les variables décrites auparavant, c’est- à-dire
les 22 variables prises ensembles (réseau n°1).

 Un modèle qui ne prend compte que les variables retenues par l’ADL, c’est-à-dire les
sept ratios uniquement (réseau n°2).

L’échantillon global doit être divisé en trois sous échantillons : échantillon de


construction (60%), l’échantillon test (20%) et l’échantillon de validation (20%).

Tableau 4.4.1 : Répartition de l’échantillon global


Classe Echantillon Echantillon Echantillon Total
d’entreprise construction test validation
1 53 17 18 88
2 26 9 9 44
3 28 9 10 47
4 20 5 5 30
Total 127 40 42 209

4.1 Présentation du réseau neuronal n°1


Nous avons utilisé un réseau de type Perceptron multicouches de type feed-forward
(figure ci-après)

130
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

4.1.1 Caractéristiques du réseau élaboré


Le réseau neuronal possède les caractéristiques suivantes :

Figure 4.1.1 :.Architecture du réseau n°1

Couche d'entrée couche cachée couche de sortie

Classe 1

Classe 2

22 neurones
Classe 3

Classe 4

 Une couche d'entrée constituée de 22 neurones correspondants aux variables


explicatives xi.

 Une couche cachée constituée de N3 neurones. Ce nombre est atteint


progressivement après plusieurs tests sur l'échantillon d'apprentissage jusqu'à
atteindre l'optimum d'apprentissage et de généralisation.

 Une couche de sortie constituée de quatre neurones identifiant la classe


d’appartenance (neurones de décision). Nous avons adopté un codage « un-parmi-
C » appelé aussi «codage grand-mère »4. Son principe est le suivant : si la valeur
me
du j neurone est égale à 1 et les valeurs des autres neurones sont nuls, alors la
forme présentée au réseau est affectée à la classe j.

3
Ce nombre est obtenu en présentant les mêmes exemples au modèle et en modifiant progressivement le
nombre de neurones sur la couche cachée jusqu'à convergence du réseau vers l'erreur désirée.
4
Cette appellation provient de la neurobiologie : une des théories de la représentation des informations dans les
systèmes nerveux soutient que certains de nos neurones sont spécialisés dans la reconnaissance de formes
usuelles, notamment du visage de notre grand-mère (Dreyfus 2004, p36).

131
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

 Deux fonctions d'activation ont été utilisées :


1
- La fonction sigmoïde pour la couche de sortie : g ( x) 
exp( x )  exp(  x)

exp( x)  exp(  x)
- La fonction tangente hyperbolique pour la couche cachée : g ( x) 
exp( x)  exp(  x)

 L'apprentissage d'un tel réseau est supervisé et utilise l'algorithme de


rétropropagation du gradient de l'erreur.

 Pour optimiser la mise en œuvre du réseau on contrôle le choix de plusieurs


paramètres : le paramètre d’apprentissage du réseau  , l’erreur quadratique SSE et
le nombre de neurones de la couche cachée N. pour tous ces choix on utilise la
validation croisée (Bardos M. et Zhu W.H. 1997, p82).

4.1.2 Choix des paramètres

4.1.2.1 Le prétraitement des données


Il est indispensable de procéder à une normalisation de toutes les données d’entrée car la
manière de les présenter au réseau influence considérablement la qualité des résultats.
Autrement dit, si les entrées ont des grandeurs très différentes, celles qui sont petites n’auront
pas d’influence sur l’apprentissage du réseau (Dreyfus G. & al. 2004).
Il existe plusieurs méthodes de normalisation, nous avons utilisé la méthode de remise à
l’échelle qui est la plus utilisée :
x(i )  min x
xn (i) 
max x  min x
xn (i) : vecteur d’une entrée (i) normalisé.
Où x (i) : vecteur d’une entrée (i) brute.
max x : valeur maximale de l’entrée x (i)
min x : valeur minimale de l’entrée x (i)

132
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

4.1.2.2 Le paramètre d’apprentissage 


Ce paramètre influence la qualité et la vitesse de convergence de l’algorithme de
rétropropagation du gradient de l'erreur. Il est choisit de manière à concilier l’optimisation des
poids Wij et les seuils des erreurs. Pour se faire, on choisit plusieurs valeurs de l’erreur SSE
(comprise entre 0,5 et 0,001) et plusieurs valeurs du coefficient  en évitant le sur-
apprentissage c'est-à-dire un taux trop élevé5.

On construit les réseaux correspondants aux différentes valeurs et on retient la valeur


qui maximise le taux de bons classements et minimise l’erreur (tableau ci-après).

Tableau 4.4.2 : Taux de bons classements de l’échantillon test en


fonction du coefficient  et de l’erreur (N=10)

Coefficient  Taux de bons classements Erreur (SSE) Itérations (epochs)


87,80 0,5 22 805
87,80 0,1 39 116
0,70 87,80 0,05 46 692
84,15 0,01 64 910
84,15 0,001 76 720
89,02 0,5 28 162
89,02 0,1 47 617
0,75 89,02 0,05 51 476
89,02 0,01 77 430
84,15 0,001 108 484
89,02 0,5 26 645
89,02 0,1 45 724
0,80
89,02 0,05 54 437
89,02 0,01 75 206
84,15 0,001 105 697
89,02 0,5 24 952
89,02 0,1 42 421
0,85 87,80 0,05 50 435
87,80 0,01 69 515
87,80 0,001 97 830
Source : élaboré par l’étudiante

5
Ce paramètre indiquer la performance du réseau à reconnaitre les formes qui lui sont présentées. Dans le cas
du sur-apprentissage, le réseau ne pourra reconnaitre que les formes similaires ce qui entraine une faible capacité
de généralisation (c’est le cas de l’apprentissage « par cœur »)

133
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Comme indiqué dans le tableau, le meilleur taux de bons classements est 89,02 %. Il
est donné par les valeurs de  = 0,75,  = 0,80 et  = 0,85. La plus petite erreur est 0,01
donnée par  = 0,75 et  = 0,80. Les valeurs qui seront retenues sont :   0,80
SSE = 0,01
Dans ce cas le réseau converge plus vite et réalise le meilleur taux de bons classements.

4.1.2.3 Le nombre de neurones de la couche cachée N


Durant la phase d'apprentissage, un échantillon d'apprentissage ou de construction doit
être présenté au réseau neuronal. La taille de notre échantillon est de 127 (cf. tableau 4.4.1).
Cet échantillon est présenté plusieurs fois au réseau de manière itérative jusqu'à convergence
de l'erreur vers un minimum fixé au préalable.

Le nombre optimal de neurones dans la couche cachée est déterminé en maximisant le


taux de bon classement et en minimisant l’erreur. Les résultats obtenus sont comme suit :

Tableau 4.4.3 : Nombre de neurones de la couche cachée en fonction


du taux de bons classements de l’échantillon test
Nombre de Taux de bons Nombre d’itération
neurones classements (epochs)
1à4 ncv -
5 87,80 130 350
6 84,15 91 270
7 84,15 85 194
8 ncv -
9 86,59 71 939
10 89,02 75 206
11 84,15 57 933
12 85,37 48 737
13 81,71 51 297
14 89,02 54 730
15 82,93 41 869
16 90,24 46 844
17 89,02 41 559
18 à 22 ncv -
ncv : ne converge pas.
Le taux d'apprentissage est fixé à 80 %.
La somme quadratique des erreurs est de 0,01.

134
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Comme indiqué par le tableau, nous avons procédé à 22 tests différents. Le meilleur
taux de classement est donné par N = 16, suivi des réseaux à 17 neurones, 14 neurones et
enfin 10 neurones cachés (voir annexe C1). Ceci est confirmé par les courbes
d’apprentissages suivantes :

Figure 4.1.2 : Courbes d’apprentissages


Courbe d’apprentissage pour N=16 Courbe d’apprentissage pour N=8
(Cas de non convergence)
Performance is 0.00999991, Goal is 0.01 Performance is 2.00068, Goal is 0.01
3 3
10 10

2 2
10 10

1 1
10 10
Training-Blue Goal-Black

Training-Blue Goal-Black
0 0
10 10

-1 -1
10 10

-2 -2
10 10

-3 -3
10 10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
46844 Epochs 4 200000 Epochs 5
x 10 x 10

Source : Résultats fournis par le programme Credit1 développé sous Matlab.

4.1.2.4 Les résultats de validation du réseau n°1


Durant la phase on présente au réseau des exemples non connus et on teste sa capacité
de généralisation et donc sa robustesse de prévision. L’échantillon test et validation (cf.
tableau 4.4.1) contient 82 entreprises réparties comme suit :
- Classe 1 contient 35 entreprises ;
- Classe 2 contient 18 entreprises ;
- Classe 3 contient 19 entreprises ;
- Classe 4 contient 10 entreprises ;

Les résultats obtenus durant la phase de validation sont présentés dans les tableaux
ci-après :

135
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Tableau 4.4.4 : Les résultats de l’échantillon test et validation pour N = 16


Classe 1 Classe 2 Classe 2 Classe 4
Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 0.9348 1 0.9990 1 0.9999 1 0.9999
1* 0.4596 1 1.0000 1 0.9977 1 0.9991
1 0.9813 1 0.9877 1 0.9924 1 0.9228
1 0.9867 1 0.9979 1 0.9945 1 0.9910
1 1.0000 1 1.0000 1 0.9984 1 0.9991
1 0.9700 1 0.9861 1 1.0000 1 0.9998
1 1.0000 1 0.9988 1 0.6615 1 0.9987
1 1.0000 1* 0.0563 1 0.9977 1 1.0000
1 0.7716 1 0.5830 1 0.9924 1 1.0000
1 0.9954 1* 0.0000 1 0.9999 1* 0.0000
1 1.0000 1 1.0000 1 0.9999
1 1.0000 1 0.9888 1 1.0000
1 1.0000 1 1.0000 1 0.9999
1 1.0000 1 0.9998 1 0.9996
1 1.0000 1 1.0000 1 0.9992
1 0.9999 1 1.0000 1 0.9996
1 0.7219 1 1.0000 1 1.0000
1 0.9979 1 1.0000 1 1.0000
1* 0.0000 1 0.9996
1 0.9944
1 0.9979
1 0.9997
1* 0.0005
1* 0.1663
1 0.5946
1 0.9963
1 0.9998
1 0.7941
1* 0.0001
1 0.9999
1 0.9999
1 1.0000
1 0.9256
1 0.9998
1 0.9994
* : observation mal classée.
Source : Résultats fournis par le programme Credit1 développé sous Matlab

Tableau 4.4.5 : Résultats de classement du modèle neuronal n°1


réalisé pour l’échantillon test et validation
Bons classements Mauvais classements
Entreprises Nombre Taux Nombre Taux
Classe 1 30 85,71 % 5 14,28 %
Classe 2 16 88,89 % 2 11,11 %
Classe 3 19 100 % 0 0%
Classe 4 9 90 % 1 10 %
TOTAL 74 90,24% 8 9,76%
Source : Résultats fournis par le programme Credit1 développé sous Matlab

136
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Ce tableau montre les résultats suivants :


- Le taux de bons classements des entreprises de la classe 1 : 85,71 %
- Le taux de bons classements des entreprises de la classe 2 : 88,89 %
- Le taux de bons classements des entreprises de la classe 3 : 100 %
- Le taux de bons classements des entreprises de la classe 4 : 90 %

Sachant que le taux global de bons classements est 90,24 %, alors que le taux global de
mauvais classement est 9,76 %.

4.2 Présentation du réseau neuronal n°2

Comme nous l’avons déjà présenté au paragraphe 3.2, l’ADL a retenue sept (7) ratios à
savoir : R2, R3, R8, R11, R12, R15 et R16. Le réseau n°2 est un réseau de type Perceptron
multicouches de type feed-forward.

Figure 4.1.3 :.Architecture du réseau n°2


Couche d'entrée couche cachée couche de sortie
R2

Classe 1
R3
Classe 2

7 neurones
Classe 3

R16 Classe 4

4.2.1 Les caractéristiques de ce réseau n°2


Les caractéristiques de ce réseau sont similaires à celle du réseau n°1 et il comprend :
 Une couche d'entrée constituée de 7 neurones correspondants aux sept ratios déjà
cités.

137
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

 Une couche cachée constituée de N neurones. Ce nombre est atteint


progressivement après plusieurs tests sur l'échantillon d'apprentissage jusqu'à
atteindre l'optimum d'apprentissage et de généralisation.

 Une couche de sortie constituée de quatre neurones identifiant la classe


d’appartenance (neurones de décision).

 Deux fonctions d'activation ont été utilisées : la fonction sigmoïde pour la couche de
sortie et la fonction tangente hyperbolique pour la couche cachée.

 L'apprentissage d'un tel réseau est supervisé et utilise l'algorithme de


rétropropagation du gradient de l'erreur.

 Les paramètres retenus sont : le paramètre d’apprentissage  = 0,80, l’erreur


quadratique SSE = 0,1 et le nombre de neurones de la couche cachée N est
déterminé par le tableau suivant.

Tableau 4.4.6 : Nombre de neurones de la couche cachée en fonction


du taux de bons classements de l’échantillon test
Nombre de Taux de bons Nombre d’itération
neurones classements (epochs)
1à8 ncv -
9 79,27 203 759
10 86,59 255 031
11 79,27 320 000
12-15 ncv -
16 80,49 279 524
17-18 ncv -
ncv : ne converge pas.
Le taux d'apprentissage est fixé à 80 %.
La somme quadratique des erreurs est de 0,1.

Comme indiqué par le tableau, nous avons procédé à 18 tests différents. Le meilleur
taux de classement est donné par N = 10, suivi des réseaux à 16 neurones et enfin le réseau à
9 neurones (voir annexe C2). Ceci est confirmé par les courbes d’apprentissages suivantes :

138
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Figure 4.1.4 : Courbes d’apprentissages du réseau n°2


Courbe d’apprentissage pour N=10 Courbe d’apprentissage pour N=8
(Cas de non convergence)
Performance is 0.0999979, Goal is 0.1 Performance is 2.00068, Goal is 0.01
3 3
10 10

2
2 10
10

1
10
1
10
Training-Blue Goal-Black

Training-Blue Goal-Black
0
10
0
10

-1
10

-1
10
-2
10

-2
10
0 0.5 1 1.5 2 2.5 -3
10
255031 Epochs 5
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
x 10
200000 Epochs 5
x 10

Source : Résultats fournis par le programme Credit2 développé sous Matlab

4.2.2 Les résultats de validation du réseau n°2


Les résultats obtenus durant la phase de validation sont présentés dans les tableaux
ci-après :

Tableau 4.4.7 : Les résultats de l’échantillon test et validation pour N = 10


Classe 1 Classe 2 Classe 2 Classe 4
Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 1.0000 1 0.9751 1 1.0000 1 0.9340
1 1.0000 1 0.9999 1 1.0000 1 1.0000
1 1.0000 1 0.9998 1 1.0000 1* 0.0003
1 1.0000 1 1.0000 1 0.9733 1 0.9055
1 0.9480 1 0.9973 1 1.0000 1 1.0000
1* 0.2835 1 0.9998 1 1.0000 1* 0.0002
1 1.0000 1 0.9986 1 0.9705 1* 0.0901
1 0.9953 1 0.9105 1 1.0000 1* 0.0000
1* 0.0000 1 0.9974 1 1.0000 1* 0.0000
1 0.9943 1* 0.0000 1 1.0000 1* 0.0002
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 0.9859 1 1.0000
1 1.0000 1 1.0000 1 1.0000
1 0.9723 1 1.0000 1 0.9999
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 0.9999
1 0.9971 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 1.0000
1 0.9810 1 0.9999
1 1.0000
1 0.9341
1 1.0000
1* 0.3755
1 0.9959
1 1.0000

139
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

1 0.9998
1 0.9574
1 0.9444
1 0.9604
1 0.9992
1 0.9997
1 0.9797
1 0.9996
1* 0.0000
1 0.9917
* : observation mal classée.
Source : Résultats fournis par le programme Credit2 développé sous Matlab

Ces résultats peuvent être synthétisés en pourcentage de bons classements et mauvais


classements comme l’indique le tableau ci-après :

Tableau 4.4.8 : Les résultats de classement du modèle neuronal n°2 réalisé pour
l’échantillon test et validation (N = 10)
Bons classements Mauvais classements
Entreprises Nombre Taux Nombre Taux
Classe 1 31 88,57 % 4 11,42 %
Classe 2 17 94,44 % 1 5,55 %
Classe 3 19 100 % 0 0%
Classe 4 4 40 % 6 60 %
TOTAL 71 86,59 %, 11 13,41 %.
Source : Résultats fournis par le programme Credit2 développé sous Matlab

Ce tableau montre les résultats suivants :


- Le taux de bons classements des entreprises de la classe 1 : 88,57 %
- Le taux de bons classements des entreprises de la classe 2 : 94,44 %
- Le taux de bons classements des entreprises de la classe 3 : 100 %
- Le taux de bons classements des entreprises de la classe 4 : 40 %

Sachant que le taux global de bons classements est 86,59 %, alors que le taux global de
mauvais classement est 13,41 %.

140
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

5. Comparaison des résultats des trois modèles élaborés


Rappelons qu’on a conçu et construit trois modèles d’évaluation du risque de crédit
pour un horizon d’une année. Les résultats de globaux obtenus par ces modèles sont résumés
dans le tableau suivant :

Tableau 4.4.9 : Récapitulatif des résultats des trois modèles élaborés


Echantillon de construction Echantillon de Validation
MODELE Bons Mauvais Bons Mauvais
classements classements classements classements
ADL 85,5 % 14,46 % 72 % 28 %
Réseau n°1 100 % 0% 90,24 % 9,76 %

Réseau n°2 100 % 0% 86,59 % 13,41 %


Source : synthèse réalisée par l’étudiante.

D’après ce tableau, on déduit que le meilleur résultat est donné par le modèle de réseau
n°1. C'est-à-dire celui qui prend en compte toutes les variables introduites

En effet, contrairement aux réseaux de neurones qui permettent un taux de bon


classement de prés de 86,59 % (le réseau n°2) et un taux de bon classement de prés de 90,24 %
(le réseau n°1) sur l'échantillon de test, l'analyse discriminante linéaire n'en est qu'à 72 %
avec une qualité de prévision bien faible par rapport aux réseaux neuronaux.

Ceci est dû au fait que tous les ratios utilisés dans l'analyse discriminante ne permettent
pas une discrimination linéaire. Aussi le modèle de R.N.A est capable d'identifier les
exemples qui ne lui ont été jamais présentés (phase test) grâce à sa capacité de généralisation.

Ainsi la performance de cet outil est toujours supérieure ou égale à celle obtenue par des
techniques classiques.

L'apport supplémentaire de l'analyse discriminante par rapport aux R.N.A est de fournir
des probabilités d'appartenance à chacun des groupes connaissant le score.

141
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

6. Les atouts et les limites des réseaux de neurones artificiels


Avant de se lancer dans l’utilisation de cette technique, il est nécessaire d’en recenser
les avantages, dans un premier temps, pour savoir si son utilisation peut représenter un apport
dans le cadre de la finance avant d’étudier les principaux reproches qui lui sont fait dans un
deuxième temps, afin de mieux s’en prémunir.

6.2 Les atouts

Comme l’a signalé (Paquet 1997b) et d’autres auteurs, par rapport aux modèles
classiques d’analyse statistique, les réseaux de neurones artificiels possèdent plusieurs
avantages :

1. Ils permettent, comme on l’a déjà souligné, de traiter des problèmes non structurés,
c'est-à-dire des problèmes sur lesquels on ne dispose d’aucune information à priori. En
effet, il n’est pas nécessaire de connaître la distribution de probabilité des variables
comme c’est le cas des méthodes d’analyse discriminante.

2. Ils sont tout à fait adaptés pour traiter des problèmes non linéaires éminemment
complexes. Ils sont capables de découvrir eux-mêmes les relations entre les variables.
Cet aspect est très intéressant car il n’oblige pas le concepteur à spécifier la forme de la
fonction de séparation dans le cas d’une classification.

3. Ils sont capables de traiter un grand nombre d’exemples cela est possible grâce à la
grande capacité de stockage des réseaux de neurones. En effet, pour constituer la base
d’apprentissage et la base de test, un réseau de neurone nécessite un grand nombre
d’exemples.

142
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

4. En modélisation : gains souvent modérés par rapport aux méthodes classiques, mais
parfois suffisants pour justifier la démarche sur un plan économique.

5. Ils peuvent traiter des données incomplètes ou des données bruitées. La prise en
compte de ces données est possible par l’ajout de neurones supplémentaires.

6. L’échantillon de validation confère une certaine robustesse au réseau par l’arrêt du


processus itératif, lorsque le réseau produit les meilleurs résultats sur l’échantillon.
Ainsi, seule l’information pertinente est intégrée dans le système.

7. Ils permettent la prise en compte de variables qualitatives à travers des neurones à


valeurs binaires.

Pourtant, si cet outil semble prometteur, il n’est pas aujourd’hui exempt de critiques.
Plusieurs limites dans l’utilisation des réseaux de neurones peuvent être retenues.

6.2 Les limites

1. On mentionnera qu’il n’existe pas encore de théorie permettant de déterminer la


structure optimale d’un réseau. En particulier la détermination du nombre de couches
cachées et du nombre de neurones sur chacune d’entre elle relève encore largement
de l’intuition de l’utilisateur et de sa capacité à expérimenter plusieurs architectures
afin de retenir celle qui donne les meilleurs résultats. Plus le réseau est complexe,
c’est-à-dire plus il comporte de neurones cachés et de liens synaptiques, plus il est
capable de reconnaître les formes qui lui sont présentées à travers l’échantillon
d’apprentissage.

143
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

2. Le processus d’apprentissage, lui aussi fait intervenir l’intuition. Il est guidé par des
paramètres qu’il convient de régler manuellement.

3. L’effet « boite noire » qui diminue le pouvoir explicatif des réseaux. Un réseau de
neurones reste encore en partie aujourd’hui une « boite noire » de laquelle il reste
difficile d’extraire les relations pertinentes entre les variables. De ce point de vue, le
système n’a donc qu’un pouvoir explicatif médiocre contrairement aux systèmes
experts qui sont capables de retracer le cheminement suivi pour atteindre le résultat.
Pourtant, le phénomène de ˝ boîte noire˝ n’est pas total puisque des analyses de
sensitivité sont possibles, en faisant varier l’une des entrées pas à pas, de sa valeur
minimale vers sa valeur maximale, les autres entrées du réseau restant figées à leur
valeur moyenne.

4. Importance du travail préliminaire de préparation des données. Les données en entrée


doivent fréquemment être retraitées, notamment : choix des variables pertinentes,
normalisation, élimination de données aberrantes, organisation du protocole
d'apprentissage et de validation.

144
Chapitre 4 : Elaboration du modèle paramétrique (ADL) et du modèle neuronal

Conclusion

Contrairement aux réseaux de neurones qui permettent un taux de bon classement de


prés de 86,59 % (le réseau n°1) et un taux de bon classement de prés de 90,24 % (le réseau
n°2) sur l'échantillon de test, l'analyse discriminante linéaire n'en est qu'à 72 % avec une
qualité de prévision bien faible par rapport aux réseaux neuronaux.

Ceci est dû au fait que tous les ratios utilisés dans l'analyse discriminante ne permettent
pas une discrimination linéaire. Aussi le modèle de R.N.A est capable d'identifier les
exemples qui ne lui en été jamais présentés (phase test) grâce à sa capacité de généralisation.

Ainsi la performance de cet outil est toujours supérieure ou égale à celle obtenue par des
techniques classiques.

145
Conclusion générale

Le pire reste incertain …


Anonyme

Conclusion générale et perspectives

’objet de cette recherche est de démontrer la robustesse de l’approche neuronale par

L rapport à la méthode classique qui est une méthode paramétrique du crédit scoring
(l’analyse discriminante linéaire) en effectuant une étude comparative entre les deux


méthodes avec le même échantillon de données. Nous allons résumer les résultats de notre
démarche empirique, avant de présenter son contexte à travers les difficultés de mise en
œuvre, puis nous exposerons les limites de notre travail et les extensions possibles en
perspectives.

Discussions des résultats : le but de cette recherche est de tenter de concevoir et de


développer des modèles d’évaluation du risque pour le classement des entreprises
algériennes (PME) qui demandent un crédit d’exploitation à l’aide de certaines de leurs
caractéristiques. Notre démarche est principalement inductive et repose sur une approche
empirique.
Deux techniques ont été utilisées pour développer les modèles d’évaluation. La première est
une technique statistique paramétrique très répandue basé sur l’analyse discriminante et la
deuxième est une approche neuronale issue de l’intelligence artificielle.

Nous avons pu recueillir un échantillon de 209 entreprises provenant de secteurs


d’activités différents et vingt deux (22) variables (comptables et extracomptables)
susceptibles de refléter la situation financière de l’entreprise. La réglementation en vigueur au
sein de la banque fait apparaitre quatre (04) classes distinctes : les créances courantes
(Saines), les créances à problèmes potentiels, les créances très risquées et les créances
compromises.
Une étude descriptive élémentaire de l’échantillon de travail a été réalisée afin de relever
certaines caractéristiques des variables retenues. Une analyse statistique a été effectuée sur cet

146
Conclusion générale

échantillon à l’aide du test de khi-deux et le TEST-T, afin de vérifier l’existence d’une relation
entre les variables explicatives retenues et la classe de risque.

Cette recherche nous a permis de construire trois (03) modèles différents (modèle
d’ADL, réseau neuronal n°1 et réseau neuronal n°2) :
1. Le modèle d’ADL est élaboré en utilisant la procédure de classification de l’analyse
discriminante pas à pas à l’aide de SPSS 10.0, sur l’échantillon de construction qui
représente 80% de l’échantillon global. Ceci a permis de construire la fonction score en
retenant sept (07) ratios. Une vérification de la validité du modèle est réalisée avec les tests
suivants : la statistique des groupes, le test du F, le test de Box, la corrélation canonique
globale et le lambda de Wilks. Le modèle doit être en mesure de classer les entreprises de
l’échantillon test (20%) dans l’une des quatre classes. C’est la phase de validation qui
permet de juger de la capacité de prévision du modèle ainsi élaboré1.
Ce modèle donne un taux de bon classement global de 85,5% sur l’échantillon de
construction et de 72 % sur l’échantillon test.

2. Le réseau neuronal n°1 est un Perceptron multicouches de type feed-forward. Il est


constitué d’une couche d’entrée de 22 neurones, une couche de sortie de (4) neurones avec
le « codage grand-mère » et une couche cachée. Les fonctions d’activations utilisées sont
la sigmoïde pour la couche de sortie et la tangente hyperbolique pour la couche cachée. La
phase de prétraitement est en fait une normalisation des entrées, nous avons adopté la
méthode de remise à l’échelle. Le paramétrage est une phase cruciale puisqu’elle
détermine l’architecture finale du réseau, après 20 tests, les paramètres sont fixés (taux
d’apprentissage   0,80 et SSE = 0,01). Durant la phase d'apprentissage, un échantillon de
construction (60%) est présenté plusieurs fois au réseau de manière itérative jusqu'à
convergence de l'erreur. Cette étape nous donne le nombre de neurones de la couche
cachée. Nous avons procédé à 22 tests différents et le meilleur taux de classement est
donné par N = 16.

1
. SPSS 10.0 ne permet pas de faire la validation. Nous l’avons donc complété avec un programme qui utilise la
méthode de la distance géométrique (cf. p127).

147
Conclusion générale

Le taux de bons classements global est 100% sur l’échantillon de construction et de


90,24% sur l’échantillon test.

3. Le réseau neuronal n°2 est un Perceptron multicouches de type feed-forward. Il est


constitué d’une couche d’entrée de (7) neurones (les mêmes ratios retenus par le modèle
d’ADL. Les paramètres retenus sont :   0,80 , SSE = 0,01 et N=10.
Le taux de bons classements global est 100% sur l’échantillon de construction et de
86,59 % sur l’échantillon test.
On aboutit aux résultats suivants :
 Le premier modèle d’ADL n'a pu donner que 72 % de taux de bon classement avec
une qualité de prévision bien faible par rapport aux réseaux neuronaux.

 Les réseaux de neurones ont donné le meilleur taux de bon classement. Le réseau
n°1 a fourni un taux global de bon classement de prés de 90,24 %, tandis que le réseau
n°2 en est à 86,59 %.

 Nous avons donc réduit le taux d’erreur de classement des entreprises de 28% (ADL)
à 9,77% (RNA)2. On retient donc le modèle de réseau n°1 qui fournit les meilleurs
résultats.

Ceci est dû au fait que les ratios utilisés dans l'analyse discriminante ne permettent pas
une discrimination linéaire. Aussi, le modèle de R.N.A est capable d'identifier les exemples
qui ne lui ont jamais été présentés (phase validation) grâce à sa capacité de généralisation.

En effet, cette recherche confirme l’hypothèse de la robustesse des RNA. Ainsi, la


performance de cet outil est toujours supérieure ou égale à celle obtenue par les techniques
classiques.

2
. Ce taux est celui calculé sur l’échantillon de validation.

148
Conclusion générale

Il apparaît que les réseaux de neurones artificiels donnent aujourd’hui de bons résultats
dans le domaine de la classification particulièrement dans le champ de la détection préventive
des entreprises en difficulté. Les travaux menés sur ce sujet, tant en France qu’aux Etats-Unis,
semblent s’accorder sur ce point.

Cependant, ils présentent encore certaines limites : la construction du modèle neuronal,


le prétraitement des variables d’entrée et le réglage des paramètres d’apprentissage relèvent
encore trop souvent de l’intervention humaine. Mais tous ces problèmes font aujourd’hui
l’objet de recherches dont on peut espérer qu’elles apporteront des réponses satisfaisantes
dans les années à venir.

Les difficultés et limites de mise en œuvre : les ambitions initiales de l’expérimentation ont
été réduites au fur et à mesure de la mise en pratique et de l’apparition de contraintes
renforcées par le manque de bases théoriques sur le fonctionnement des RNA. Ainsi, notre
démarche expérimentale a du reposer sur un processus principalement itératif. Les difficultés
rencontrées peuvent être résumées comme suit :
 Face à l’absence de base de données numérique au niveau des banques primaires,
nous avons adopté une démarche purement empirique en collectant (dans la mesure
du possible) un échantillon expérimental faible (209 entreprises). L’idéale aurait été
de définir un échantillon à partir d’une population mère et de construire l’échantillon
de l’étude.
 La taille de l’échantillon est relativement petite, donnant ainsi des résultats
optimistes par rapport à la réalité. Les RNA ont besoin d’un très grand nombre
d’exemples lors de la phase d’apprentissage, ainsi, la taille de l’échantillon doit être
d’autant plus grande que le nombre de variables d’entrées est élevé. Or, dans notre
expérimentation nous n’avons pu dégager que 22 variables.
 Les proportions par catégorie d’entreprises (les classes de risque) ne sont pas égales
cela peut influencer la qualité des résultats.
 L’échantillon est hétérogène. En effet, pour avoir une taille d’échantillon acceptable
nous avons regroupé des secteurs d’activité différents.

149
Conclusion générale

 L’opération de collecte de données a révélé des irrégularités et des manques dans la


documentation fournie (habillage des bilans, incompatibilité entre les données
fournies par le client et celles des différentes administrations etc.)
 Il aurait été souhaitable de disposer d’autres informations relatives à l’environnement
socio-économique des clients. En effet notre recherche ne concerne que l’aspect
financier des entreprises. De plus, l’horizon de l’étude est d’une année seulement.
 Il serait préférable de disposer d’un échantillon plus grand et plus riche. Ceci sera
possible en élargissant le nombre d’observations et en introduisant plus de variables
pour mieux discriminer les différents groupes.

Recommandations : Ce travail reste perfectible dans la perspective d’une amélioration


de la qualité des modèles proposés, un certain nombre de recommandations peuvent être
avancés :
 Il serait très bénéfique de comparer différents modèles neuronaux entre eux : tels que
le perceptron multicouches (utilisé dans cette recherche) et les cartes de Kohonen qui
se basent sur l’apprentissage non supervisé et donnent des résultats intéressants. Un
article est en cours de réalisation dans ce sens avec les mêmes données.
 Il convient de rappeler que nous n’avons exploré qu’un volet de l’apprentissage
artificiel qui concerne les RNA. A noter que le domaine des algorithmes génétiques
et ‘les colonies de Fourmies’ sont des champs d’explorations très intéressants.

Enfin, rappelons que les modèles proposés ne constituent qu’une aide à la décision et se
doivent d’être enrichis par d’autres formes d’information.

150
Bibliographie

BIBLIOGRAPHIE

1. ADELINE ROMAIN, GOURIVEAU RAFAEL, NOUREDDINE ZERHOUNI


(2008). Pronostic de défaillances : maitrise de l’erreur de prédiction. MOSIM'08.

2. ALTMAN, E.I., MARCO, G., VARETTO, F. (1994). Corporate distress diagnosis:


Comparisons using linear discriminant analysis and neural networks (the Italian
experience). Journal of Banking and finance.

3. AUGROS JEAN-CLAUDE, QUERUEL MICHEL (2000). Risque de taux d’intérêt


et gestion bancaire. Economica.

4. BACK BARBRO, LAITINEN TELIA, AND SERE KAISA (1996). Neural Networks
and Genetic Algorithms for Bankruptcy Predictions. Expert Systems with
Applications, Vol.11.

5. BARDOS M. ET ZHU W.H. (1997). Comparaison de l’analyse discriminante linéaire


et des réseaux de neurones – application à la détection de défaillance d’entreprises,
Revue statistique appliquée, tome 45, n°4.

6. BARDOS MIREILLE (1995), Détection précoce des défaillances d’entreprises à


partir des documents comptables . Bulletin de la banque de France – 3e trimestre –
Supplément « Études ».

7. BARDOS MIREILLE (1998), Detecting the risk of company failure at the bank de
France, Journal of banking and finance, vol. 22.

8. BARDOS MIREILLE (2001). Analyse discriminante, application au risqué et


scoring financier. Dunod.

9. BARDOS MIREILLE (2005). Les scores de la Banque de France : leur


développement, leurs applications, leur maintenance. Bulletin de la Banque de
France • N° 144 • Décembre.

10 . BARDOS MIREILLE (2008), Scoring sur données d’entreprises: instrument de


diagnostic individuel et outil d’analyse de portefeuille d’une clientèle, Revue
Modulad, n°38.

150
Bibliographie

11 . BEN AMOR S., KHOURY N. ET SAVOR M. (2007). Modèle prévisionnel de la


défaillance financière des PME québécoises emprunteuses. Cahier de recherche 4.
12 . Benhalima Ammour (1997). Pratique des techniques bancaires, référence à
l’Algérie. Editions Dahlab.

13 . BENTZ YVES ET MERUNKA DWIGHT (1996). La modélisation du choix des marques


par le modèle multinomial Logit et réseaux de neurones artificiels : proposition
d’une approche hybride. Recherche et application en marketing, vol.11, n°2.

14 . BERNET-ROLLANDE LUC (2004). Principe de technique bancaire. 23 e édition Dunod.

15 . BERTELS K., JACQUES J.M. , NEUBERG L. AND GATOT L. (1999). Qualitative


company performance evaluation:Linear discriminant analysis and neural network
models. European Journal of Operational Research.

16 . BONÉ ROMUALD, ASSELIN DE BEAUVILLE JEAN-PIERRE, ZOLLINGER MONIQUE


(1996). Les réseaux de neurones artificiels : un apport potentiel aux études
marketing. Recherche et application en marketing, vol.11, n°2.

17 . BORITZ J. EFRIM AND KENNEDY DUANE B. (1995). Effectiveness of Neural Network


Types for Prediction of Business Failure. Expert Systems with Applications, Vol. 9.

18 . BURGESS A.N. ET PAUDELIDAKI S. (1996). Etude comparative des réseaux de


neurones et de la régression logistique pour identifier les opportunités de vente
croisée. Recherche et application en marketing, vol.11, n°2.

19 . BURRELL P. R. AND FOLARIN B.O. (1997). The Impact of Neural Networks in


Finance. Neural Comput & Applic.

20 . BURRELL P.R. AND FOLARIN B.O (1997). The Impact of Neural Networks in
Finance. Neural Computing & Applications.

21 . CAIRE, D. AND R. KOSSMANN (2003). Credit Scoring: Is it right for your bank?
Bannock Consulting.

22 . CALIA P. ET GANUGI P. (1997), Kernel and nearest neighbourg discriminant


analysis : business failure classification in industrial district, Applied stochastic
models and data analysis, Colloque Capri.

151
Bibliographie

23 . CALZADA CHRISTIAN ET MIDENET SOPHIE (1995). Des neurones dans les réseaux.
Methodes-Synthèse. Décembre.

24 . CANARELLI P. ET IVANOFF H. (1997), intelligence artificielle et scoring bancaire,


revue banque, N°577 janvier.

25 . CHATFIELD CHRIS (1996). Prévision des ventes avec les réseaux de neurones : une
étude de cas. Recherche et application en marketing, vol.11, n°2.

26 . CLERC LAURENT (2004), Gestion du risque de crédit et stabilité financière. Revue de


la stabilité financière, N°5, novembre.

27 . COHEN E. (1997). Analyse financière, édition Economica.

e
28 . COLASSE BERNARD (2003). L’analyse financière de l’entreprise. 4 édition La
découverte.

29 . COTTRELL MARIE (2003), Les réseaux de neurones historique, méthodes et


applications. http://samos.univ-paris1.fr

30 . Cottrell Marie, de Bodt Eric, Levasseur Michel (1996), Les réseaux de neurones en
finance Principes et revue de la littérature. Finance vol. 16.

31 . CROSS SIMON S, HARRISON ROBERT F. AND LEE KENNEDY R. (1995). Introduction


to neural networks. The Lancet, Vol. 346 October.

32 . DAMEL P. (1996), score d'entreprise: mieux apprécier le risque de défaillance, revue


banque, N°575 nov.

33 . DE COUSSERGUES SYLVIE (2002), Gestion de la banque, du diagnostic à la stratégie.


3e édition Dunod.

34 . DE LA BRUSLERIE HUBERT (2002). Analyse financière, information financière et


diagnostic. Dunod.

35 . DESBOIS DOMINIQUE (2003). Une introduction à l’analyse discriminante avec SPSS


pour Windows. Revue Modulad N° 30.

36 . DE SERVIGNY A., MÉTAYER B.ZELENKO, I. (2006). Le risque de crédit. Dunod 3e


édition.

152
Bibliographie

37 . DE SERVIGNY ARNAUD (2003). Le risque de crédit nouveaux enjeux bancaires.


Dunod 2e édition.

38 . DESMET PIERRE (1996). Comparaison de la productivité d’un réseau de neurone à


rétro-propagation avec celles des méthodes de régression linéaire, logistique et AID
pour le calcul des scores en marketing direct. Recherche et application en marketing,
Vol.11, n°2.

39 . DIETSCH MICHEL, PETEY JOËL (2003). Mesure et gestion du risque de crédit dans les
institutions financières. Edition d’Organisation.

40 . DREYFUS G. (1997), Les réseaux de neurones, une technique opérationnelle pour le


traitement des données industrielles, économiques et financières. Mesures, n°699,
novembre.

41 . DREYFUS G., MARTINEZ J.M., SAMUELIDES M, GORDON M.B., BADRAN F., THIRIA
S., HÉRAULT L. (2004). Réseaux de neurones : Méthodologie et applications.
Eyrolles.

42 . DU JARDIN PHILIPPE (2008). L’influence des méthodes de sélection de variables sur


la structure et la performance des modèles de prévision de la défaillance
d’entreprise. MASHS, Créteil.

43 . DUVALO E. ET NAIM P. (1989), des réseaux de neurones, Ed Eyrolles.

44 . FADLALLA ADAM, LIN CHIEN-HUA (2001). An Analysis of the Applications of


Neural Networks in Finance. INTERFACES 31: 4 July–August.

45 . FALAVIGNA GRETA (2008), Nouveaux instruments d’évaluation pour le risque


financier d’entreprise, Working paper CERIS-CNR Anno 10, N° 1.

46 . FELDMAN, RONALD. (1997). Banks and Big Change in technology called credit
scoring. Federal reserve bank of Minneapolis, The Region.

47 . FRYDMAN H., ALTMAN E., ET KAO D. (1985), Introducing recursive partioning for
financial classification: the case of financial distress. Journal of finance, vol. 40,
n°1.

153
Bibliographie

48 . GONZALEZ STEVEN (2000). Neural Networks for Macroeconomic Forecasting: A


Complementary Approach to Linear Regression Models. Working Paper.

49 . GOURIÉROUX CHRISTIAN (2003), Économétrie de la finance : l’exemple du risque de


crédit. L'Actualité économique, vol. 79, n° 4.

50 . GRENIER JEAN-PIERRE (2007), Débuter en algorithmique avec Matlab et Scilab.


Ellipses.

51 . GUILHOT B. (1986), méthode des scores intérêts et limites (1 partie), revue banque
N°466 novembre.

52 . GUILHOT B. (1987), méthode des scores intérêts et limites (2 partie), revue banque
N°468 janvier.

53 . HAYKIN S. (1994), Neural Networks: A Comprehensive Foundation. NY:


Macmillan.

54 . HEKANAHO JUKKA, BACK BARBRO, KAISA SERE, AND TEIJA LAITINEN (1998).
Analysing Bankruptcy Data with Multiple Methods. American Association for
Artificial Intelligence, (www.aaai.org).

55 . HERAULT JEANNY, JUTTEN CHRISTIAN (1994). La mémoire des réseaux


neuromimétiques. La recherche 267, juillet /août volume 25.

56 . HULL JOHN, GODLEWSKI CHRISTOPHE, MERLI MAXIME (2007). Gestion des risques
et institutions financières. Pearson Education.

57 . JERBI YACIN (2006). Evaluation des options et gestion des risques financiers par les
réseaux de neurones et par les modèles à volatilité stochastique. Thèse de doctorat
en Mathématiques appliquées, Paris 1.

58 . JOUDOUIN J.F. (1994), les R.N principes et définitions, Ed Hermes.

59 . JUKKA HEKANAHO, BARBRO BACK, KAISA SERE AND TEIJA LAITINEN (1998).
Analysing Bankruptcy Data with Multiple Methods. American Association for
Artificial Intelligence (www.aaai.org).

60 . KARYOTIS DANIEL (1995). La notation financière : une nouvelle approche du risque


de crédit, Revue Banque.

154
Bibliographie

61 . KHERCHI HANYA (2008). Réglementation prudentielle et évolution du système


financier en situation d’incertitude. Essai d’appréciation du contexte bancaire
algérien illustré par les données du CPA. Thèse de doctorat des universités en
économie et statistiques appliquées. INPS.

62 . LACHER R.C., COATS PAMELA K., SHARMA SHANKER C. AND FANT FRANKLIN
(1995). A neural network for classifying the financial health of a firm. European
Journal of Operational Research.

63 . LAMARQUE ERIC (2005). Management de la banque : Risques, relation client,


organisation. Edition Pearson éducation.

64 . LEBEL FABRICE (2006). Systèmes de trading boursier et réseaux neuromimétiques.


International Finance Conference, AFFI, IAE Poitiers, CEREGE.

65 . LEMBERG HENRI (1994). Les réseaux neuronaux. INFOPC N° 107 octobre.

66 . LEMBERG HENRI (71). Les réseaux neuronaux artificiels. Langages & systems –
INFOPC-N° 71.

67 . LESHNO MOSHE AND SPECTOR YISHAY (1996). Neural network prediction analysis:
The bankruptcy case. Neurocomputing Vol.10.

68 . MALHERBE LAURE (2001). Retour d'expérience en prévision Rapport final. INERIS -


Direction des Risques Chroniques - Janvier / LMa n°20.

69 . MARMOLINERO CECILIO AND SERRANO-CINCA CARLOS (2001). Bank failure:a


multidimensional scaling approach. The European Journal of Finance.

70 . MEUNIER-ROCHER BÉATRICE (1998). Le diagnostic financier en 6 étapes et


applications corrigées. Editions d’organisation, troisième tirage.

71 . MOUTARDE F. (2007), Introduction aux réseaux de neurones. Paris techs, Avril.

72 . NIGRIN A. (1993), Neural Networks for Pattern Recognition. Cambridge, MA: The
MIT Press.

73 . OGIEN D. (2004). Comptabilité et audit bancaires. Dunod.

155
Bibliographie

74 . OLSON DENNIS, MOSSMAN CHARLES (2003). Neural network forecasts of Canadian


stock returns using accounting ratios. International Journal of Forecasting.

75 . PAQUET PHILIPPE (1997a), L’utilisation des réseaux de neurones artificiels en


finance. Document de recherche, n°1.

76 . PAQUET PHILIPPE (1997b), Les réseaux de neurones artificiels : outils de détection


des entreprises en difficulté. Analyse financière mars n°110.

77 . PARIENTÉ SIMON (2006). Analyse financière et évaluation d’entreprise. Pearson.

78 . PATRICK GABRIEL (1999). Association réseaux de neurones et plan d’expérience par


ensemble de choix : vers la prédiction d’un comportement complexe de choix.
Recherche et application en marketing, vol.14, n°2.

79 . PEREZ MURIEL (2002). De l’analyse de la performance à la prévision de défaillance.


Thèse de doctorat en Sciences de gestion, Lyon III.

80 . PEREZ MURIEL (2006). Artificial neural networks and bankruptcy forecasting: a state
of the art. Neural Comput & Applic.

81 . REFAIT CATHERINE (2004), La prévision de la faillite fondée sur l’analyse financière


de l’entreprise : un état des lieux. Economie et prévision, n°162.

82 . REILLE X., SANONIKONE O. AND HELMS B. (2002). Comparing microfinance


assessment methodologies. Small enterprise development, vol. 13, n°2.

83 . RONCALLI THIERRY (2004). La gestion des risques financiers. Edition Economica.

84 . ROUSSET P. (1999), Applications des algorithmes d'auto organisation à la


classification et à la prévision. Thèse de doctorat.

85 . ROUSSET PATRICK (1999). Applications des algorithmes d'auto-organisation à la


classification et à la prévision. Thèse de doctorat en Mathématiques appliquées,
Paris 1.

86 . RUMELHART DAVID E., WIDROW BERNARD, LEHR MICHAEL A. (1994). The basic
ideas in neural network. Communication of ACM march vol. 17 N°3.

156
Bibliographie

87 . SADI KHADIDJA (2006). Comment décider de l’attribution des crédits en utilisant les
nouvelles techniques ? (Méthode Scoring et réseaux de neurones). Revue
d’économie et de statistique appliquées, numéro spécial.

88 . SADI KHADIDJA (2007). Evaluation du risque d’échec des étudiants de première


année (I.N.P.S) à l’aide des réseaux de neurones. Revue d’économie et de statistique
appliquées, numéro spécial.

89 . SAINT-SERVER P. (1987), les méthodes scores sont elles efficaces ? Revue banque,
N°475 septembre.

90 . SANCHEZ M.S. AND SARABIA L.A. (1995). Efficiency of multi-layered feed-forward


neural networks on classification in relation to linear discriminant analysis,
quadratic discriminant analysis and regularized discriminant analysis.
Chemometrics and Intelligent Laboratory Systems.

91 . SARDI ANTOINE (2004). Bale II, éditions Afges, Paris.

92 . SARDI ANTOINE ET HENRY JACOB (2001). Management des risques bancaires,


Edition Afges, Paris.

93 . SCHREINER MARK (2003). Les Vertus et Faiblesses de L’évaluation Statistique


(Credit Scoring) en Microfinance. Center for Social Development, U.S.A
septembre. http://www.microfinance.com.

94 . SERRANO-CINCA CARLOS (1997). Feed forward neural networks in the classification


of financial information. The European Journal of Finance.

95 . SERVAIS CHRISTIAN .Vers des systèmes intégrés de gestion des risques dans les
banques.

96 . STILI D. (2000). La détection précoce des défaillances d’entreprises dans le secteur


de la construction, Score BDFB. Cahiers études et recherches de l’observatoire des
entreprises - banque de France.

97 . STOPPIGLIA H. (1997), Méthodes statistiques de sélection de modèles neuronaux ;


applications financières et bancaires. Thèse Physique, Électronique, Physique
Chimie Industrielle [ESPCI].

157
Bibliographie

98 . THOMAS, L. C, EDELMAN, D. B, CROOK, J. N (2002). Credit scoring and its


applications, SIAM.

99 . THOMHILL STEWART AND AMIT RAPHAEL (2003). Learning about Failure:


Bankruptcy, Firm Age, and the Resource-Based View. Organization science Vol.
14, N°5, September-October.

100 . THUILLIER DENIS (1997). Principes et applications des réseaux de neurones : Deux
illustrations sur l’habitat au Maroc. Revue région & développement n°5.

101 . TORRES-MORENO JUAN-MANUEL (1997). Apprentissage et généralisation par des


réseaux de neurones : étude de nouveaux algorithmes constructifs. Thèse de
doctorat en Sciences Cognitives, l'Institut National Polytechnique de Grenoble.

102 . TOUZET C. (1992)., réseaux de neurones artificiels introduction au connexionnisme,


juillet.

103 . VALLÉE THOMAS ET YILDIZOĞLU MURAT (2003). Présentation des algorithmes


génétiques et de leurs applications en économie. revue Managerial and Decision
Economics, décembre.

104 . VARETTO F. (1998), Genetic algorithms applications in the analysis of insolvency


risk, Journal of banking and finance, vol. 22, n°10-11, October.

105 . VERLEYSEN M., LENDASSE A. (2003). Le test des méthodes neuronales : comment
utilser les techniques de reéchantillonnage ? ACSEG 2003 proceedings -
Connectionist Approaches in Economics and Management Sciences.

106 . VERLEYSEN MICHEL (1998). The explanatory power of Artificial Neural Networks.
Methodos : The explanatory power of models in the social sciences, November.

107 . VERNIMMEN PIERRE (2005), Finance d’entreprise. 6eme édition Dalloz.

108 . VILLA-VIALANEIX NATHALIE (2005). Eléments d’apprentissage en statistique


fonctionnelle. Classification et régression fonctionnelles par réseaux de neurones et
Support Vector Machine. Thèse de doctorat en Mathématiques appliquées,
Université Toulouse II.

158
Bibliographie

109 . WEST DAVID (2000). Neural network credit scoring models. Computers & Operations
Research 27.

110 . WIDROW B., RUMELHART D., LEHR M. (1994). Neural networks: applications in
industry, business and science. Communications of the ACM, march n°3 vol. 37.

111 . YAHIAOUI GERARD, AMAT JEAN-LOUIS (1993). Des réseaux de neurones pur le
contrôle de qualité. La recherche 252, mars volume 24.

112 . YANG, LIU (2001). New issues in credit scoring application, Working Paper No 16.

113 . ZHANG GUOQIANG, HU Y. MICHAEL, PATUWO B. EDDY AND INDRO DANIEL C.


(1999). Artificial neural networks in bankruptcy prediction: General framework and
cross-validation analysis. European Journal of Operational Research.

114 . ZURADA J.M. (1992), Introduction to Artificial Neural Systems. Boston: PWS
lishing Company.

159
Les annexes

 Annexe A INSTRUCTION N° 34-91 DU 14 NOVEMBRE 1991 RELATIVE A LA FIXATION DES REGLES


PRUDENTIELLES DE GESTION DES BANQUES ET ETABLISSEMENTS FINANCIERS

 Annexe B0 : TEST de différence de groupes

 Annexe B1 : TEST khi-deux

 Annexe B2 : TEST-T

 Annexe B3 : Diagnostic des observations pour l’échantillon de construction (méthode de l‘ADL)

 Annexe C1 : Résultats du réseau neuronal N°1

 Annexe C2 : Résultats du réseau neuronal N°2


Annexe A

INSTRUCTION N° 34-91 DU 14 NOVEMBRE 1991 RELATIVE A LA FIXATION DES REGLES


PRUDENTIELLES DE GESTION DES BANQUES ET ETABLISSEMENTS FINANCIERS

Article 1 : La présente instruction a pour objet la mise en oeuvre des dispositions du règlement n 91-09 du 14 Août
1991 fixant les règles prudentielles de gestion des banques et établissements financiers.
Article 9 : En application de l’article 7 du règlement n° 91-09 suscité, les créances courantes et classées sont
définies comme suit :
A/- CREANCES COURANTES
Sont considérées comme créances courantes les créances dont le recouvrement intégral dans les délais parait
assuré. Elles sont détenues généralement sur des entreprises dont :
- la situation financière équilibrée est vérifiée dans les documents comptables certifiés de moins de 18 mois, ainsi
que dans les situations provisoires datant de moins de trois (03) mois ;
- la gestion et les perspectives d’activité sont satisfaisantes ;
- le volume et la nature des crédits dont elles bénéficient sont compatibles avec les besoins de leur activité
principale.
Font également partie de cette catégorie les créances sûres :
- assorties de la garantie de l’Etat, d’une banque ou établissement financier ou d’une compagnie d’assurance ;
- garanties par des dépôts effectués auprès d’une banque ou établissement financier ou par tout autre actif financier
pouvant être liquidé sans que sa valeur soit affectée.
Les créances courantes doivent faire l’objet d’un provisionnement général à hauteur de 1 % annuellement jusqu’à
atteindre un niveau total de 3 %. Il s’agit des provisions à caractère de réserves qui feront parties des fonds
propres.
B/- CREANCES CLASSEES
Catégorie 1 : Créances à problèmes potentiels
Font partie de la catégorie 1 les créances dont le recouvrement intégral, en dépit d’un retard qui reste raisonnable,
parait encore assuré mais qui sont détenues en général sur les entreprises qui présentent au moins une des
caractéristiques ci-après définies :
- le secteur d’activité connaît des difficultés ;
- la situation financière et les perspectives de l’entreprise se dégradent, ce qui risque de compromettre les capacités
de paiement des intérêts et / ou du principal ;
- certains crédits sur ces entreprises sont non remboursés et/ou les intérêts sont impayés depuis plus de trois (03)
mois mais dont le retard est inférieur à six (06) mois.
Les intérêts enregistrés mais non payés doivent être provisionnés de même que la créance elle-même, nette de
garanties obtenues, à hauteur de 30 %.
Catégorie 2 : Créances très risquées
Font partie de la catégorie 2, les créances dont le recouvrement intégral parait très incertain et qui sont détenues sur
des entreprises dont la situation laisse entrevoir des pertes probables.
Les retards dans le paiement des intérêts ou du principal échus se situent entre six (06) mois et un (01) an.
Les intérêts enregistrés et non payés doivent être déduits des résultats et portés sur les comptes d’ordre "intérêts en
suspens".
Les créances nettes de garanties obtenues, doivent être provisionnées à hauteur de 50 %. L’évaluation des garanties
doit se faire avec la plus grande prudence. La valeur donnée aux sûretés doit être celle du marché, selon une
évaluation indépendante.
Catégorie 3 : Créances compromises
Font partie de la catégorie 3, les créances qui doivent être passées par pertes. Toutefois, les banques et
établissements financiers se doivent d’épuiser toutes les voies de recours pour le recouvrement.
Tout intérêt enregistré et non payé doit être déduit des résultats.
Ces créances nettes de garanties correctement évaluées doivent être provisionnées à hauteur de 100 %.
Article 10 : La distinction entre créance courante et créance classée ou entre ces dernières elles-mêmes, telles que
définies ci-avant, doit faire l’objet de mise à jour régulière de la part des banques et établissements financiers.
Article 11 : Le classement des créances par degré de risque doit inciter les banques et établissements financiers à
adopter des méthodes homogènes d’évaluation des risques afin d’arriver progressivement à des appréciations
analogues des créances sur les mêmes bénéficiaires.
Elles doivent, en outre, sur la base de ce classement des créances, se préoccuper plus particulièrement des créances
qui représentent une proportion élevée de leurs fonds propres nets ou de leurs engagements ou bien de celles qui
requièrent un suivi plus spécifique.
Annexe B0 : TEST de différence de groupes
N valide (liste)
Moyenne Ecart-type
Non
CLASSE Pondérées
pondérées

R1 -4,1473 109,0626 70 70,000

R2 ,4208 ,2605 70 70,000

R3 ,5363 ,6729 70 70,000

R4 ,5874 6,0833 70 70,000

R5 ,1451 ,6065 70 70,000

R6 2,5685 5,5909 70 70,000

R7 3,5036 7,8823 70 70,000

R8 ,1866 ,2299 70 70,000

R9 ,3525 ,2812 70 70,000

R10 1,0075 ,9656 70 70,000

R11 ,1916 ,1969 70 70,000


Saine
R12 1,9652 9,1495 70 70,000

R13 2,366E-02 4,004E-02 70 70,000

R14 ,3529 ,5107 70 70,000

R15 4,4818 15,0050 70 70,000

R16 4,0910 10,9259 70 70,000

R17 ,2902 ,2118 70 70,000

STATUT 2,2857 ,7449 70 70,000

SECTEUR 1,9857 ,9088 70 70,000

Nat. demande ,6714 ,4731 70 70,000

LOC ,1714 ,3796 70 70,000

Cat_age 2,4571 1,2590 70 70,000

R1 20,2526 57,8484 35 35,000

R2 ,4051 ,2112 35 35,000

R3 8,1135 4,6997 35 35,000

R4 ,4900 ,5917 35 35,000

R5 ,1196 ,2159 35 35,000

R6 -,3683 19,6334 35 35,000

R7 4,3531 8,2642 35 35,000


A pb
potentiel ,3048 ,2722 35 35,000
R8

R9 ,1953 ,2014 35 35,000

R10 ,7048 ,5215 35 35,000

R11 ,2447 ,2683 35 35,000

R12 4,3049 5,1714 35 35,000

R13 4,402E-02 6,848E-02 35 35,000

R14 ,1671 ,2893 35 35,000


R15 ,1156 ,2071 35 35,000

R16 12,4471 67,8918 35 35,000

R17 ,3212 ,2701 35 35,000

STATUT 2,2286 ,7311 35 35,000

SECTEUR 1,8571 ,9121 35 35,000

Nat. demande ,8286 ,3824 35 35,000

LOC ,3714 ,4902 35 35,000

Cat_-age 2,7143 1,0730 35 35,000

R1 -1,6022 3,2056 37 37,000

R2 -,6261 1,2355 37 37,000

R3 -1,7628 3,5371 37 37,000

R4 2,1026 12,0417 37 37,000

R5 1,607E-02 1,5220 37 37,000

R6 -,2693 22,1407 37 37,000

R7 ,6273 ,2431 37 37,000

R8 ,3290 ,2703 37 37,000

R9 ,2505 ,3308 37 37,000

R10 ,5504 ,4971 37 37,000

R11 -,4931 4,3520 37 37,000


Tres risquée
R12 6,8501 21,1510 37 37,000

R13 5,403E-02 5,996E-02 37 37,000

R14 -,4007 2,6636 37 37,000

R15 ,4900 1,2810 37 37,000

R16 ,6751 ,8723 37 37,000

R17 ,3274 ,2637 37 37,000

STATUT 2,0270 ,7260 37 37,000

SECTEUR 2,0270 ,9276 37 37,000

Nat. demande ,5135 ,5067 37 37,000

LOC ,2703 ,4502 37 37,000

Cat_age 2,5946 1,0398 37 37,000

R1 2,3559 2,0711 24 24,000

R2 ,7707 ,2526 24 24,000

R3 ,3646 1,6528 24 24,000

R4 15,5564 48,8825 24 24,000

R5 ,7993 1,8621 24 24,000


Compromise
R6 14,4459 35,6729 24 24,000

R7 ,9282 ,3544 24 24,000

R8 ,7781 ,2607 24 24,000

R9 ,2623 ,1900 24 24,000

R10 ,6408 1,2633 24 24,000


R11 ,1305 ,1820 24 24,000

R12 ,4668 ,5029 24 24,000

R13 4,971E-02 5,034E-02 24 24,000

R14 ,6309 1,3295 24 24,000

R15 ,5996 ,4878 24 24,000

-7,1558E-
R16 ,2441 24 24,000
03

R17 ,2281 ,1628 24 24,000

STATUT 2,0000 ,7223 24 24,000

SECTEUR 2,3750 ,9237 24 24,000

Nat. demande ,5417 ,5090 24 24,000

LOC ,2500 ,4423 24 24,000

Cat_age 2,3333 ,4815 24 24,000

R1 2,5048 75,8677 166 166,000

R2 ,2347 ,7800 166 166,000

R3 1,5966 4,4820 166 166,000

R4 3,0688 20,1787 166 166,000

R5 ,2055 1,1021 166 166,000

R6 3,0340 20,0195 166 166,000

R7 2,6692 6,5083 166 166,000

R8 ,3288 ,3176 166 166,000

R9 ,2836 ,2726 166 166,000

R10 ,7888 ,8718 166 166,000

R11 4,136E-02 2,0619 166 166,000


Total
R12 3,3307 11,9634 166 166,000

R13 3,849E-02 5,429E-02 166 166,000

R14 ,1859 1,4278 166 166,000

R15 2,1102 9,9350 166 166,000

R16 4,4990 31,9310 166 166,000

R17 ,2961 ,2317 166 166,000

STATUT 2,1747 ,7383 166 166,000

SECTEUR 2,0241 ,9208 166 166,000

Nat. demande ,6506 ,4782 166 166,000

LOC ,2470 ,4326 166 166,000

Cat_age 2,5241 1,0882 166 166,000


Annexe B1 : TEST khi-deux

Tableau croisé Tests du Khi-deux

Effectif Signification
asymptotique
STATUT Valeur ddl (bilatérale)
SPA SARL EURL SNC Total Khi-deux de Pearson 11,516 a 9 ,242
CLASSE Saine 9 52 21 6 88 Rapport de
12,464 9 ,188
A problèmes potentiels 7 26 9 2 44 vraisemblance
Très risquées Association linéaire
9 25 9 4 47 4,229 1 ,040
par linéaire
Compromise 10 13 7 30 Nombre d'observations
Total 35 116 46 12 209 209
valides
a. 3 cellules (18,8%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de 1,72.

Tableau croisé Tests du Khi-deux

Effectif Signification
asymptotique
SECT Valeur ddl (bilatérale)
BT P Services Industrie Total Khi-deux de Pearson 7,270 a 6 ,297
CLASSE Saine 36 17 35 88 Rapport de
7,364 6 ,288
A problèmes potentiels 17 6 21 44 vraisemblance
Très risquées Association linéaire
15 9 23 47 5,165 1 ,023
par linéaire
Compromise 7 3 20 30 Nombre d'observations
Total 75 35 99 209 209
valides
a. 0 cellules (,0%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de 5,02.

Tableau croisé Tests du Khi-deux

Effectif Signification
asymptotique
DEM
Valeur ddl (bilatérale)
Nouveau Renouvell Khi-deux de Pearson 12,146 a 3 ,007
crédit emnt Total Rapport de
CLASSE Saine 28 60 88 12,133 3 ,007
vraisemblance
A problèmes potentiels 15 29 44 Association linéaire
10,181 1 ,001
Très risquées 27 20 47 par linéaire
Compromise 17 13 30 Nombre d'observations
209
Total valides
87 122 209
a. 0 cellules (,0%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de 12,49.

Tableau croisé Tests du Khi-deux

Effectif Signification
asymptotique
LOC Valeur ddl (bilatérale)
Autre Alger Total Khi-deux de Pearson 8,656 a 3 ,034
CLASSE Saine 76 12 88 Rapport de
8,766 3 ,033
A problèmes potentiels 30 14 44 vraisemblance
Très risquées 32 15 47 Association linéaire
2,594 1 ,107
par linéaire
Compromise 24 6 30
Nombre d'observations
Total 162 47 209 valides
209

a. 0 cellules (,0%) ont un effectif théorique inférieur à 5.


L'effectif théorique minimum est de 6,75.

Tableau croisé Tests du Khi-deux

Effectif Signification
asymptotique
CAT_AGE
Valeur ddl (bilatérale)
[ 1 - 5[ ans [ 5 - 10[ ans [10 - 20[ ans [15 - 20[ ans + 20 ans Total Khi-deux de Pearson 17,862 a 12 ,120
CLASSE Saine 15 49 9 4 11 88 Rapport de
A problèmes potentiels 4 26 8 1 5 44 23,050 12 ,027
vraisemblance
Très risquées 10 25 7 5 47 Association linéaire
,842 1 ,359
Compromise 1 21 8 30 par linéaire
Total 30 121 32 5 21 209 Nombre d'observations
209
valides
a. 9 cellules (45,0%) ont un effectif théorique inférieur à 5.
L'effectif théorique minimum est de ,72.

Source : SPSS
Annexe B2 : TEST-T

Statistiques sur échantillon unique

Erreur
standard
N M oyenne Ecart-type m oyenne
R1 209 274,8995 6763,3726 467,8323
R2 209 24,4785 72,9573 5,0466
R3 209 164,0766 450,5092 31,1624
R4 209 341,5598 1980,5920 137,0004
R5 209 21,0335 102,1202 7,0638
R6 209 277,3206 1855,8836 128,3742
R7 209 243,9139 585,6947 40,5133
R8 209 32,6651 30,7753 2,1288
R9 209 29,0766 26,5535 1,8367
R10 209 72,6507 80,6956 5,5818
R11 209 8,1579 184,0529 12,7312
R12 209 329,1435 1277,1357 88,3413
R13 209 3,9809 5,5970 ,3872
R14 209 15,9378 140,2081 9,6984
R15 209 178,4306 888,4401 61,4547
R16 209 376,0431 2848,0725 197,0053
R17 209 31,1148 23,9490 1,6566

Test sur échantillon unique

Valeur du test = 0
Intervalle de confiance
Sig. Différence 95% de la différence
t ddl (bilatérale) moyenne Inférieure Supérieure
R1 ,588 208 ,557 274,8995 -647,4012 1197,2003
R2 4,851 208 ,000 24,4785 14,5295 34,4274
R3 5,265 208 ,000 164,0766 102,6420 225,5111
R4 2,493 208 ,013 341,5598 71,4724 611,6472
R5 2,978 208 ,003 21,0335 7,1077 34,9593
R6 2,160 208 ,032 277,3206 24,2393 530,4018
R7 6,021 208 ,000 243,9139 164,0445 323,7833
R8 15,345 208 ,000 32,6651 28,4683 36,8618
R9 15,830 208 ,000 29,0766 25,4555 32,6976
R10 13,016 208 ,000 72,6507 61,6465 83,6549
R11 ,641 208 ,522 8,1579 -16,9408 33,2566
R12 3,726 208 ,000 329,1435 154,9844 503,3027
R13 10,282 208 ,000 3,9809 3,2176 4,7441
R14 1,643 208 ,102 15,9378 -3,1820 35,0576
R15 2,903 208 ,004 178,4306 57,2767 299,5845
R16 1,909 208 ,058 376,0431 -12,3400 764,4261
R17 18,783 208 ,000 31,1148 27,8490 34,3807

Source : SPSS
Annexe B3 : Diagnostic des observations pour l’échantillon de construction (méthode de l‘ADL)

C M B : Carré de la distance. de Mahalanobis au barycentre


Groupe
effectif Plus grand groupe Deuxième plus grand groupe Scores discriminants
Groupe P(G=g |
prévu P(D>d G=g) D=d) CMB Groupe P(G=g | D=d) CMB Fonction 1 Fonction 2 Fonction 3
1 1 1 0,68 3 0,99 1,52 3 0,01 9,98 -0,53 0,03 -0,94
2 1 1 0,75 3 0,93 1,23 4 0,06 4,43 -0,19 -0,54 0,16
3 1 1 0,03 3 1,00 8,62 4 0,00 25,18 0,22 -2,06 -3,38
4 1 1 0,72 3 0,99 1,35 3 0,00 11,56 -0,52 -0,30 -1,30
5 1 1 0,02 3 0,63 10,35 4 0,37 9,30 3,03 -2,59 -0,50
6 1 1 0,69 3 0,76 1,48 4 0,23 1,70 0,69 -1,24 0,33
7 1 1 0,54 3 0,65 2,16 4 0,34 1,30 0,60 -0,95 0,69
8 1 1 0,74 3 0,98 1,24 2 0,01 10,03 -0,32 0,08 -0,64
9 1 1 0,93 3 1,00 0,43 4 0,00 9,86 0,33 -0,76 -1,40
10 1 1 0,92 3 0,92 0,50 4 0,08 3,34 0,46 -1,08 -0,12
11 1 4 ** 0,97 3 0,76 0,22 1 0,24 4,69 0,93 -1,20 1,30
12 1 1 0,68 3 1,00 1,53 3 0,00 12,50 -0,44 -0,22 -1,49
13 1 1 0,42 3 0,73 2,84 2 0,21 3,92 0,77 0,48 0,32
14 1 1 0,67 3 0,77 1,56 4 0,22 1,89 0,48 -0,88 0,49
15 1 1 0,89 3 1,00 0,62 4 0,00 9,38 0,62 -1,07 -1,44
16 1 1 0,61 3 0,99 1,84 4 0,01 9,56 1,28 -1,44 -1,53
17 1 4** 0,89 3 0,98 0,62 1 0,02 10,15 0,82 -1,52 2,31
18 1 1 0,53 3 0,99 2,23 4 0,01 9,71 1,40 -1,53 -1,54
19 1 1 0,09 3 0,82 6,47 2 0,15 8,55 -0,42 1,60 -1,23
20 1 1 0,93 3 1,00 0,43 4 0,00 10,05 0,21 -0,62 -1,36
21 1 1 0,91 3 0,99 0,56 4 0,00 9,37 0,67 -0,94 -1,43
22 1 1 0,58 3 0,99 1,98 3 0,01 9,90 -0,69 0,01 -1,22
23 1 1 0,92 3 1,00 0,48 4 0,00 9,70 0,35 -0,93 -1,42
24 1 1 0,59 3 0,77 1,91 4 0,23 2,17 0,18 -0,79 0,62
25 1 1 0,26 3 0,98 4,04 4 0,02 10,21 1,68 -2,10 -1,53
26 1 1 0,83 3 0,97 0,90 4 0,03 6,07 -0,37 -0,56 -0,23
27 1 1 0,87 3 0,99 0,73 4 0,00 9,41 0,68 -1,14 -1,47
28 1 1 0,63 3 0,86 1,73 4 0,14 3,17 -0,23 -1,21 0,32
29 1 1 0,79 3 0,92 1,05 4 0,07 3,97 0,07 -0,48 0,18
30 1 1 0,71 3 0,99 1,39 3 0,01 9,82 -0,59 -0,13 -0,91
31 1 1 0,32 3 0,81 3,50 2 0,19 5,04 1,94 0,18 -1,21
32 1 1 0,96 3 0,96 0,28 4 0,04 4,70 0,13 -0,88 -0,31
33 1 1 0,94 3 0,99 0,40 4 0,01 8,36 -0,12 -0,41 -0,84
34 1 4** 0,82 3 0,55 0,92 1 0,45 3,45 1,29 -1,62 0,63
35 1 1 0,66 3 0,99 1,62 3 0,00 11,78 -0,42 0,00 -1,35
36 1 1 0,34 3 0,99 3,38 4 0,01 10,44 1,72 -1,71 -1,60
37 1 1 0,71 3 0,97 1,39 4 0,03 6,52 1,31 -1,46 -0,98
38 1 4** 0,94 3 0,70 0,41 1 0,30 4,27 1,14 -1,69 0,94
39 1 1 0,45 3 0,97 2,66 3 0,03 8,51 -0,88 0,17 -1,16
40 1 1 0,48 3 0,99 2,49 4 0,01 9,88 1,50 -1,56 -1,55
41 1 1 0,45 3 0,60 2,65 4 0,39 1,37 0,30 -0,95 0,86
42 1 1 0,46 3 0,99 2,58 4 0,01 9,91 1,54 -1,56 -1,55
43 1 1 0,71 3 0,99 1,37 2 0,01 9,55 0,18 0,15 -1,45
44 1 1 0,88 3 1,00 0,67 4 0,00 10,84 -0,08 -0,53 -1,38
45 1 1 0,93 3 0,97 0,43 4 0,03 5,18 0,00 -0,61 -0,25
46 1 1 0,79 3 0,99 1,03 4 0,01 9,29 0,96 -1,20 -1,47
47 1 1 0,99 3 0,98 0,14 4 0,02 5,54 0,41 -1,13 -0,68
48 1 1 0,98 3 0,96 0,21 4 0,03 4,70 0,36 -0,67 -0,31
49 1 1 0,94 3 0,96 0,42 4 0,03 5,55 0,77 -0,34 -0,44
50 1 1 0,60 3 0,99 1,86 3 0,01 10,94 -0,49 0,15 -1,25
51 1 1 0,93 3 1,00 0,45 4 0,00 9,80 0,26 -0,85 -1,40
52 1 1 0,93 3 1,00 0,44 4 0,00 9,52 0,48 -0,85 -1,40
53 1 1 0,69 3 0,99 1,47 3 0,00 11,79 -0,46 -0,16 -1,35
54 1 1 0,54 3 0,95 2,15 4 0,05 5,74 1,51 -1,72 -0,79
55 1 1 0,99 3 0,99 0,13 4 0,01 7,69 0,59 -0,65 -1,03
56 1 1 0,31 3 0,98 3,57 4 0,01 10,28 2,08 -1,24 -1,45
57 1 1 0,93 3 1,00 0,46 4 0,00 10,21 0,27 -0,55 -1,39
58 1 1 0,87 3 0,98 0,72 4 0,02 6,78 -0,38 -0,62 -0,43
59 1 1 0,38 3 0,95 3,11 3 0,05 7,78 -1,09 0,07 -1,22
60 1 1 0,93 3 1,00 0,46 4 0,00 9,55 0,49 -0,87 -1,41
61 1 1 0,99 3 0,98 0,10 4 0,02 6,32 0,10 -0,88 -0,69
62 1 1 0,18 3 0,64 4,91 4 0,36 3,96 -0,46 -2,40 0,48
63 1 1 0,73 3 0,99 1,29 3 0,00 11,97 -0,35 -0,06 -1,25
64 1 1 0,98 3 0,99 0,20 4 0,01 8,29 0,03 -0,63 -0,99
65 1 1 0,41 3 0,51 2,89 4 0,48 0,87 0,80 -0,96 0,89
66 1 1 0,86 3 0,99 0,76 4 0,01 8,86 0,83 -1,17 -1,39
67 1 1 0,40 3 0,96 2,96 3 0,03 8,37 -0,96 0,18 -1,24
68 1 1 0,66 3 0,99 1,59 4 0,01 9,45 1,14 -1,43 -1,52
69 1 1 0,67 3 0,99 1,57 3 0,00 11,82 -0,44 -0,05 -1,36
70 1 1 0,34 3 0,77 3,34 2 0,21 4,60 0,25 0,88 0,02
71 2 2 0,92 3 0,99 0,49 1 0,01 11,18 1,62 2,00 0,66
72 2 2 0,92 3 0,99 0,49 1 0,01 11,18 1,62 2,00 0,66
73 2 1** 0,61 3 0,94 1,80 2 0,06 6,01 0,81 0,41 -1,24
74 2 2 0,25 3 1,00 4,08 1 0,00 23,89 2,62 3,58 -0,85
75 2 1** 0,38 3 0,80 3,10 2 0,20 4,52 0,30 0,93 -0,29
76 2 2 0,78 3 1,00 1,10 1 0,00 17,42 3,10 2,28 0,14
77 2 2 0,13 3 1,00 5,71 1 0,00 32,36 3,11 4,07 0,49
78 2 2 0,30 3 1,00 3,66 1 0,00 27,23 3,21 3,48 0,37
79 2 2 0,40 3 0,56 2,95 1 0,44 4,82 1,29 1,20 -1,13
80 2 1** 0,52 3 0,82 2,27 4 0,10 4,29 0,57 0,12 0,45
81 2 2 0,40 3 0,56 2,96 1 0,44 4,80 1,28 1,20 -1,13
82 2 2 0,39 3 0,83 3,00 4 0,10 6,43 2,31 0,57 1,25
83 2 2 0,55 3 0,99 2,13 4 0,00 12,29 2,80 1,42 1,37
84 2 2 0,54 3 1,00 2,16 4 0,00 16,64 2,88 2,04 1,43
85 2 2 0,02 3 1,00 9,96 1 0,00 41,53 3,42 4,37 1,68
86 2 2 0,34 3 1,00 3,33 4 0,00 20,94 2,83 2,61 1,72
87 2 2 0,60 3 0,99 1,89 1 0,01 12,67 2,65 1,96 -1,08
88 2 2 0,58 3 0,71 1,95 1 0,28 5,24 0,90 1,23 0,23
89 2 1** 0,32 3 0,67 3,47 2 0,32 3,54 0,54 1,05 -0,36
90 2 2 0,34 3 1,00 3,33 4 0,00 21,00 2,79 2,63 1,72
91 2 2 0,60 3 0,99 1,88 1 0,01 12,53 2,64 1,95 -1,08
92 2 2 0,35 3 1,00 3,28 4 0,00 20,82 2,78 2,62 1,72
93 2 2 0,54 3 1,00 2,16 4 0,00 16,64 2,88 2,04 1,43
94 2 2 0,42 3 0,89 2,83 1 0,11 8,49 2,87 0,77 -0,79
95 2 1** 0,66 3 0,89 1,59 2 0,08 5,11 0,64 0,21 0,00
96 2 2 0,88 3 1,00 0,67 1 0,00 15,89 2,21 2,71 -0,03
97 2 2 0,10 3 0,49 6,25 4 0,48 5,55 2,16 0,38 2,16
98 2 2 0,00 3 1,00 25,28 1 0,00 69,25 5,44 5,56 1,19
99 2 2 0,36 3 0,87 3,21 1 0,13 8,33 2,65 0,96 -1,23
100 2 2 0,55 3 0,80 2,10 1 0,20 6,24 0,77 1,66 -0,28
101 2 2 0,00 3 1,00 21,84 1 0,00 60,76 3,91 6,18 -0,49
102 2 2 0,38 3 0,85 3,05 1 0,15 7,91 2,54 0,98 -1,22
103 2 2 0,57 3 0,83 2,02 1 0,11 7,51 1,93 0,74 0,95
104 2 1** 0,58 3 0,97 1,94 2 0,03 7,78 0,13 0,53 -1,19
105 2 1** 0,46 3 0,95 2,59 2 0,05 7,29 -0,13 0,76 -0,76
106 3 3 0,67 3 0,98 1,55 1 0,02 10,19 -2,52 0,55 -0,63
107 3 3 0,74 3 0,97 1,27 1 0,03 9,53 -2,46 0,31 -0,29
108 3 3 0,96 3 1,00 0,31 1 0,00 13,41 -2,88 0,69 0,03
109 3 3 0,63 3 1,00 1,71 1 0,00 20,46 -3,74 1,05 -0,96
110 3 3 0,45 3 0,82 2,67 1 0,18 7,00 -2,00 0,34 -0,55
111 3 3 0,88 3 1,00 0,66 1 0,00 13,27 -2,64 0,94 0,34
112 3 3 0,20 3 1,00 4,59 1 0,00 35,28 -5,40 -0,08 0,38
113 3 3 0,82 3 1,00 0,91 1 0,00 15,39 -3,03 1,13 -0,50
114 3 3 0,48 3 1,00 2,45 1 0,00 31,19 -4,35 1,44 1,21
115 3 3 0,78 3 1,00 1,09 1 0,00 13,51 -3,21 -0,11 -0,44
116 3 1** 0,64 3 0,77 1,68 4 0,23 1,93 0,24 -1,11 0,49
117 3 3 0,92 3 1,00 0,50 1 0,00 22,77 -3,78 1,22 0,42
118 3 3 0,01 3 1,00 11,04 1 0,00 48,98 -4,99 1,76 2,94
119 3 3 0,33 3 1,00 3,44 1 0,00 20,52 -2,67 2,37 0,39
120 3 3 0,30 3 1,00 3,64 1 0,00 35,68 -4,73 1,52 1,30
121 3 3 0,93 3 1,00 0,43 1 0,00 13,37 -2,75 0,73 0,36
122 3 3 0,23 3 0,60 4,36 1 0,40 6,42 -1,96 0,09 -1,16
123 3 3 0,91 3 1,00 0,53 1 0,00 16,58 -3,01 0,81 0,85
124 3 3 0,09 3 1,00 6,38 1 0,00 26,30 -4,43 -1,57 0,80
125 3 3 0,41 3 0,93 2,87 1 0,07 9,32 -2,38 0,45 -1,10
126 3 3 0,39 3 0,90 3,04 1 0,10 8,65 -1,85 1,11 -0,43
127 3 3 0,77 3 1,00 1,15 1 0,00 26,04 -4,12 1,44 0,14
128 3 3 0,10 3 1,00 6,36 1 0,00 26,72 -4,47 -1,55 0,81
129 3 3 0,91 3 1,00 0,56 1 0,00 23,16 -3,82 1,25 0,43
130 3 3 0,01 3 1,00 11,32 1 0,00 48,63 -4,96 1,50 3,10
131 3 3 0,02 3 1,00 9,48 1 0,00 46,47 -5,69 0,08 2,21
132 3 3 0,66 3 1,00 1,60 1 0,00 28,60 -4,31 1,09 1,01
133 3 3 0,37 3 1,00 3,14 1 0,00 33,46 -4,46 1,68 1,22
134 3 3 0,77 3 1,00 1,15 1 0,00 26,04 -4,12 1,44 0,14
135 3 3 0,39 3 1,00 2,99 1 0,00 27,99 -4,34 1,59 -0,86
136 3 3 0,82 3 1,00 0,90 1 0,00 19,21 -3,54 0,10 0,99
137 3 1 0,24 3 0,89 4,21 3 0,11 7,12 -1,53 -0,38 -1,36
138 3 3 0,55 3 1,00 2,10 1 0,00 23,20 -3,95 1,32 -0,93
139 3 3 0,60 3 0,92 1,85 1 0,08 8,08 -2,28 -0,02 -0,13
140 3 1** 0,24 3 0,89 4,20 3 0,11 7,12 -1,53 -0,37 -1,36
141 3 3 0,39 3 1,00 2,99 1 0,00 27,99 -4,34 1,59 -0,86
142 3 3 0,82 3 1,00 0,90 1 0,00 19,21 -3,54 0,10 0,99
143 4 1** 0,58 3 0,77 1,96 4 0,21 2,47 0,59 -0,41 0,59
144 4 1** 0,58 3 0,77 1,96 4 0,21 2,47 0,59 -0,41 0,59
145 4 1** 0,57 3 0,79 2,03 4 0,19 2,75 0,46 -0,33 0,60
146 4 4 0,15 3 1,00 5,25 1 0,00 19,17 2,87 -2,66 2,32
147 4 1** 0,67 3 0,77 1,56 4 0,23 1,84 0,38 -1,07 0,46
148 4 1** 0,67 3 0,77 1,56 4 0,23 1,84 0,38 -1,07 0,46
149 4 4 1,00 3 0,88 0,03 1 0,12 6,17 1,08 -1,43 1,54
150 4 4 0,97 3 0,75 0,22 1 0,25 4,60 0,82 -1,24 1,30
151 4 4 0,78 3 0,98 1,11 1 0,02 11,61 0,69 -1,55 2,55
152 4 1** 0,50 3 0,61 2,34 4 0,39 1,07 0,92 -1,40 0,53
153 4 1** 0,52 3 0,61 2,27 4 0,38 1,08 0,88 -1,37 0,54
154 4 4 0,09 3 1,00 6,53 1 0,00 22,14 1,00 -3,83 2,77
155 4 4 0,76 3 0,99 1,15 1 0,01 11,97 1,78 -1,99 2,17
156 4 4 0,84 3 0,99 0,84 1 0,01 11,63 1,45 -1,82 2,31
157 4 1** 0,63 3 0,77 1,73 4 0,23 2,02 0,21 -0,98 0,53
158 4 4 0,09 3 1,00 6,40 1 0,00 21,92 0,95 -3,79 2,78
159 4 4 0,88 3 0,98 0,67 1 0,02 11,00 1,16 -1,65 2,35
160 4 1** 0,63 3 0,77 1,73 4 0,23 2,02 0,21 -0,98 0,53
161 4 4 0,70 3 0,99 1,41 1 0,01 13,71 1,31 -1,95 2,63
162 4 4 0,87 3 0,98 0,73 1 0,02 11,02 1,29 -2,13 2,14
163 4 4 0,81 3 0,99 0,96 1 0,01 11,83 1,51 -2,09 2,22
164 4 4 0,39 3 0,97 3,02 2 0,02 11,77 2,21 -0,68 2,42
165 4 1** 0,53 3 0,70 2,22 4 0,30 1,76 0,15 -1,05 0,69
166 4 4 0,88 3 0,98 0,66 1 0,02 10,83 1,22 -2,09 2,15
** Observation mal classée
Source :SPSS
Annexe C1 : Résultats du réseau neuronal N°1
Les résultats de l’échantillon test pour N= 7
Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
(7 neurones) 1 0.9998 1 0.9814 1 1.0000 1 0.9919
1 1.0000 1 1.0000 1 1.0000 1 0.9965
1 1.0000 1 0.9956 1 1.0000 1 0.9995
1 1.0000 1 0.9996 1 0.9035 1 0.9971
Classe 1 1 1.0000 1 1.0000 1 1.0000 1 0.9964
1 0.9976 1 0.9942 1 1.0000 1 1.0000
1 1.0000 1 0.9984 1 0.9673 1 0.8428
Classe 2 1 1.0000 1 0.5465 1 1.0000 1 1.0000
1 0.0096 1 0.9768 1 1.0000 1 1.0000
22 neurones 1 1.0000 1 0.0000 1 1.0000 1 0.0000
Classe 3 1 1.0000 1 0.0027 1 1.0000
1 0.8524 1 0.9999 1 1.0000
1 1.0000 1 0.0019 1 1.0000
Classe 4 1 1.0000 1 0.0055 1 0.9999
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 0.0044
1 0.6384 1 1.0000 1 0.9869
1 1.0000 1 1.0000 1 0.9994
Courbe d’apprentissage 1 0.0008 1 0.0043
Performance is 0.00999866, Goal is 0.01
1 1.0000
3
10 1 0.9997
1 1.0000
2
10
1 0.9995
1 0.1297
1
1 1.0000
10
1 0.9999
Training-Blue Goal-Black

1 0.9989
0
10 1 0.0080
1 0.0001
-1
10
1 1.0000
1 0.9998
-2
1 1.0000
10 1 0.9738
1 0.9997
-3
10 1 1.0000
0 1 2 3 4 5 6 7 8
86194 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab

Les résultats de l’échantillon test pour N= 10


Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
(10 neurones) 1 1.0000 1 0.9677 1 1.0000 1 1.0000
1 0.2472 1 1.0000 1 1.0000 1 0.9939
1 0.9805 1 0.9999 1 1.0000 1 0.9981
1 0.9978 1 1.0000 1 0.7282 1 0.9887
1 0.9996 1 1.0000 1 1.0000 1 0.9938
Classe 1 1 0.5906 1 0.9999 1 1.0000 1 0.9999
1 1.0000 1 0.9992 1 0.7066 1 0.9998
1 1.0000 1 0.0121 1 1.0000 1 1.0000
Classe 2 1 0.8643 1 0.2799 1 1.0000 1 1.0000
1 1.0000 1 0.0002 1 1.0000 1 0.0007
22 neurones
1 0.9999 1 0.9990 1 0.9987
Classe 3 1 0.9391 1 0.9120 1 1.0000
1 1.0000 1 0.9987 1 0.9986
1 1.0000 1 0.9809 1 0.9981
Classe 4
1 0.9991 1 1.0000 1 0.9982
1 1.0000 1 1.0000 1 0.7334
1 0.2112 1 1.0000 1 1.0000
1 0.9990 1 1.0000 1 0.9988
Courbe d’apprentissage 1 0.0001 1 0.7311
1 0.9992
10
3
Performance is 0.0099984, Goal is 0.01 1 0.9793
1 0.9999
2
1 0.0675
10
1 0.9899
1 0.9929
1
10 1 0.9991
1 0.9992
Training-Blue Goal-Black

10
0
1 0.5995
1 0.0005
10
-1 1 1.0000
1 1.0000
-2
1 1.0000
10
1 0.9999
1 0.9982
-3
10
0 1 2 3 4 5 6 7
1 0.9999
75206 Epochs
x 10
4
Source : Résultats fournis par le programme Credit1 développé sous Matlab
Les résultats de l’échantillon test pour N= 11
Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
(11 neurones) 1 0.9999 1 0.9997 1 1.0000 1 0.5571
1 0.9801 1 1.0000 1 0.9998 1 0.9988
1 1.0000 1 0.9994 1 1.0000 1 0.4231
1 1.0000 1 0.9944 1 0.5009 1 0.9894
Classe 1 1 1.0000 1 1.0000 1 1.0000 1 0.9988
1 1.0000 1 0.9993 1 1.0000 1 0.7706
1 1.0000 1 0.9892 1 0.0740 1 0.9854
Classe 2 1 1.0000 1 0.0084 1 0.9998 1 1.0000
1 0.9143 1 0.3892 1 1.0000 1 1.0000
22 neurones 1 0.9984 1 0.0001 1 0.9998 1 0.0080
Classe 3 1 0.9968 1 0.9858 1 0.9994
1 0.9986 1 0.9848 1 1.0000
1 1.0000 1 0.9814 1 0.9993
Classe 4 1 0.9992 1 0.9785 1 0.9999
1 1.0000 1 1.0000 1 0.9990
1 1.0000 1 1.0000 1 0.8855
1 0.0116 1 1.0000 1 1.0000
Courbe d’apprentissage 1 1.0000 1 1.0000 1 0.9999
Performance is 0.00999886, Goal is 0.01
1 0.0001 1 0.8828
3
10 1 1.0000
1 1.0000
2
1 1.0000
10
1 0.0022
1 0.1556
1
10 1 0.9793
1 0.9971
Training-Blue Goal-Black

0
1 0.9998
10
1 0.3743
1 0.0020
-1
10 1 1.0000
1 1.0000
-2
1 1.0000
10
1 0.9988
1 0.8890
-3
10 1 0.9931
0 1 2 3 4 5
57933 Epochs
Source : Résultats fournis par le programme Credit1 développé sous Matlab
4
x 10

Les résultats de l’échantillon test pour N= 12


Couche d'entrée couche cachée couche de sortie Classe 1 Classe 2 Classe 2 Classe 4
(12 neurones) Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 1.0000 1 0.8737 1 1.0000 1 0.5097
1 0.9988 1 1.0000 1 0.9932 1 0.9976
1 0.9990 1 0.9472 1 1.0000 1 0.9826
1 0.9998 1 0.9962 1 0.9621 1 0.9910
Classe 1 1 0.9992 1 1.0000 1 0.9999 1 0.9976
1 0.6843 1 0.9378 1 1.0000 1 0.9998
1 1.0000 1 0.9991 1 0.9697 1 0.4526
Classe 2 1 1.0000 1 0.0138 1 0.9932 1 1.0000
1 0.7384 1 0.8101 1 1.0000 1 1.0000
22 neurones
1 0.9999 1 0.0000 1 0.9878 1 0.0005
Classe 3 1 0.9977 1 0.9999 1 0.9820
1 0.9973 1 0.9930 1 1.0000
1 1.0000 1 0.9998 1 0.9811
Classe 4
1 0.9987 1 0.9998 1 0.9959
1 0.9998 1 1.0000 1 0.9533
1 0.9989 1 1.0000 1 0.9990
1 0.0227 1 1.0000 1 1.0000
1 0.9973 1 1.0000 1 1.0000
Courbe d’apprentissage 1 0.0002 1 0.9990
3
Performance is 0.00999781, Goal is 0.01 1 0.9994
10
1 0.9957
1 0.9994
2
10 1 0.1072
1 0.1297
1
1 0.0023
10
1 0.9773
Training-Blue Goal-Black

1 1.0000
0
10 1 0.2972
1 0.0011
-1
1 0.9992
10
1 0.9999
1 0.9172
-2
10
1 1.0000
1 0.9999
-3
1 0.9940
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
48737 Epochs
x 10
4
Source : Résultats fournis par le programme Credit1 développé sous Matlab
Les résultats de l’échantillon test pour N= 13
Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
(13 neurones) 1 0.9966 1 0.9959 1 1.0000 1 0.0854
1 0.9982 1 1.0000 1 1.0000 1 0.9965
1 0.9798 1 0.9992 1 1.0000 1 0.8277
1 0.9999 1 0.9995 1 0.9758 1 0.9949
Classe 1 1 0.9999 1 1.0000 1 0.9999 1 0.9964
1 0.9972 1 0.9991 1 0.9999 1 0.9848
1 1.0000 1 0.9999 1 0.4948 1 0.0446
Classe 2 1 1.0000 1 0.0042 1 1.0000 1 1.0000
1 0.1903 1 0.0662 1 1.0000 1 0.9999
22 neurones 1 1.0000 1 0.0000 1 0.9359 1 0.0000
Classe 3 1 0.9987 1 0.9861 1 0.9994
1 0.9425 1 0.6263 1 1.0000
1 1.0000 1 0.9830 1 0.9994
Classe 4 1 1.0000 1 0.9995 1 1.0000
1 1.0000 1 1.0000 1 0.9988
1 1.0000 1 1.0000 1 0.5451
1 0.8052 1 1.0000 1 1.0000
1 0.9908 1 1.0000 1 0.9962
Courbe d’apprentissage 1 0.0000 1 0.5419
Performance is 0.00999873, Goal is 0.01
3
10
1 0.9998
1 1.0000
1 0.9999
2
10 1 0.0011
1 0.3114
1
10
1 0.9975
1 0.9894
Training-Blue Goal-Black

1 1.0000
0
10 1 0.3642
1 0.0000
-1 1 1.0000
10
1 1.0000
1 1.0000
-2
10 1 0.9953
1 0.9928
-3 1 0.9994
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
51297 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab

Les résultats de l’échantillon test pour N= 15


Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
(15 neurones) 1 0.9891 1 0.9996 1 1.0000 1 0.9991
1 0.9937 1 1.0000 1 1.0000 1 0.9049
1 0.9824 1 0.9891 1 0.9971 1 0.4165
1 0.9999 1 0.9841 1 0.9357 1 0.9922
1 0.9999 1 1.0000 1 1.0000 1 0.9043
Classe 1 1 0.8278 1 0.9878 1 0.9998 1 0.5162
1 1.0000 1 0.9952 1 0.0194 1 0.9988
1 1.0000 1 0.4945 1 1.0000 1 1.0000
Classe 2 1 0.3813 1 0.7327 1 0.9971 1 0.9987
1 1.0000 1 0.0002 1 0.9921 1 0.0009
22 neurones
1 0.9996 1 0.9976 1 0.9976
Classe 3 1 0.9990 1 0.9974 1 1.0000
1 1.0000 1 0.9969 1 0.9974
1 1.0000 1 0.9576 1 0.9999
Classe 4
1 1.0000 1 1.0000 1 0.9982
1 1.0000 1 0.9997 1 0.9970
1 0.2084 1 1.0000 1 1.0000
1 0.9989 1 1.0000 1 0.9998
1 0.0000 1 0.9969
Courbe d’apprentissage 1 0.9986
10
3
Performance is 0.00999922, Goal is 0.01
1 0.9911
1 0.9996
1 0.0005
2
10 1 0.1081
1 0.2573
1 1 0.9985
10
1 1.0000
Training-Blue Goal-Black

1 0.0784
0
10 1 0.0000
1 1.0000
-1 1 1.0000
10
1 0.9998
1 0.9673
-2
10 1 0.9249
1 0.9998
10
-3
Source : Résultats fournis par le programme Credit1 développé sous Matlab
0 0.5 1 1.5 2 2.5 3 3.5 4
41869 Epochs 4
x 10
Les résultats de l’échantillon test pour N= 16
Couche d'entrée couche cachée couche de sortie Classe 1 Classe 2 Classe 2 Classe 4
(16 neurones) Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 0.9348 1 0.9990 1 0.9999 1 0.9999
1 0.4596 1 1.0000 1 0.9977 1 0.9991
1 0.9813 1 0.9877 1 0.9924 1 0.9228
1 0.9867 1 0.9979 1 0.9945 1 0.9910
Classe 1 1 1.0000 1 1.0000 1 0.9984 1 0.9991
1 0.9700 1 0.9861 1 1.0000 1 0.9998
1 1.0000 1 0.9988 1 0.6615 1 0.9987
Classe 2 1 1.0000 1 0.0563 1 0.9977 1 1.0000
1 0.7716 1 0.5830 1 0.9924 1 1.0000
22 neurones
1 0.9954 1 0.0000 1 0.9999 1 0.0000
Classe 3 1 1.0000 1 1.0000 1 0.9999
1 1.0000 1 0.9888 1 1.0000
1 1.0000 1 1.0000 1 0.9999
Classe 4
1 1.0000 1 0.9998 1 0.9996
1 1.0000 1 1.0000 1 0.9992
1 0.9999 1 1.0000 1 0.9996
1 0.7219 1 1.0000 1 1.0000
1 0.9979 1 1.0000 1 1.0000
Courbe d’apprentissage 1 0.0000 1 0.9996
3
Performance is 0.00999991, Goal is 0.01 1 0.9944
10
1 0.9979
1 0.9997
2
10 1 0.0005
1 0.1663
1 1 0.5946
10
1 0.9963
Training-Blue Goal-Black

1 0.9998
0
10 1 0.7941
1 0.0001
-1 1 0.9999
10
1 0.9999
1 1.0000
-2
10 1 0.9256
1 0.9998
-3
10
1 0.9994
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
46844 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab

Les résultats de l’échantillon test pour N= 17


Couche d'entrée couche cachée couche de sortie Classe 1 Classe 2 Classe 2 Classe 4
(17 neurones) Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 0.9994 1 0.9936 1 0.9999 1 0.0050
1 0.9980 1 1.0000 1 0.9999 1 0.9999
1 0.9988 1 0.9857 1 1.0000 1 0.4501
Classe 1 1 1.0000 1 0.9979 1 0.9424 1 0.9945
1 1.0000 1 1.0000 1 0.9996 1 0.9999
1 0.9771 1 0.9826 1 0.9988 1 0.9713
Classe 2 1 1.0000 1 0.9599 1 0.5629 1 0.2388
1 1.0000 1 0.6465 1 0.9999 1 1.0000
22 neurones
1 0.1569 1 0.9611 1 1.0000 1 1.0000
Classe 3 1 0.9815 1 0.0069 1 0.9603 1 0.8498
1 1.0000 1 0.9725 1 0.6285
1 0.3402 1 0.9994 1 0.9998
Classe 4
1 1.0000 1 0.9686 1 0.6152
1 1.0000 1 0.9770 1 0.9966
1 1.0000 1 1.0000 1 0.6879
1 1.0000 1 0.9999 1 0.8930
Courbe d’apprentissage 1 0.9944 1 1.0000 1 0.9948
3
Performance is 0.00999922, Goal is 0.01 1 0.9964 1 1.0000 1 0.2442
10
1 0.0015 1 0.8917
1 0.9999
2 1 1.0000
10
1 0.9997
1 0.9863
10
1 1 0.9887
1 0.9989
Training-Blue Goal-Black

1 0.9999
10
0
1 1.0000
1 0.7945
-1
1 0.0000
10 1 1.0000
1 0.9993
-2
1 1.0000
10
1 0.9999
1 0.9999
10
-3 1 1.0000
0 0.5 1 1.5 2 2.5 3 3.5 4
41559 Epochs
x 10
4 Source : Résultats fournis par le programme Credit1 développé sous Matlab
Annexe C2 : Résultats du réseau neuronal N°2
Les résultats de l’échantillon test pour N = 9
Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 1.0000 1 0.9997 1 1.0000 1 0.3365
R2 1 1.0000 1 1.0000 1 1.0000 1 0.0137
1 1.0000 1 0.8850 1 1.0000 1 0.0015
Classe 1 1 1.0000 1 1.0000 1 0.5087 1 0.9708
1 1.0000 1 1.0000 1 1.0000 1 0.0137
R3
1 0.5950 1 0.9053 1 1.0000 1 0.0010
Classe 2 1 1.0000 1 1.0000 1 0.4906 1 0.3175
1 1.0000 1 0.9828 1 1.0000 1 0.0000
7 neurones 1 0.0000 1 0.9691 1 1.0000 1 0.0000
Classe 3 1 0.7567 1 0.0130 1 1.0000 1 0.0000
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 0.9870 1 1.0000
Classe 4 1 1.0000 1 1.0000 1 1.0000
R16 1 0.3456 1 1.0000 1 0.9969
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 0.9747
Courbe d’apprentissage 1 0.9937 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 1.0000
Performance is 0.499996, Goal is 0.5
3
10
1 1.0000 1 0.9731
1 1.0000
1 0.9999
1 1.0000
2
10
1 0.2051
1 0.1644
1 1.0000
1 1.0000
Training-Blue Goal-Black

1
10
1 0.8064
1 0.0001
1 0.0404
1 1.0000
0
10
1 1.0000
1 1.0000
1 1.0000
1 0.0000
-1
10
1 1.0000
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
203759 Epochs 5
x 10
Source : Résultats fournis par le programme Credit2 développé sous Matlab

Les résultats de l’échantillon test pour N = 10


Classe 1 Classe 2 Classe 2 Classe 4
Couche d'entrée couche cachée couche de sortie Réel Prévu Réel Prévu Réel Prévu Réel Prévu
1 1.0000 1 0.9751 1 1.0000 1 0.9340
R2 1 1.0000 1 0.9999 1 1.0000 1 1.0000
1 1.0000 1 0.9998 1 1.0000 1 0.0003
Classe 1 1 1.0000 1 1.0000 1 0.9733 1 0.9055
1 0.9480 1 0.9973 1 1.0000 1 1.0000
R3
1 0.2835 1 0.9998 1 1.0000 1 0.0002
Classe 2 1 1.0000 1 0.9986 1 0.9705 1 0.0901
1 0.9953 1 0.9105 1 1.0000 1 0.0000
7 neurones 1 0.0000 1 0.9974 1 1.0000 1 0.0000
Classe 3 1 0.9943 1 0.0000 1 1.0000 1 0.0002
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 0.9859 1 1.0000
Classe 4 1 1.0000 1 1.0000 1 1.0000
R16 1 0.9723 1 1.0000 1 0.9999
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 0.9999
1 0.9971 1 1.0000 1 1.0000
Courbe d’apprentissage 1 1.0000 1 1.0000 1 1.0000
1 0.9810 1 0.9999
1 1.0000
1 0.9341
1 1.0000
1 0.3755
1 0.9959
1 1.0000
1 0.9998
1 0.9574
1 0.9444
1 0.9604
1 0.9992
1 0.9997
1 0.9797
1 0.9996
1 0.0000
1 0.9917
Source : Résultats fournis par le programme Credit 2 développé sous Matlab
Performance is 0.0999979, Goal is 0.1
3
10

2
10

1
10
Training-Blue Goal-Black

0
10

-1
10

-2
10
0 0.5 1 1.5 2 2.5
255031 Epochs 5
x 10

Les résultats du réseau n°2 de l’échantillon test pour N = 11


Couche d'entrée couche cachée couche de sortie Classe 1 Classe 2 Classe 2 Classe 4
Réel Prévu Réel Prévu Réel Prévu Réel Prévu
R2 1 1.0000 1 0.8981 1 1.0000 1 0.9159
1 1.0000 1 1.0000 1 1.0000 1 0.0005
Classe 1 1 1.0000 1 0.9926 1 1.0000 1 0.0004
1 1.0000 1 1.0000 1 0.5525 1 0.9985
R3 1 1.0000 1 1.0000 1 1.0000 1 0.0005
Classe 2 1 0.0584 1 0.9939 1 1.0000 1 0.0002
1 1.0000 1 1.0000 1 0.5278 1 0.3393
7 neurones 1 1.0000 1 0.9882 1 1.0000 1 0.0000
Classe 3 1 0.0000 1 0.9928 1 1.0000 1 0.0000
1 0.9823 1 0.0371 1 1.0000 1 0.0000
1 1.0000 1 1.0000 1 1.0000
Classe 4 1 1.0000 1 0.9996 1 1.0000
R16 1 1.0000 1 1.0000 1 1.0000
1 0.0415 1 1.0000 1 0.9908
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 0.8141
1 0.9818 1 1.0000 1 1.0000
Courbe d’apprentissage 1 1.0000 1 1.0000 1 1.0000
3
Performance is 0.099996, Goal is 0.1 1 1.0000 1 0.8057
10
1 1.0000
1 0.9887
2
1 1.0000
10
1 0.0857
1 0.8444
1
1 1.0000
10
1 1.0000
Training-Blue Goal-Black

1 0.9551
0
1 0.0024
10 1 0.9932
1 1.0000
1 1.0000
-1
10 1 1.0000
1 1.0000
1 0.0000
-2
10 1 1.0000
0 0.5 1 1.5 2 2.5 3
315130 Epochs
x 10
5
Source : Résultats fournis par le programme Credit 2 développé sous Matlab

Les résultats du réseau n°2 de l’échantillon test pour N= 16


Couche d'entrée couche cachée couche de sortie Classe 1 Classe 2 Classe 2 Classe 4

R2 Réel Prévu Réel Prévu Réel Prévu Réel Prévu


1 1.0000 1 0.1037 1 1.0000 1 0.4350
Classe 1 1 1.0000 1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 0.9997 1 1.0000 1 0.0127
R3
1 1.0000 1 1.0000 1 0.1708 1 0.9626
Classe 2 1 1.0000 1 0.9998 1 1.0000 1 1.0000
1 0.0110 1 0.9997 1 1.0000 1 0.0092
7 neurones 1 1.0000 1 1.0000 1 0.1630 1 0.3597
Classe 3 1 1.0000 1 0.8647 1 1.0000 1 0.0000
1 0.0000 1 0.9888 1 1.0000 1 0.0000
1 0.8137 1 0.0001 1 1.0000 1 0.0000
Classe 4 1 1.0000 1 1.0000 1 0.9999
R16 1 1.0000 1 0.9895 1 1.0000
1 1.0000 1 1.0000 1 0.9999
1 0.0007 1 1.0000 1 0.9954
1 1.0000 1 1.0000 1 1.0000
1 1.0000 1 1.0000 1 0.9943
Courbe d’apprentissage 1 0.9990 1 1.0000 1 1.0000
3
Performance is 0.0999997, Goal is 0.1 1 1.0000 1 1.0000 1 1.0000
10
1 1.0000 1 0.9939
1 1.0000
2
1 0.8169
10 1 1.0000
1 0.1942
1 0.1564
1
10 1 1.0000
Training-Blue Goal-Black

1 1.0000
1 0.8491
0 1 0.9948
10
1 0.9524
1 1.0000
-1
1 1.0000
10
1 1.0000
1 1.0000
1 0.0000
-2
10 1 1.0000
0 0.5 1 1.5 2 2.5
279524 Epochs 5
x 10 Source : Résultats fournis par le programme Credit 2 développé sous Matlab

Vous aimerez peut-être aussi