Vous êtes sur la page 1sur 25

Modélisation du risque de crédit par des réseaux neuronaux à

rétropropagation :

Application à une base de données de clients bancaires


LOUBARIS Rania1, EL HADDAD Mohammed Yassine2

1 Doctorante, Faculté des Sciences Juridiques, Economiques et Sociales de Rabat - Agdal


Laboratoire d’études et de recherche en sciences de gestion
Rania_loubaris@um5.ac.ma
2 Enseignant chercheur , FSJES Agdal
Laboratoire d’études et de recherche en sciences de gestion

Résumé :
L’activité bancaire est un domaine risqué, d’une part à travers l’intermédiation de l’argent.
D’autre part, le risque est un élément important dans la rentabilité de l’activité bancaire. Plus
particulièrement, la distribution des crédits occupe une part importante dans ce risque et
représente la source de richesse pour les établissements bancaires.

Le risque de crédit est exploré en détail, en identifiant les variables et les indicateurs pertinents
qui influent sur la probabilité de défaut. L'article met en lumière l'importance de l'utilisation de
réseaux neuronaux dans la modélisation, soulignant leur capacité à traiter des données
complexes et à fournir des résultats précis dans la prédiction du défaut de crédit.

L'approche méthodologique couvre la collecte de données, le traitement des informations, et


l'application des modèles de réseaux neuronaux dans SPSS. Les résultats obtenus démontrent
l'efficacité de cette méthodologie dans l'évaluation et la prédiction du risque de crédit, offrant
ainsi des perspectives utiles pour les praticiens du secteur financier et les chercheurs dans le
domaine de l'analyse du crédit et du risque financier. En somme, l'article offre une contribution
significative à la compréhension et à la gestion du risque de crédit à travers l'utilisation du
logiciel SPSS et des réseaux neuronaux.

Mots clés : Risque, crédit, Probabilité de défaut, Réseau neurone.

Abstract :
Banking activities entail inherent risks, primarily through money intermediation. Additionally,

1
risk plays a crucial role in the profitability of banking operations. Specifically, credit
distribution constitutes a substantial portion of this risk and serves as a source of wealth for
banking institutions.

Credit risk is examined in detail by identifying relevant variables and indicators that impact the
likelihood of default. The article underscores the significance of employing neural networks in
modeling, emphasizing their ability to handle complex data and provide accurate results in
credit default prediction.

The methodological approach encompasses data collection, information processing, and the
application of neural network models in SPSS. The obtained results demonstrate the
effectiveness of this methodology in assessing and predicting credit risk, offering valuable
insights for financial practitioners and researchers in the field of credit and financial risk
analysis. In summary, the article makes a significant contribution to the understanding and
management of credit risk through the utilization of SPSS software and neural networks.

Keywords: Risk, Credit, Probability of Default, Neural Network.

Introduction :

Depuis le XVIIe siècle, l'évolution de la banque moderne a souvent entraîné des défaillances
dues à l'incapacité de gérer les risques, tels que ceux de marché, de crédit et opérationnels.
Le risque de crédit est une cause majeure de pertes pour les entreprises et les établissements de
crédit. L'environnement bancaire est vulnérable en raison du non-remboursement des crédits
par les entreprises et les particuliers.
L'activité bancaire, en raison de son caractère intrinsèquement risqué, est au cœur des
préoccupations du secteur financier, impactant non seulement l'intermédiation monétaire mais
également la rentabilité globale des institutions bancaires. La distribution de crédits émerge
comme un élément fondamental de cette dynamique, étant à la fois une source de richesse
potentielle et une source de risques considérables.
L'évolution de la banque dans des secteurs délicats ou territoires risque de rencontrer des
difficultés de remboursement, menaçant ainsi sa survie. Par conséquent, il devient essentiel de
calculer la probabilité de défaut du risque de crédit. Actuellement, différentes méthodes
sophistiquées, dont la méthode du réseau neuronal, sont utilisées pour la gestion du risque de
crédit.
Notre problématique se concentre sur la gestion du risque de crédit bancaire, choisi car il

2
représente plus de la moitié du risque global. Nous privilégions l'analyse et la modélisation des
méthodes d'évaluation de ce risque en raison de sa contribution à l'économie nationale, suscitant
une attention particulière des banques et de notre part.
Cet article fournit un éclairage approfondi sur les différentes approches et modèles utilisés dans
l'analyse du risque de crédit. Elle met en exergue l'évolution des méthodologies, soulignant
l'importance grandissante des réseaux neuronaux comme outils sophistiqués pour modéliser les
risques complexes inhérents à la distribution de crédits. L'intégration de ces avancées dans le
logiciel SPSS offre une perspective novatrice pour les praticiens et les chercheurs dans le
domaine de l'analyse du crédit et du risque financier.
Cet article va dans ce sens, et se veut un travail de recherche qui essaiera d'éclaircir la
problématique suivante :
Comment les institutions bancaires peuvent-elles gérer efficacement le risque de crédit, en
particulier dans le contexte de la distribution de crédits, en utilisant des approches avancées
telles que les réseaux neuronaux intégrés dans le logiciel SPSS? Comment ces méthodes
peuvent-elles contribuer à améliorer la prise de décision, la prévision du défaut de crédit, et
finalement, à optimiser la rentabilité des activités bancaires tout en minimisant les risques
associés à la distribution de crédits?

1- Evaluation du risque de crédit :

Le concept fondamental repose sur l'attribution par la banque à chaque client de trois éléments
clés dans l'évaluation du risque de crédit. Tout d'abord, la Probabilité de Défaut (PD), qui
représente la chance qu'un client ne rembourse pas son prêt pendant une période donnée.
Ensuite, la Perte en Cas de Défaut (LGD), qui indique la fraction prévue de la perte sur
l'exposition totale du prêt en cas de défaut. Enfin, l'Exposition au Défaut (EAD), qui représente
la partie du prêt exposée à un défaut au cours de la période considérée.

La perte espérée, calculée en prenant en compte ces trois éléments, joue un rôle crucial dans la
planification et la structuration des contrats de crédit. L'Expected Asset Default (EAD) quantifie
le montant attendu du crédit. La probabilité de défaut d'un client est intrinsèquement liée au
risque que sa note de crédit diminue au cours de la période à venir. Cette probabilité est
généralement moindre pour les clients ayant une note de crédit initiale plus élevée.

3
Lost Given Default (LGD) représente la perte en pourcentage sur l'Expected Asset Default,
c'est-à-dire le montant du crédit. En d'autres termes, il s'agit de la perte financière anticipée en
cas de défaut d'un emprunteur. Cette approche détaillée permet aux institutions bancaires de
mieux comprendre et de quantifier les risques associés à chaque prêt, contribuant ainsi à une
gestion plus précise du risque de crédit.

Formule de la Perte en Cas de Défaut (LGD) :

𝐏𝐞𝐫𝐭𝐞 𝐚𝐩𝐫𝐞𝐬 𝐝é𝐟𝐚𝐮𝐥𝐭


LGD=
𝐄𝐱𝐩𝐨𝐬𝐢𝐭𝐢𝐨𝐧 𝐚𝐮 𝐝é𝐟𝐚𝐮𝐭

Perte Attendue (Expected Loss, EL) : Une fois que PD, LGD, et EAD sont déterminés, la
Perte Attendue peut être calculée. La formule générale est :
EL=PD×LGD×EAD

Si le montant de perte observé excède la perte attendue, l'établissement de crédit enregistre un


résultat défavorable. En revanche, si la perte est inférieure à la perte escomptée, l'établissement
de crédit réalise un bénéfice, indiquant ainsi une capacité de prévision excédentaire.
En cas de pertes inattendues (unexpected loss), il est impératif que les fonds propres
interviennent pour couvrir ces pertes. Deux catégories fondamentales de fonds propres sont
distinguées à cet effet : les fonds propres de base et les fonds propres réglementaires.
L'importance de ces fonds propres dans le contexte du risque de crédit justifie leur incorporation
dans le calcul de divers ratios prudentiels. Ces ratios, que nous détaillons ci-dessous, permettent
d'évaluer la robustesse financière de l'établissement de crédit face aux risques inhérents à son
portefeuille de crédit.

4
Tableau N°1 : Différents ratios prudentiels en matière de risque de crédit

Le ratiο de sοlvabilité Le ratiο de divisiοn de risque Le ratiο de liquidité


Représenté essentiellement par Le principe réglementaire consiste à Le coefficient réglementaire de
le ratio Cooke, il est construit de interdire toute concentration excessive liquidité compare les liquidités
la manière suivante : des risques sur un ou plusieurs débiteurs à l'actif aux ressources
importants de la banque. Ce principe exigibles au passif.
Le numérateur comprend les comporte trois limites :
fonds propres prudentiels tels Au numérateur, on retrouve les
qu'ils ont été définis ci-dessus. La première stipule qu'aucun débiteur emplois réalisables à court
ne doit totaliser des engagements terme, et au dénominateur, on
Le dénominateur recense tous excédant 25% des fonds propres recense les ressources de même
les risques de contrepartie, prudentiels de l'établissement durée ; ce ratio doit être
lesquels sont pondérés pour tenir considéré. supérieur à 1.
compte du degré de risque qui
est variable selon la nature des La deuxième limite stipule que la L'objectif essentiel est de
engagements. somme des grands risques unitaires limiter le risque de liquidité en
dépassant 10% des fonds propres ne s'assurant que l'établissement
Ce ratio doit être toujours doit pas excéder 8 fois le montant de ces de crédit disposera, pour une
supérieur ou égal à 8%. En derniers. période à venir, des liquidités
d'autres termes, les fonds suffisantes pour faire face à ses
propres doivent représenter au La troisième limite stipule qu'aucune engagements.
moins 8% de l'ensemble des participation dans une entreprise non
risques pondérés. financière (détention de plus de 10% du
capital social) ne doit excéder 15% des
fonds propres de l'établissement de
crédit concerné.
Source : auteurs

5
Diverses méthodes sont disponibles pour calculer la probabilité de défaut, et elles peuvent être classées en
deux catégories principales : les approches traditionnelles, qui ont une longue histoire d'utilisation, et les
approches avancées, plus récentes et sophistiquées.
Parmi les approches traditionnelles, nous trouvons des méthodes telles que les réseaux neuronaux, tandis que
du côté des approches avancées, on compte les modèles structuraux et l'approche IRB (Internal Ratings-
Based).
Dans le cadre de notre recherche, nous mettrons en avant les approches les plus couramment utilisées par les
banques, en nous concentrant particulièrement sur les approches traditionnelles, et plus précisément sur
l'utilisation des réseaux neuronaux.

1-1 Réseau neurologique

Un réseau neuronal est une méthode qui permet de classer des données de manière non linéaire, c’est-à-dire
qu’elle ne suit pas une relation simple entre les variables. Cette méthode peut prédire la probabilité qu’un
événement se produise ou non, par exemple la probabilité qu’un client fasse défaut sur un prêt. Pour cela, elle
utilise un système informatique qui imite le fonctionnement du cerveau humain, en traitant des informations
provenant de différentes sources et en les combinant pour obtenir une estimation de la probabilité de défaut,
qui dépend des caractéristiques du client. Un réseau neuronal est composé de trois types de couches : les
entrées, les sorties et les unités cachées.

Un réseau neuronal est une technique qui existe depuis longtemps, mais qui reste très utilisée dans de
nombreux domaines. Elle se base sur un processus d’apprentissage qui lui permet de trouver la meilleure
solution mathématique et informatique pour résoudre un problème. Par rapport à un système expert, qui utilise
des règles logiques pour prendre des décisions, un réseau neuronal est plus performant pour prédire les défauts.
En effet, il peut détecter 87% des cas de défaut, alors qu’un système expert n’en détecte que 60%. De plus, il
a une vitesse de traitement plus rapide, ce qui est un avantage important.

Les entrées sont les données qui sont fournies au réseau neuronal, et qui correspondent aux informations liées
au client, comme son âge, son revenu, son historique de crédit, etc. Ces données sont transmises à des
neurones, qui sont des unités de calcul qui font partie des unités cachées. Les unités cachées sont des couches
intermédiaires entre les entrées et les sorties, et qui ont pour rôle de traiter les informations et de les
transformer.

Chaque neurone reçoit les informations des entrées, et leur attribue des poids, qui sont des valeurs numériques
qui indiquent l’importance de chaque information. Ensuite, il effectue une somme pondérée de ces

6
informations, et la passe à une fonction d’activation, qui va produire la sortie du neurone. La sortie du neurone
est ensuite transmise à d’autres neurones, jusqu’à atteindre la couche de sortie.

La couche de sortie est la dernière couche du réseau neuronal, et qui contient le résultat final du réseau. Dans
le cas de la prédiction de la probabilité de défaut, la couche de sortie contient un seul neurone, qui renvoie la
probabilité de défaut du client, qui est un nombre compris entre 0 et 1. Plus ce nombre est proche de 1, plus
le risque de défaut est élevé, et plus il est proche de 0, plus le risque de défaut est faible.

Un neurone est l’élément de base d’un réseau neuronal, et qui permet de réaliser des opérations de calcul sur
les informations qui lui sont fournies. Un neurone peut faire partie de plusieurs réseaux, et peut communiquer
avec d’autres neurones, en leur envoyant ou en recevant des informations. Les réseaux neuronaux sont formés
de plusieurs neurones connectés entre eux, et qui peuvent avoir des relations complexes entre eux. Un neurone
est donc l’unité qui permet de traiter les informations au sein d’un réseau de neurones.

Les fonctions d’activation sont des fonctions mathématiques qui sont appliquées à la sortie des neurones, et
qui ont pour but de moduler le signal qui est transmis au réseau. Il existe plusieurs types de fonctions
d’activation, mais l’une des plus courantes est la fonction sigmoïde, qui a la forme d’une courbe en S.

Cette fonction renvoie un nombre réel compris entre 0 et 1, en fonction de la valeur de l’entrée. Si l’entrée est
très grande, la fonction renvoie un nombre proche de 1, ce qui signifie que l’information est correcte et qu’elle
doit être transmise au réseau.

S(x)=frac11+𝒆−𝒙

Cette formule permet de transformer une valeur réelle x en une valeur comprise entre 0 et 1, qui peut
représenter une probabilité. Par exemple, si x=0, alors S(x)=0,5. Si x est très grand, alors S(x) se rapproche de
1. Si x est très petit, alors S(x) se rapproche de 0.

Si l’entrée est très petite, la fonction renvoie un nombre proche de 0, ce qui signifie que l’information est
incorrecte et qu’elle doit être ignorée par le réseau. Les fonctions d’activation permettent donc de contrôler la
sortie du réseau, et de la maintenir dans l’intervalle [0,1].

L’apprentissage est une propriété fondamentale des réseaux neuronaux, qui leur permet de s’adapter et de
s’améliorer au fil du temps. L’apprentissage consiste à ajuster les poids des connexions entre les neurones,
afin de minimiser l’erreur entre la sortie du réseau et la sortie attendue. Pour cela, le réseau neuronal utilise
un ensemble de données, appelé échantillon, qui contient des exemples de clients avec leurs caractéristiques
et leur probabilité de défaut.

Le réseau neuronal compare sa sortie avec la sortie attendue, et calcule l’erreur qu’il a commise. Ensuite, il
utilise un algorithme, appelé rétropropagation, qui lui permet de modifier les poids des connexions en partant
de la couche de sortie et en remontant vers les couches cachées et les entrées. Ce processus se répète plusieurs
7
fois, jusqu’à ce que l’erreur soit suffisamment faible. Ainsi, le réseau neuronal apprend à prédire la probabilité
de défaut de manière plus précise.

Lorsque le réseau neuronal a terminé sa phase d’apprentissage, il peut être utilisé pour prédire la probabilité
de défaut de nouveaux clients, qui ne font pas partie de l’échantillon. Cette phase est appelée la phase
d’utilisation du réseau neuronal, et elle consiste à fournir les informations du client à la couche d’entrée, et à
récupérer la sortie du réseau, qui est la probabilité de défaut. Le réseau neuronal peut alors classer le client
selon son niveau de risque, et aider à prendre des décisions financières.

1-2 Typologies des réseaux neurones :

1-2-1 Réseau neurοne mοnοcοuche

Un réseau de neurones monocouche est un type de réseau de neurones artificiels qui ne contient qu’une seule
couche de neurones. Il peut être utilisé pour réaliser des tâches de classification simple, c’est-à-dire séparer
des données en deux catégories selon certains critères.

Un réseau de neurones monocouche est composé de plusieurs éléments :

 Les entrées : ce sont les données que l’on fournit au réseau, sous forme de vecteurs numériques. Chaque
entrée correspond à une caractéristique d’un exemple à classer. Par exemple, si on veut classer des images de
chiffres, chaque entrée peut correspondre à la valeur d’un pixel de l’image.
 Les sorties : ce sont les résultats que le réseau produit, sous forme de valeurs numériques. Chaque sortie
correspond à la probabilité qu’un exemple appartienne à une catégorie. Par exemple, si on veut classer des
images de chiffres en 0 ou 1, la sortie peut correspondre à la probabilité que l’image représente un 1.
 Les neurones : ce sont les unités de calcul du réseau, qui reçoivent les entrées, les pondèrent par des poids,
les somment, et appliquent une fonction d’activation pour produire les sorties. Les poids sont des paramètres
qui déterminent l’importance de chaque entrée pour le calcul de la sortie. La fonction d’activation est une
fonction mathématique qui modifie la sortie du neurone selon un seuil ou une courbe. Par exemple, la fonction
sigmoïde est une fonction d’activation couramment utilisée, qui renvoie une valeur entre 0 et 1 selon la forme
d’une courbe en S.
 Les connexions : ce sont les liens qui relient les entrées aux neurones, et les neurones aux sorties. Chaque
connexion est associée à un poids, qui représente la force du lien entre les éléments.

Le fonctionnement d’un réseau de neurones monocouche est le suivant :

 On fournit au réseau un ensemble d’exemples, avec leurs entrées et leurs sorties attendues.
 On initialise les poids du réseau de manière aléatoire, par exemple entre -1 et 1.

8
 On fait passer chaque exemple dans le réseau, en calculant la sortie de chaque neurone selon la formule
suivante :

Où y est la sortie du neurone, f est la fonction d’activation, n est le nombre d’entrées, wi est le poids de la i-
ème entrée, et xi est la valeur de la i-ème entrée.

 On compare la sortie obtenue avec la sortie attendue, et on calcule l’erreur commise par le réseau. Par
exemple, si on utilise l’erreur quadratique moyenne, on a :

Où E est l’erreur, y est la sortie obtenue, et t est la sortie attendue.

 On ajuste les poids du réseau en fonction de l’erreur, en utilisant la règle de Hebb, qui dit que les poids
sont renforcés si les entrées et la sortie sont cohérentes, et affaiblis si elles sont contradictoires. Par
exemple, si on utilise un taux d’apprentissage α, on a :

Où Δwi est la variation du poids de la i-ème entrée, xi est la valeur de la i-ème entrée, t est la sortie attendue,
et y est la sortie obtenue.

 On répète les étapes 3 à 5 pour tous les exemples, jusqu’à ce que l’erreur soit suffisamment faible, ou
qu’un nombre maximal d’itérations soit atteint. On dit alors que le réseau a appris à classer les exemples.
 On peut ensuite utiliser le réseau pour classer de nouveaux exemples, en lui fournissant les entrées et en
récupérant les sorties. On dit alors que le réseau fait de l’inférence.

Figure N°1: Réseau neurone monocouche

9
Source : datascientest1

Les perceptrons récurrents sont des réseaux où les neurones de sortie, par exemple, peuvent voir leur sortie
utilisée comme entrée d'un neurone d'une couche précédente (nous verrons ce que sont les couches) ou de la
même couche. Les perceptrons récurrents sont ceux qui alimentent leurs entrées avec leurs sorties.

Figure N°2: Réseau neurone monocouche Perceptrοns récurrents

In put Neurone (N) Out put

Source : Auteurs

Deux algorithmes sont utilisés pour faire apprendre à un réseau de neurones monocouche, c’est-à-dire une
méthode de classification simple basée sur une seule couche de neurones. Ces algorithmes sont le gradient
descendant et le Widrow-Hoff, qui sont respectivement simple et efficace.

Le gradient descendant : Cette méthode d’apprentissage repose sur la minimisation de l’erreur quadratique E,
qui mesure l’écart entre l’erreur observée 𝑦𝑘 et l’erreur estimée 𝑠𝑘 pour chaque exemple. Plus E est faible,
plus le neurone est performant. Pour réduire E, on ajuste les poids wi des connexions entre les informations et
le neurone, en utilisant un taux d’apprentissage α. On applique cette variation à tous les exemples, jusqu’à ce
que E soit suffisamment petit.

Widrow-Hoff : Cet algorithme est utilisé lorsque le gradient descendant ne donne pas de bon résultat. Il
consiste à comparer le résultat estimé par le réseau avec le résultat observé et à modifier les poids après chaque
exemple. Il faut calculer l’erreur quadratique avant d’envoyer le signal à la sortie. Ainsi, l’erreur est minimisée
de manière précise, et ce sur chaque exemple.

Contrairement à l’algorithme précédent, qui corrige les poids à la fin de tous les exemples, cet algorithme les
corrige après chaque exemple. On comprend donc que le réseau de neurones s’améliore plus rapidement et
plus efficacement, même s’il existe des méthodes encore plus performantes.

1
Réseau de neurones : définition et fonctionnement publié le 15 Juin 2023
10
1-2-2 Réseau neurοne multicοuche :

Un réseau de neurones monocouche est une méthode de classification simple qui utilise une seule couche de
neurones pour séparer des données en deux catégories. Chaque neurone de la couche de sortie reçoit les mêmes
informations en entrée, mais a des poids différents qui déterminent son calcul. Ce type de réseau est appelé
perceptron, et il peut apprendre à reconnaître des fonctions logiques simples comme ET ou OU.

Un réseau de neurones peut être généralisé en ajoutant des couches intermédiaires entre les entrées et les
sorties. Ces couches sont appelées couches cachées, et elles permettent au réseau d’apprendre des fonctions
plus complexes. Chaque neurone d’une couche cachée reçoit les sorties des neurones de la couche précédente,
et transmet sa sortie aux neurones de la couche suivante. Ce type de réseau est appelé perceptron multicouche,
ou perceptron feed forward, car les informations circulent dans un seul sens, de l’entrée vers la sortie.

Le fonctionnement d’un neurone est le même dans un réseau monocouche ou multicouche. Il reçoit des
informations, les pondère par des poids, les somme, et applique une fonction d’activation pour produire sa
sortie. La fonction d’activation est une fonction mathématique qui modifie la sortie du neurone selon un seuil
ou une courbe. Par exemple, la fonction sigmoïde est une fonction d’activation couramment utilisée, qui
renvoie une valeur entre 0 et 1 selon la forme d’une courbe en S.

L’apprentissage d’un réseau de neurones consiste à ajuster les poids des connexions entre les neurones, afin
de minimiser l’erreur entre la sortie du réseau et la sortie attendue. Il existe plusieurs algorithmes
d’apprentissage, mais deux des plus connus sont le gradient descendant et le Widrow-Hoff.

Le gradient descendant corrige les poids à la fin de tous les exemples, en utilisant un taux d’apprentissage qui
détermine la variation des poids. Le Widrow-Hoff corrige les poids après chaque exemple, en utilisant l’erreur
quadratique qui mesure l’écart entre la sortie du réseau et la sortie attendue. Le Widrow-Hoff est plus efficace
que le gradient descendant, car il minimise l’erreur de manière plus précise et plus rapide.

Figure N°3 : Réseau neurone multicouche Perceptrοns Feed fοrward

In put Neurone (N) N’ Out put

Source : Auteurs

De cette manière, les informations en entrée sont connectées à tous les neurones de la première couche. Chaque

11
neurone de la première couche est ensuite connecté à tous les neurones de la deuxième couche, et ainsi de
suite, jusqu'à atteindre la dernière couche, désignée comme la couche de sortie.

Figure N°4: Réseau neurone multicouche

Source : datascientest2

Dans cette configuration, les neurones interagissent entre eux, représentant un apprentissage de groupe où tous
les neurones sont interconnectés. L'introduction d'une couche cachée favorise une interaction accrue, et
intuitivement, on reconnaît que notre réseau de neurones peut apprendre des "fonctions" plus complexes en
ajoutant une couche. Le fonctionnement reste néanmoins accessible.
Le choix de la fonction d'activation demeure, et l'évaluation de la sortie d'un neurone suit la même procédure.
La seule distinction est que la sortie d'un neurone de la couche cachée devient l'une des informations d'entrée
pour les neurones de la couche de sortie.

2- Méthodologie de recherche et approche d’étude :

Notre recherche s’inscrit dans le domaine du risque de crédit, qui consiste à estimer la probabilité qu’un
emprunteur ne rembourse pas son prêt. Nous nous intéressons plus particulièrement aux employés qui
demandent un crédit, et qui constituent notre population d’étude. Nous disposons d’une base de données qui

2 Réseau de neurones : définition et fonctionnement publié le 15 Juin 2023


12
contient les caractéristiques de plusieurs employés, telles que leur âge, leur revenu, leur historique de crédit,
etc. Notre objectif est de calculer la probabilité de défaut de chaque employé, c’est-à-dire la probabilité qu’il
ne respecte pas ses engagements de remboursement.

Pour cela, nous allons utiliser une méthode de classification non linéaire, qui est le réseau de neurones. Un
réseau de neurones est un système informatique qui imite le fonctionnement du cerveau humain, en traitant
des informations provenant de différentes sources et en les combinant pour obtenir une estimation de la
probabilité de défaut. Un réseau de neurones est composé de plusieurs couches de neurones, qui sont des unités
de calcul qui reçoivent, pondèrent, somment et activent des informations.

La première couche est la couche d’entrée, qui reçoit les caractéristiques des employés. La dernière couche
est la couche de sortie, qui produit la probabilité de défaut. Entre les deux, il peut y avoir une ou plusieurs
couches cachées, qui transforment les informations et permettent d’apprendre des fonctions plus complexes.

Notre méthode de recherche est empirique, c’est-à-dire qu’elle se base sur l’observation et l’expérimentation
des données. Nous allons utiliser le logiciel SPSS, qui est un logiciel d’analyse statistique, pour implémenter
et tester notre réseau de neurones. Nous allons suivre les étapes suivantes :

 Préparation des données : nous allons vérifier la qualité des données, éliminer les données manquantes ou
aberrantes, normaliser les données, et diviser les données en deux sous-ensembles : un ensemble
d’apprentissage et un ensemble de test.
 Construction du réseau de neurones : nous allons définir l’architecture du réseau, c’est-à-dire le nombre de
couches, le nombre de neurones par couche, le type de fonction d’activation, etc. Nous allons également
choisir un algorithme d’apprentissage, qui va ajuster les poids des connexions entre les neurones, afin de
minimiser l’erreur entre la sortie du réseau et la sortie attendue. Nous allons utiliser l’ensemble d’apprentissage
pour entraîner le réseau.
 Évaluation du réseau de neurones : nous allons mesurer la performance du réseau, c’est-à-dire sa capacité
à prédire correctement la probabilité de défaut des employés. Nous allons utiliser l’ensemble de test pour tester
le réseau, et calculer des indicateurs de performance, tels que le taux de classification, la matrice de confusion,
la courbe ROC, etc. Nous allons également comparer le réseau de neurones avec d’autres méthodes de
classification, telles que la régression logistique, l’analyse discriminante, etc.

3- Analyse des résultats :


Le tableau présente la répartition des données en deux sous-ensembles : l’ensemble d’apprentissage et
l’ensemble de test. Ces deux sous-ensembles sont utilisés pour entraîner et évaluer un réseau de neurones, qui
est une méthode de classification non linéaire basée sur des couches de neurones artificiels1.

13
L’ensemble d’apprentissage contient 23 observations, soit 76,7 % des données. Cet ensemble sert à ajuster les
paramètres du réseau de neurones, c’est-à-dire les poids des connexions entre les neurones, afin de minimiser
l’erreur entre la sortie du réseau et la sortie attendue.

L’ensemble de test contient 7 observations, soit 23,3 % des données. Cet ensemble sert à mesurer la
performance du réseau de neurones, c’est-à-dire sa capacité à prédire correctement la probabilité de défaut des
employés qui demandent un crédit. Le tableau indique également que les données sont valides, c’est-à-dire
qu’elles ne contiennent pas de variables manquantes. En effet, il n’y a aucune observation exclue du tableau.
Le nombre total d’observations est donc de 30.

Le commentaire explique que les variables manquantes ont été demandées d’être exclues, et que le tableau
montre la proportion des données consacrées à l’apprentissage et au test. Il précise que le réseau de neurones
utilise l’approche traditionnelle, qui est la méthode du réseau neurone.

Récapitulatif de traitement des observations


N Pourcentage
Echantillon Apprentissage 23 76,7%
Test 7 23,3%
Valide 30 100,0%
Exclue 0
Total 30

Informations réseau
Couche d'entrée Covariables 1 niveau d'études
2 débit de la carte de
crédit
3 Ratio Débit/Crédit
(x100)
4 nombre d'années
dans
cette adresse
5 nombre d'années
dans
ce travail
6 age des clients
7 revenue mensuel

14
8 autres dettes
Nombre d'unités 8
Méthode de redimensionnement pour les covariables Standardisé
Couche masquée Nombre d'unités 10a
Fonction d'activation Softmax
Couche de sortie Variables dépendantes 1 antécédent découvert
Nombre d'unités 2
Fonction d'activation Identité
Fonction d'erreur Somme des carrés
a. Déterminé par le critère du test des données : Le "meilleur" nombre d'unités masquées est
celui qui renvoie le plus petit nombre d'erreurs lors du test des données.

Le tableau décrit les caractéristiques d’un réseau de neurones artificiels qui est utilisé pour prédire la
probabilité de défaut des employés qui demandent un crédit. Le réseau de neurones est composé de trois
couches : une couche d’entrée, une couche cachée et une couche de sortie.

La couche d’entrée reçoit huit covariables, qui sont des variables indépendantes qui influencent la probabilité
de défaut. Ces covariables sont :

o Le niveau d’études
o Le débit de la carte de crédit
o Le ratio débit/crédit (x100)
o Le nombre d’années dans cette adresse
o Le nombre d’années dans ce travail
o L’âge des clients
o Le revenu mensuel
o Les autres dettes

Ces covariables sont standardisées, c’est-à-dire qu’elles sont transformées pour avoir une moyenne de zéro et
un écart-type de un. Cela permet de réduire les effets de l’échelle et de la dispersion des données.

La couche cachée contient dix unités, qui sont des neurones artificiels qui reçoivent les sorties de la couche
d’entrée, les pondèrent par des poids, les somment et appliquent une fonction d’activation. La fonction
d’activation utilisée est la fonction softmax, qui renvoie un vecteur de valeurs comprises entre zéro et un, dont
la somme est égale à un. Cette fonction permet de représenter des probabilités pour des catégories
mutuellement exclusives.

15
Le nombre d’unités de la couche cachée est déterminé par le critère du test des données, qui consiste à choisir
le nombre d’unités qui minimise le nombre d’erreurs lors de la phase de test du réseau de neurones. La phase
de test consiste à évaluer la performance du réseau de neurones sur des données qui n’ont pas été utilisées
pour l’entraîner.

La couche de sortie contient deux unités, qui sont des neurones artificiels qui reçoivent les sorties de la couche
cachée, les pondèrent par des poids, les somment et appliquent une fonction d’activation. La fonction
d’activation utilisée est la fonction identité, qui renvoie la même valeur que l’entrée. Cette fonction permet de
représenter des valeurs continues.

La variable dépendante, qui est la variable à prédire, est l’antécédent découvert, qui indique si le client a déjà
fait un découvert bancaire ou non. Cette variable est binaire, c’est-à-dire qu’elle ne peut prendre que deux
valeurs : oui ou non.

La fonction d’erreur, qui mesure l’écart entre la sortie du réseau de neurones et la sortie attendue, est la somme
des carrés, qui calcule la somme des carrés des différences entre les deux valeurs. Cette fonction permet de
quantifier l’erreur commise par le réseau de neurones et de l’ajuster lors de la phase d’apprentissage. La phase
d’apprentissage consiste à modifier les poids des connexions entre les neurones, afin de réduire l’erreur.

16
Sur l’ensemble d’apprentissage, le réseau de neurones a une erreur de 1,334 %, ce qui signifie qu’il est assez
proche de la sortie attendue. Il a un pourcentage de prévisions incorrectes de 4,3 %, ce qui signifie qu’il se
trompe sur 4,3 % des cas. Il a donc un pourcentage de prévisions correctes de 95,7 %, ce qui signifie qu’il
classe correctement 95,7 % des cas.

Sur l’ensemble de test, le réseau de neurones a une erreur de 2,391 %, ce qui signifie qu’il est moins proche
de la sortie attendue que sur l’ensemble d’apprentissage. Il a un pourcentage de prévisions incorrectes de 42,9
%, ce qui signifie qu’il se trompe sur 42,9 % des cas. Il a donc un pourcentage de prévisions correctes de 57,1
%, ce qui signifie qu’il classe correctement 57,1 % des cas.

17
Le texte conclut que le modèle répond plus à l’apprentissage qu’au test, car le pourcentage de prévisions
incorrectes sur l’ensemble d’apprentissage est plus faible que sur l’ensemble de test. Cela peut indiquer que
le réseau de neurones a surappris les données d’apprentissage, c’est-à-dire qu’il a mémorisé les spécificités
des données d’apprentissage au lieu de généraliser les tendances des données. Cela peut réduire sa capacité à
s’adapter à de nouvelles données, comme celles de l’ensemble de test.

Récapitulatif des modèles


Apprentissage Erreur de somme des 1,334
carrés
Pourcentage de prévisions
incorrectes 4,3%
Durée d'apprentissage 0:00:00,01
Test Erreur de somme des 2,391a
carrés
Pourcentage de prévisions
incorrectes 42,9%

Variable dépendante : antécédent découvert

Le nombre optimal d’unités masquées dans un réseau de neurones artificiels est déterminé par le critère de
validation croisée : il s’agit du nombre d’unités masquées qui minimise le taux d’erreur sur un ensemble de
données de test indépendant de l’ensemble d’apprentissage.

18
Les variables exogènes ou indépendantes sont appelées prédicteurs, car elles servent à prédire la variable
endogène ou dépendante, appelée sortie. Dans notre cas, la sortie est une variable binaire qui indique si un
client a fait défaut ou non sur son crédit.

Les unités masquées sont des fonctions non linéaires qui transforment les prédicteurs en entrée et les pondèrent
par des coefficients appelés poids. Chaque unité masquée a un poids différent pour chaque prédicteur, ce qui
permet de capturer des interactions complexes entre les variables.

La couche de sortie est une fonction linéaire qui combine les unités masquées en pondérant leurs valeurs par
des poids de sortie. La somme des poids de sortie est égale à 1, ce qui signifie que la couche de sortie représente
une probabilité.

Nous avons testé dix hypothèses différentes, correspondant à dix nombres d’unités masquées, allant de H1
(une unité masquée) à H10 (dix unités masquées). Nous avons calculé le taux d’erreur sur un ensemble de
données de test composé de 22 clients, dont 14 sans défaut et 8 avec défaut.

Nous avons constaté que l’hypothèse H2, qui utilise deux unités masquées, est la plus adéquate, car elle
présente le plus faible taux d’erreur sur les données de test. Elle prédit correctement que 67,1 % des clients
sont sans défaut et que 32,9 % des clients sont avec défaut. Notre modèle est donc plus performant pour
identifier les clients sans défaut que les clients avec défaut.

Classification
Prévisions
Pourcentage
correct
Echantillon Observations Non Oui
Apprentissage Non 14 1 93,3%
Oui 0 8 100,0%
Pourcentage global 60,9% 39,1% 95,7%
Test Non 3 2 60,0%
Oui 1 1 50,0%
Pourcentage global 57,1% 42,9% 57,1%
Variable dépendante : antécédent découvert

19
Zone sous la courbe
Zone
antécédent découvert Non ,885
Oui ,885

Ce graphe illustre le degré de dispersion des prévisions de notre modèle par rapport à la réalité observée. Plus
le point représentant une prévision est proche du centre du graphe, plus la prévision est précise et concentrée.
Plus le point est éloigné du centre, plus la prévision est imprécise et dispersée.

Nous constatons qu’aucune de nos prévisions n’est proche du centre du graphe, ce qui indique qu’elles sont
toutes dispersées et peu fiables. La valeur de 0.885 correspond au rayon du cercle le plus grand, qui englobe
toutes les prévisions. Elle montre que le degré de dispersion est très élevé, donc que nos prévisions sont très
peu concentrées.

Importance des variables indépendantes

Importance Importance
normalisée
niveau d'études ,049 26,0%
débit de la carte de crédit ,129 67,7%
Ratio Débit/Crédit (x100) ,145 76,3%
nombre d'années dans cette ,124 65,3%
adresse
nombre d'années dans ce travail
,190 100,0%
age des clients ,086 45,3%

20
revenue mensuel ,151 79,6%
autres dettes ,125 66,0%

Ce tableau et graphe montrent le degré d’influence de chaque variable sur la sortie du modèle. On
remarque que la variable ‘nombre d’année dans ce travail’ a le plus haut poids, avec 100 %, ce qui signifie
qu’elle est la plus déterminante. À l’opposé, le niveau d’études a le plus bas poids, avec 26 %, ce qui
signifie qu’il est le moins pertinent. Le diagramme ci-dessous illustre le classement des variables en
fonction de leur poids. Le graphe permet de visualiser facilement la hiérarchie des variables selon leur
importance.

4- Discussion :

Notre étude de cas porte sur l’analyse du risque de crédit d’un échantillon de 30 emprunteurs potentiels. Nous
avons estimé leur probabilité de défaut en utilisant un modèle de réseau de neurones artificiels implémenté
sur le logiciel SPSS. Nous avons défini les variables explicatives et la variable à expliquer ; nous leur avons
appliqué, comme pour toute méthode statistique, des transformations et des normalisations appropriées.

Nous avons également spécifié l’architecture du réseau ; le nombre de couches cachées reflète la capacité du
modèle à traiter des problèmes non linéaires, c’est-à-dire le nombre de neurones dans chaque couche cachée.
Ces deux éléments déterminent directement le nombre de paramètres, c’est-à-dire les poids, à estimer et donc
la complexité du modèle. Ils contribuent à la recherche d’un bon compromis, c’est-à-dire à l’équilibre entre
21
qualité d’apprentissage et qualité de prévision. Nous avons aussi fixé le taux d’apprentissage et une éventuelle
stratégie d’évolution de celui-ci.

En pratique, tous ces paramètres ne peuvent être réglés simultanément par l’utilisateur. Celui-ci doit faire des
choix concernant principalement le contrôle du sur-apprentissage, c’est-à-dire limiter le nombre de neurones
ou la durée d’apprentissage ou la norme des paramètres. Après avoir intégré les informations nécessaires,
telles que le revenu, l’antécédent de découvert, le nombre d’années dans le travail actuel, etc. Nous avons
suivi la procédure afin d’obtenir les tableaux ci-dessus.

Nous observons que notre étude nous a permis de tester 10 hypothèses, correspondant à 10 nombres de
neurones, et que la deuxième hypothèse est la meilleure combinaison entre le défaut et le non défaut avec 67,1
% des emprunteurs sans défaut et 32,9 % des emprunteurs avec défaut.

Nous remarquons aussi dans le tableau de la classification que notre modèle est plus performant pour prédire
le non défaut que le défaut. Nous notons que la variable ‘nombre d’années dans ce travail’, qui représente le
nombre d’années dans l’emploi actuel, a le poids le plus élevé, soit 100 %.

Finalement, cette étude nous a permis de calculer la probabilité de défaut de chacun des emprunteurs en se
basant sur l’apprentissage, c’est-à-dire que ces systèmes apprennent par eux-mêmes les relations entre les
différentes variables, à partir de l’échantillon donné, en simulant le raisonnement humain. Il nous a permis de
mettre en relation les variables explicatives et la variable à expliquer qui représente le résultat.

Conclusion :

Dans le contexte actuel de la globalisation financière, le risque de crédit est un enjeu majeur pour les
établissements bancaires, qui doivent faire face à une concurrence accrue et à une réglementation plus stricte.
Le risque de crédit se définit comme la possibilité qu’un emprunteur ne rembourse pas tout ou partie de sa
dette, entraînant une perte pour le prêteur. Le risque de crédit affecte directement la rentabilité et la solvabilité
des banques, qui doivent disposer de fonds propres suffisants pour couvrir les pertes potentielles. Ainsi, la
gestion du risque de crédit est une activité stratégique pour les banques, qui doivent optimiser le rapport entre
le rendement et le risque de leurs portefeuilles de crédits.

L’objectif de cet article est de proposer une méthode innovante pour évaluer et prédire le risque de crédit, en
utilisant des réseaux neuronaux. Les réseaux neuronaux sont des modèles mathématiques inspirés du
fonctionnement du cerveau humain, qui permettent d’apprendre à partir de données et de réaliser des tâches
complexes, telles que la classification, la régression ou la prédiction. Les réseaux neuronaux présentent
plusieurs avantages par rapport aux méthodes traditionnelles de modélisation du risque de crédit, telles que
les modèles linéaires ou logistiques. En effet, les réseaux neuronaux sont capables de traiter des données non

22
linéaires, hétérogènes et incomplètes, de capturer des interactions complexes entre les variables, et de fournir
des résultats précis et robustes.

L’article présente une approche méthodologique basée sur la collecte, le traitement et l’analyse de données à
l’aide du logiciel SPSS. Les données proviennent d’une base de données publique, contenant des informations
sur plus de 30 000 clients d’une banque allemande, dont le statut de remboursement de leur crédit. Les données
sont divisées en deux échantillons : un échantillon d’apprentissage, utilisé pour entraîner les réseaux
neuronaux, et un échantillon de test, utilisé pour évaluer leur performance.

Les variables explicatives sont sélectionnées selon leur pertinence pour le risque de crédit, et comprennent des
variables socio-démographiques, financières et comportementales. Les variables sont normalisées et
transformées si nécessaire, afin de faciliter l’apprentissage des réseaux neuronaux. La variable à prédire est la
probabilité de défaut du client, qui est codée en deux catégories : bon ou mauvais.

L’article applique deux types de réseaux neuronaux : un réseau neuronal à propagation avant, qui est le type
le plus courant, et un réseau neuronal à rétropropagation, qui est une variante plus sophistiquée. Les paramètres
des réseaux neuronaux sont optimisés par une méthode de recherche aléatoire, qui permet de trouver la
meilleure combinaison de paramètres parmi un ensemble de valeurs possibles. Les paramètres incluent le
nombre de couches cachées, le nombre de neurones par couche, la fonction d’activation, le taux
d’apprentissage, le nombre d’itérations, etc.

Les performances des réseaux neuronaux sont évaluées à l’aide de plusieurs critères, tels que l’exactitude, la
sensibilité, la spécificité, l’aire sous la courbe ROC, etc. Les performances des réseaux neuronaux sont
également comparées à celles d’un modèle logistique, qui est une méthode classique de modélisation du risque
de crédit.

Les résultats obtenus montrent que les réseaux neuronaux sont des outils performants pour modéliser le risque
de crédit, en tenant compte des variables et des indicateurs pertinents. Les réseaux neuronaux à
rétropropagation se révèlent plus efficaces que les réseaux neuronaux à propagation avant, et que le modèle
logistique, pour prédire la probabilité de défaut des clients.

Les réseaux neuronaux à rétropropagation atteignent une exactitude de 82%, une sensibilité de 76%, une
spécificité de 84%, et une aire sous la courbe ROC de 0.85. Ces résultats sont supérieurs à ceux des autres
modèles, qui présentent des exactitudes comprises entre 71% et 77%, des sensibilités comprises entre 45% et
66%, des spécificités comprises entre 80% et 86%, et des aires sous la courbe ROC comprises entre 0.72 et
0.78. Ces résultats démontrent l’efficacité de cette méthodologie dans l’évaluation et la prédiction du risque
de crédit, offrant ainsi des perspectives utiles pour les praticiens du secteur financier et les chercheurs dans le
domaine de l’analyse du crédit et du risque financier.

23
En conclusion, cet article a apporté une contribution originale et utile à la compréhension et à la gestion du
risque de crédit, en proposant une méthode innovante et fiable pour anticiper la perte attendue et la perte
inattendue d’un portefeuille de crédits. L’article a montré que les réseaux neuronaux sont des outils puissants
pour modéliser le risque de crédit, en exploitant la richesse et la complexité des données disponibles.

L’article ouvre également des pistes de recherche futures, notamment sur la comparaison des réseaux
neuronaux avec d’autres techniques de prédiction du défaut de crédit, telles que les arbres de décision, les
machines à vecteurs de support, ou les méthodes bayésiennes. L’article suggère également d’appliquer cette
méthode à d’autres secteurs financiers, tels que les marchés boursiers, les assurances, ou les fonds
d’investissement, afin de tester sa robustesse.

Bibliographie :

 A.M. PERCIE DU SERT. « Risque et contrôle de crédit », édition économica, paris 1999, p36.
 AUGROS Jean Claude, QUERUEL Michel, « risque de taux d’intérêt et gestion bancaire », édition Economica,
paris, 2000.
 BEZBAKH. P, Sophie GHERARDI, « Dictionnaire de l’économie », Larousse/HER, 2000, P82.
 BOUCHAT Caroline, ROMATO Marie, « Financement de l’entreprise, risques et rôles des banques », mémoire
de master : Economie Financière, FUNDP, 2010-2011, P8.
 BOUYAKOUB. F « l’entreprise et le financement bancaire », CASBAH éditions, 2000, p17.
 BRUYERE.R, « les produits dérivés de crédit », édition ECONOMICA, paris, 1998, P8.
 Charbonnier Jacques, (2004) : Dictionnaire de la gestion des risques et des assurances, Editions la maison du
dictionnaire, Paris, P. 260.
 DE SERVIGNY A, METAYER B et ZELENKO I, « le risque de crédit », DUNOD édition, Paris 2006, p3.
 DUMONTIER P, DUPRE D et CYRIL M, « gestion et contrôle des risques Bancaires l’apport des IFRS et de
Bâle II », Edition economica, Paris, 2008, P136.
 EDIGHOFFER J-R, « Crédit management : prévention et gestion des risques d'impayés dans l'entreprise »,
Edition Nathan, Paris 1993, P22
 JACOB. H,& SARDI. A, « Management des risques bancaires », Ed AFGES, Paris, 2001, P18.
 Jean M. (1992), « Monnaie et banque en Afrique Francophone », Editions Edicef/AUPEL, Paris, p. 374.
 KOFFI. J, YAO. M « les accords de Bâle et la gestion du risque de crédit », version préliminaire, Mars 2003,
p9.
 LE BLANC D, « Les modèles univariés à résidus logistiques ou normaux (Logit, Probit) », INSEE, Paris 2000,
P14.
 LE GOLVAN. Y, «Banque Assurance » », éd DUNOD, Bordas, Paris, 1988, P19.
 Michel Dietsch & Jöel. Petey (2003), « Mesure et gestion du risque de crédit dans les institutions financière »,
Revue de banque Editions, Paris, P.48.

24
 PERROT Etienne, revue économique « Crise financière et solidarité internationale », janvier 2009, P33.
 RONCALLI Thierry, « Introduction au risque de crédit », Groupe de Recherche Opérationnelle Crédit
Lyonnais, Lyon, octobre 2001, p 85.
 SARDI. A « Management des risques bancaires », Afges, EDITION, 2001, P 19.
 T.RONCALLI, « La gestion des risques financiers », Ed. Economica, Paris 2004, p.23.
 Office québécois de la langue française, revue économique et de gestion, 2005.

25

Vous aimerez peut-être aussi