Vous êtes sur la page 1sur 11

Abonnez-vous à DeepL Pro pour traduire des fichiers plus volumineux.

Visitez www.DeepL.com/pro pour en savoir plus.

Journaux de bord
Journal of Research in Business and Management
Volume 4 ~ Issue 3 (2016) pp : 10-15
ISSN(en ligne) : 2347-3002
www.questjournals.org
Document de recherche

Les réseaux neuronaux artificiels pour la classification : Cas


d'échecs commerciaux
Aomar IBOURK1 , Abdelkrim AAZZAB2
Reçu le 09 avril 2016 ; Accepté le 25 avril 2016 © L'auteur(s) 2015. Publié en libre accès sur
www.questjournals.org

ABSTRACT:- Les techniques de classification statistique peuvent être divisées en techniques paramétriques et
non paramétriques que nous trouvons dans les réseaux neuronaux artificiels (ANN). Les réseaux neuronaux
artificiels, contrairement aux techniques de classification conventionnelles, ne nécessitent aucune hypothèse sur
les variables et sont tout à fait adaptés aux problèmes complexes non structurés [10]. Cette robustesse a permis
à ces techniques de connaître un engouement particulier dans divers domaines de recherche et notamment dans
celui des défaillances d'entreprises. En effet, les premières expériences de modélisation des défaillances
d'entreprises par l'application de réseaux de neurones artificiels remontent à 1990 avec Bell & al. Ensuite,
l'utilisation de cette technique s'est intensifiée avec les travaux de Tam (1991), Keasey et Watson (1991),
Dimitras et al. (1996), Altman et Narayanan (1997), Wong et al. (1997), Zhang et al. (1998), Coakley et Brown
(2000), Aziz et Dar (2004), Ooghe Balcaen (2004, 2006), Ravi Kumar et Ravi (2007) et Lin (2009).
L'objectif de cet article est de présenter et de mettre en œuvre la méthodologie des réseaux neuronaux
multicouches en tant qu'outil de classification pour la question de la faillite d'entreprise sur la base de données
comptables provenant d'un échantillon d'entreprises marocaines.

Mots clés:-techniques de classification, réseaux neuronaux artificiels, faillites d'entreprises

I. INTRODUCTION
Les réseaux neuronaux artificiels (RNA), inspirés des réseaux neuronaux biologiques, constituent un
domaine de recherche permettant d'aborder les problèmes de perception, de mémoire, d'apprentissage et de
raisonnement. En tant que techniques de classification statistique, contrairement aux techniques paramétriques,
les RNA sont robustes aux erreurs de spécification et apparaissent comme des approximateurs universels
particulièrement parcimonieux [11] [12] [13].

L'utilisation des réseaux neuronaux pour la prédiction des défaillances d'entreprises a réellement débuté
dans les années 1990 [3] [4] avec les travaux d'Odom & Sharda (1990). Cette méthode, qui s'inspire du
traitement de l'information effectué par le cerveau humain, consiste à développer un algorithme d'apprentissage
qui traite un ensemble d'informations pour obtenir un résultat. De nombreuses études et travaux de recherche sur
l'échec des entreprises ont mis en pratique cette technique : Bell et al. (1990), Keasey et Watson (1991),
Dimitras et al. (1996), Altman et al. (1994), Wong et al. (1997), Zhang et al. (1998), Coakley et Brown (2000),
Aziz et Dar (2004), Ooghe et Balcaen (2004, 2006), Ravi Kumar et Ravi (2007), et Lin (2009).

Dans notre étude, en s'inspirant de travaux empiriques, nous avons d'abord sélectionné deux classes
d'entreprises selon le critère non défaillant et défaillant, puis, nous avons choisi un ensemble de variables
explicatives et ensuite disons que l'on a cherché à établir une relation statistique entre ces variables et l'état
dichotomique d'être ou de ne pas être défaillant. La qualité du modèle développé dépend du taux de
classification correcte des entreprises dans la classe correspondante.
II. DONNÉES ET MÉTHODOLOGIE DE RECHERCHE
Tout d'abord, afin de ne conserver que les variables pertinentes, les plus discriminantes, dans le but
d'améliorer la qualité de prédiction du modèle, nous avons commencé par sélectionner les variables explicatives
parmi un ensemble de variables candidates sélectionnées sur la base de travaux empiriques antérieurs. Ainsi, la
procédure de sélection des variables est basée sur 1000 échantillons bootstarps et les variables utilisées sont
celles qui ont le plus grand pouvoir de discrimination. Ce pouvoir est calculé en classant les variables par ordre
*Auteur correspondant : Aomar IBOURK 10 | Page
croissant selon la statistique de Fisher et en sélectionnant la fréquence [17]. Deuxièmement, nous avons
développé des modèles de prédiction des défaillances basés sur la méthode des réseaux neuronaux artificiels.

*Auteur correspondant : Aomar IBOURK 11 | Page


Les réseaux neuronaux artificiels pour la classification : le cas des
faillites d'entreprises
1.1 Sélection des entreprises
Notre approche de la collecte des données comporte trois étapes : le choix de la base de données, la
sélection des entreprises et le choix des indicateurs de défaillance. En effet, pour constituer notre échantillon, à
partir d'une source d'information officielle, nous avons acheté les documents de synthèse comptable à l'OMPIC.
Il s'agit du départ de 160 entreprises dont 50% représentent les entreprises défaillantes. De même, pour délimiter
notre champ d'investigation et assurer le maximum d'homogénéité de l'échantillon composite, nous avons
sélectionné des entreprises opérant dans le secteur de l'industrie et qui sont de petites et moyennes tailles. Le
choix de ce secteur tient d'abord au nombre important d'entreprises défaillantes qui y opèrent, et à la possibilité
de calculer l'ensemble des ratios financiers décrits par la théorie, c e q u i n'est pas possible pour les entreprises
de services, par exemple, qui ne disposent pas de certains indicateurs.
Ainsi, le critère taille concerne les entreprises qui ont réalisé, au cours de l'année qu'elle a été retenue pour
l'analyse, un chiffre d'affaires annuel n'excédant pas 75MAD ou un total de bilan n'excédant pas 50MAD. Notre
échantillon final est constitué de 132 entreprises, dont la moitié a échoué. Cet équilibre entre les deux types
d'entreprises répond à des considérations empiriques qui montrent qu'un déséquilibre entre les classes a un effet
négatif sur le taux de classification correcte de chaque groupe et sur le taux de classification correcte global [1]
[14].
Pour les entreprises en bonne santé, nous avons entamé un choix au hasard sans autre hypothèse. Alors que pour
les entreprises défaillantes, nous les avons identifiées auprès des tribunaux de commerce avant de demander
leurs états de synthèses. Les tribunaux de commerce choisis sont ceux d'Agadir, de Marrakech et de Casablanca.
Notre choix est ici motivé par la facilité d'accès à l'information et par la proximité.

Ainsi, pour chaque entreprise défaillante, nous avons demandé les documents de synthèse d'un exercice
comptable antérieur à la date de déclaration de défaillance. Pour les non défaillantes, il s'agit également d'un
exercice tiré au sort. Par ailleurs, notre échantillon couvre une période de cinq ans allant de 2006 à 2010. Le
choix de cette période est principalement dû aux difficultés liées à l'identification des entreprises défaillantes sur
une période plus courte. Le tableau suivant résume la description des entreprises qui composent notre base de
données selon le type et par régions.

Tableau 1 : Répartition des entreprises par région


Agadir Marrakech Casablanca Total
Non défectueux 18 22 26 66
Défaut 13 17 36 66
Total 31 39 62 132
1.2 Choix des variables
Notre base de données est composée de 18 ratios financiers. Ces ratios sont calculés sur la base des
documents collectés afin de constituer une batterie pertinente et crédible susceptible de répondre à notre
question concernant les facteurs explicatifs de la défaillance d'entreprise. La justification du choix de ces ratios
repose principalement sur la littérature théorique et empirique [1] [6] [8], Pink et Giroux, 1984, refait, 2004).
Ainsi, la variable à expliquer est dichotomique, elle prend la valeur 1 si l'entreprise est défaillante et la valeur 0
si l'entreprise est non défaillante. Pour les variables explicatives, et dans la mesure où il n'existe pas de théorie
unificatrice définissant la défaillance des entreprises, notre travail s'inscrit également dans la même démarche
que la plupart des modèles empiriques qui partent d'un nombre élevé de facteurs et qui se réduisent pour ne
garder que quelques juges comme étant les plus explicatifs du risque de défaillance. Nous nous limitons donc à
une batterie de base composée de 18 ratios en fonction de leur popularité et de leur performance dans les études
précédentes. L'annexe 1 résume les ratios de notre étude qui représentent l'ensemble des indicateurs financiers
retenus.

1.3 Méthodes de sélection des variables


Nous avons opté pour les méthodes de sélection automatique des variables en comparant deux
méthodes pour finalement sélectionner celle qui présente le plus de précision [5] [9]. En effet, nous avons
procédé à la sélection des variables en utilisant la méthode appelée "Stepwise discriminant analysis SDA".
Ensuite, nous avons comparé entre l'approche Forward et l'approche dite Backward. Pour ces méthodes de
sélection des variables, et pour évaluer le rôle significatif d'une variable, nous utilisons la statistique F de Fisher.
Il suffirait donc de comparer la valeur p calculée pour la variable à évaluer et de la comparer au niveau de
signification choisi. Par ailleurs, le lambda de Wilks, qui varie entre 0 et 1, représente l'indicateur privilégié pour
l'évaluation statistique du modèle [18]. Il indique dans quelle mesure les centres des classes sont séparés les uns
des autres dans l'espace de représentation. T a n t q u ' il tend vers 0, le modèle est bon car les nuages sont bien
distincts.

*Auteur correspondant : Aomar IBOURK 12 | Page


d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
1.4 faillites d'entreprises
Construction du modèle neuronal
Le réseau de neurones développé est de type "Perceptrons multicouches" avec comme technique
d'optimisation la descente de gradient simple basée sur l'algorithme de rétropropagation de l'erreur [19]. Ainsi,
nous avons retenu la tangente hyperbolique comme fonction d'activation et l'erreur des moindres carrés comme
fonction de coût. De plus, pour la modification du poids du réseau, nous avons opté pour un terme de temps et
chaque couche est entamée d'un biais

*Auteur correspondant : Aomar IBOURK 13 | Page


d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
faillites d'entreprises
et un terme de régularisation. Enfin, nous avons retenu la somme des erreurs quadratiques (SSE) comme
fonction de mesure de la performance.

Pour la configuration du réseau, nous avons adopté l'apprentissage supervisé pour un réseau en couches, non
bouclé, entièrement connecté, avec une couche cachée et une sortie linéaire.
Pour la couche d'entrée, il s'agit du vecteur des variables sélectionnées candidates à l'apprentissage. Pour le
nombre de neurones à introduire dans la couche cachée, il s'agit de tester les différentes configurations qui ont
conduit à un niveau d'apprentissage élevé. Pour la couche de sortie, la variable à expliquer est dichotomique. Il
s'agit d'un vecteur qui prend la valeur 1 si l'entreprise est défaillante et la valeur 0 si l'entreprise n'est pas
défaillante. En outre, pour assurer un meilleur apprentissage et stabiliser le processus de sélection des variables,
nous avons utilisé des techniques de rééchantillonnage bootstrap [17].
Aussi, nous avons eu recours à la définition d'un générateur aléatoire par création d'une variable de
partitionnement afin de recréer exactement les échantillons utilisés dans les analyses. Il s'agit d'une variable de
Bernoulli générée aléatoirement avec un paramètre de probabilité de 0,7, modifiée de façon à prendre la valeur 1
ou -1, au lieu de 1 ou 0 (défectueux ou non défectueux). Ensuite, les observations contenant des valeurs
positives sur la variable de partitionnement sont affectées à l'échantillon d'apprentissage, celles avec des valeurs
négatives sont affectées à l'échantillon de validation et celles avec une valeur égale à 0 sont affectées à
l'échantillon de test. Ce dernier est formé pour éviter les problèmes de sur-apprentissage afin d'aider le réseau à
rester "sur la bonne voie". Pour les autres paramètres du réseau (le pas d'apprentissage, le terme de temps et les
termes de régularisation des poids), les valeurs sont fixées sur la base des travaux empiriques trouvés dans l a
littérature. De même, le nombre d'itérations à retenir est celui pour lequel l'erreur ne varie quasiment plus au-
delà de ce nombre. Enfin, dans le but de supprimer tout ce qui est modélisé afin de réduire la complexité du
réseau et d'accélérer sa convergence, nous avons effectué des prétraitements sur la normalisation des données
basés sur la méthode Min-Max.

IIIANALYSE DES RESULTATS


1.5 Performance de la classification et sélection des variables
1.5.1 Matrice de confusion
La matrice de confusion des deux méthodes de sélection des variables (tableau 3) indique un taux
d'erreur de classification de 0,0909 pour le SDAF

Tableau 2 et un taux de 0,0985 pour le SDAB nommé. Les taux d'erreur calculés sur les données
d'apprentissage sont donc très optimistes et l'estimateur de l'erreur bootstrap donne l'avantage au SDAF qui a
une valeur de 0,1221 au lieu de 0,1279 pour le SDAB.

Tableau 2 : Performances de classification des méthodes de sélection des variables


SDA (FORWARD) SDA (VERS L'ARRIÈRE)

Taux d'erreur 0,0909 Taux d'erreur 0,0985


Bottes Bottes
erreu 0,1221 erreu
0,1279
r r
estimation estimation
Matrice de confusion Matrice de confusion
D ND Somm D ND Som
e me
D 61 5 66 D 59 7 66
ND 7 59 66 ND 9 57 66
Somm 68 64 132 Somm 68 64 132
e e

La première méthode indique que 61 entreprises défaillantes ont été bien reclassées et 5 l'ont été de
manière incorrecte. De même, pour les entreprises non défaillantes, 7 d'entre elles ont été mal reclassées et 59
sont bien reclassées. Au total, ce sont donc 120 entreprises (60 + 57) qui ont été correctement reclassées avec un
taux de classification correcte de 90,90 %.

1.5.2 Le test MANOVA


*Auteur correspondant : Aomar IBOURK 14 | Page
d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
faillites(tableau
L'analyse de la variance multivariée d'entreprises
3) montre que c'est la méthode SDAF qui donne de bons
résultats. En effet, elle a la statistique de Wilks lambda la plus faible (0.37). Ce résultat est confirmé par les
transformations de Bartlett ou de Rao qui statuent sur la significativité des écarts, et qui aboutissent à la même
conclusion au seuil d'erreur de 5%. On rejette alors l'hypothèse que les centres de classes sont combinés (p-
value= 0).

*Auteur correspondant : Aomar IBOURK 15 | Page


d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
faillites d'entreprises
Tableau 3 : L'analyse de variance multivariée
SDA (FORWARD) SDA (VERS L'ARRIÈRE)

Stat Valeur Valeur p Stat Valeur Valeur p


Wilks' Wilks'
0,3789 - 0,3909 -
Lambda Lambda
Bartlett Bartlett
123,74 0,00 120,22 0,00
C(18) C(18)
Rao Rao
41,31 0,00 49,47 0,00
F(18, 113) F(18, 113)

Ensuite, en mariant le résultat du test MANOVA avec celui de la matrice de confusion, on comprend
que la bonne tenue du modèle tient surtout pour l'application de la méthode de l'analyse discriminante pas à pas
en avant.

1.5.3 Sélection des variables


L'évaluation individuelle des variables prédictives montre que cinq variables contribuent à l'explication
de l'échec du SDAF et quatre variables pour le SDAB. Ainsi, le tableau 4 montre que ces résultats indiquent
également que quatre variables sont communes aux deux méthodes (R3, R5, R7 et R16).

Tableau 4 : Évaluation individuelle des variables prédictives


SDA (FORWARD) SDA (VERS L'ARRIÈRE)
R7, R16, R5, R3 et R15 R3, R5, R7 et R16

Toutes ces variables sont sélectionnées sur la base de la statistique F qui est significativement différente de zéro,
car la valeur p est inférieure à 5%.
1.5.4 Réseau neuronal
1.5.4.1 Architecture des modèles neuronaux
D'après le tableau 5, on constate que, par l'emploi de toutes les variables candidates, la meilleure
architecture est celle utilisant une couche cachée avec un seul neurone (Net1_1 (18 1 1)). En effet, c'est
l'architecture pour laquelle la somme de l'erreur quadratique est minimale pour l'échantillon d'apprentissage
(7,68). La SSE pour l'échantillon de test est de 2,89, ce n'est donc pas la valeur minimale mais elle correspond à
une valeur faible si on la compare à l'autre. Cette architecture a été utilisée pour enregistrer un taux de
classification correcte de 87,3% pour l'échantillon d'apprentissage et un taux de 85% pour l'échantillon de test.

Cependant, l'architecture optimale correspondant à l'emploi des variables sélectionnées par la méthode
SDAF est composée d'une couche cachée de 9 neurones (Net2_6 (6 9 1). En ce qui la concerne, cette
architecture nous a permis d'enregistrer la plus faible valeur de l'erreur quadratique pour l'échantillon
d'apprentissage avec 7,86% et un taux d'erreur de 2,98% pour l'échantillon de test. Pour ce réseau, le taux de
classification correcte est de 84,8% pour l'échantillon d'apprentissage et de 85% pour l'échantillon de test.
Tableau 5 : Résumé des tests des architectures de réseau
Emploi de 18 variables candidates Emploi de 5 variables de sélection (SDAF)
ESS de
1 les ESS de la
2 ESS de la SSE de la
Architecture Architecture
échantillon échantillon de échantillon échantillon de
d'apprentissage test d'apprentissage test
Net1_1 [18 1 1] 7,68 2,89 Net2_1 [5 1 1] 10,83 2,78
Net1_2 [18 3 1] 10,15 2,39 Net2_2 [5 3 1] 13,79 2,69
Net1_3 [18 5 1] 9,61 2,82 Net2_3 [5 5 1] 9,83 3,08
Net1_4 [18 7 1] 9,96 2,61 Net2_4 [5 7 1] 10,89 3,22
Net1_5 [18 8 1] 11,42 2,83 Net2_5 [5 8 1] 9,75 3,11
Net1_6 [18 9 1] 11,30 2,74 Net2_6 [5 9 1] 7,86 2,98
Net2_7 [5 10
Net1_7 [18 10 1] 9,58 2,91 11,17 2,91
1]

1 La somme des erreurs quadratiques (Sum squared error SSE) commises lors de la classification des entreprises
dans l'échantillon d'apprentissage.
2 La somme des erreurs quadratiques (Sum squared error) commises lors de la classification des entreprises de

*Auteur correspondant : Aomar IBOURK 16 | Page


d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
l'échantillon test. faillites d'entreprises

*Auteur correspondant : Aomar IBOURK 17 | Page


d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
faillites d'entreprises
Tableau 6 : Matrice de confusion des modèles neuronaux
Modele_1:Emploi de 18 variables candidates (Net_1) Modele_2 : Emploi de 5 variables sélectionnées (Net_2)
Échantillon Prévisions Échantillon Prévisions
D ND % Correct D ND %
Apprentissa D 34 6 85.0 % Apprentissag D 34 6 85.0 %
ge ND 4 35 89.7 % e ND 6 33 84.6 %
% Global 48.1 % 51.9 % 87.3 % % Global 50.6 % 49.4 % 84.8 %
Test D 7 1 87.5 % Test D 7 1 87.5 %
ND 2 10 83.3 % ND 2 10 83.3 %
% Global 45.0 % 55.0 % 85.0 % % Global 45.0 % 55.0 % 85.0 %
Validation D 15 3 83.3 % Validation D 16 2 88.9 %
ND 1 13 92.9 % ND 1 13 92.9 %
% Global 50.0 % 50.0 % 87.5 % % Global 53.1 % 46.9 % 90.6 %

1.5.4.2 Validation des modèles neuronaux


En ce qui concerne l'échantillon de validation, qui évalue le réseau neuronal final et valide ainsi le
modèle, le pourcentage de classification correcte montre que 88,9% des entreprises défaillantes sont bien
classées par le réseau Net_2 alors que le réseau Net_1 ne parvient qu'à classer correctement 83,3% de ces
entreprises. Pour les entreprises non défaillantes, les deux réseaux ont correctement classé 92,9% d'entre elles.
Par conséquent, le taux global de classification correcte des affichages Net_2 est de 90,6 % et celui de Net_1
n'est que de 87,5 %. La validation des modèles neuronaux peut être renforcée par l'analyse des courbes ROC3.

Net_1 Net_2

Surface sous la courbe Surface sous la courbe


Défaut 0,936 Défaut 0,941
Pas de problème 0,936 Pas de problème 0,941

Graphique 1 : les courbes ROC des deux réseaux neuronaux


Pour les deux réseaux, nous constatons que les courbes ROC sont un peu proches du coin supérieur
gauche. La performance des facteurs de discrimination est donc acceptable. Cela signifie que la probabilité que
la fonction Score, développée par le modèle neuronal, place une entreprise défaillante avant une entreprise non
défaillante est presque proche de 1 pour les deux modèles neuronaux. Ainsi, pour le réseau de neurones Net_2,
pour un choix aléatoire d'une entreprise défaillante et d'une entreprise non défaillante, il y a une probabilité de
94,1 % que la pseudo-probabilité de défaillance fournie par le modèle soit plus élevée pour l'entreprise
défaillante. En d'autres termes, la probabilité que le réseau place une entreprise défaillante avant une entreprise
non défaillante est de 94,1 %. Ce taux est de 93,6% pour le réseau Net_1.

Il ressort que, de l'analyse de l'ensemble de ces éléments de validation, les deux modèles neuronaux
sont valides et enregistrent de bons résultats. De même, les taux enregistrés par les deux modèles sont très
optimistes que ce soit pour l'échantillon d'apprentissage, l'échantillon de test ou l'échantillon de validation.
Cependant, pour les départager, on peut dire que, sans aucun doute, le modèle neuronal basé sur 6 variables est
le plus performant à tous les niveaux. En effet, avec le

Une courbe ROC (Receiver Operating Characteristic) présente les modalités pour chaque variable dépendante
*Auteur correspondant : Aomar IBOURK 18 | Page
d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
faillites
qualitative. Elle présente un affichage visuel ded'entreprises
la sensibilité et de la spécificité pour toutes les césures possibles
dans un diagramme unique, ce qui constitue un outil plus clair et plus puissant qu'une série de tableaux.

*Auteur correspondant : Aomar IBOURK 19 | Page


d'accueil
Les réseaux neuronaux artificiels pour la classification : le cas des
faillites d'entreprises
A l'exception de l'échantillon d'apprentissage, ce réseau a enregistré les taux les plus élevés pour l'échantillon de
test et pour l'échantillon de validation. De plus, avec un nombre réduit de variables, le second modèle a été
utilisé pour enregistrer des résultats plus saillants par rapport au premier modèle basé sur 18 variables. Ainsi,
notre modèle de réseaux neuronaux choisi est celui basé sur 6 variables explicatives avec une architecture
composée d'une couche cachée de 9 neurones.

IV. CONCLUSION
Les résultats montrent que l'analyse des variables financières (ratios) a permis de détecter celles qui
sont les plus indicatives de la défaillance. Ce sont les variables de quatre des cinq dimensions de l'analyse
financière qui sont à l a base de l'explication de la défaillance de l'entreprise : connaître la structure financière,
l'activité, la liquidité et la gestion. Ce résultat confirme donc les résultats probants de Conan & Holder (1979) ou
de Combier & Blazy (1997).

La comparaison des deux méthodes de classification en termes de prédictibilité montre dans notre cas la
performance des modèles conventionnels par rapport aux réseaux de neurones. En effet, le pourcentage de
classification correcte mesuré par l'analyse discriminante linéaire est meilleur que les réseaux de neurones
artificiels sur les échantillons d'apprentissage et de test, à l'exception de l'échantillon de validation ou les réseaux
de neurones montrent une légère supériorité.

Ce résultat met donc à mal les études empiriques déjà établies qui ont montré le succès de ces méthodes
non paramétriques pour prédire la faillite d'une entreprise [15] [16].
Notons enfin que cette étude présente certaines limites dans le cadre où les modèles développés sont basés sur
un petit nombre d'observations et où les tests de multicollinéarité, de multi-normalité et d'homoscédasticité ne
sont pas vérifiés.

RÉFÉRENCES
[ALTMAN E. I., [1968], "Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankruptcy", Journal of
Finance, vol. 23, n° 4, pp. 589-609.
[ALTMAN E. I., MARCO G. et VARETTO F., [1994], "Corporate Distress Diagnosis : Comparisons Using Linear Discriminant
Analysis and Neural Network - The Italian Experience", Journal of Banking and Finance, vol. 18, n° 3, pp. 505-529.
[3]. ANANDARAJAN M., LEE P. et ANANDARAJAN A., [2001], "Bankruptcy Prediction of Financially Stressed firms : An
Examination of the Predictive Accuracy of Artificial Neural Networks", International Journal of Intelligent Systems in
Accounting, Finance and Management, vol. 10, n° 2 pp 69-81.
[4]. ATIYA A. F., [2001], "Bankruptcy Prediction for Credit Risk Using Neural Networks : A Survey and New Results", IEEE
Transactions on Neural Networks, vol. 12, n° 4, pp. 929-935.
[5]. BACK B., LAITINEN T., SERE K. et VAN WEZEL M., [1996 A], "Choosing Bankruptcy Predictors Using Discriminant
Analysis, Logit Analysis and Genetic Algorithms", Turku Centre for Computer Science, Technical Report, n° 40, 18 p.
[6]. BARDOS M. et ZHU W. H., [1997], " Comparaison de l'analyse discriminante et des réseaux de neurones. Application à la
détection des défaillances d'entreprises ", Revue de statistique appliquée, tome 45, n°4, pp. 65-92.
[7]. BLAZY R. et COMBIER J., [1997], " La défaillance d'entreprise : Causes économiques, traitement judiciaire et impact financier
", INSEE Méthodes n° 72-73, Économica, Paris ;
[8]. CONAN J. et M. HOLDER [1979], " Analyse des causes de faillite des PMI ", Thèse d' Etat, Université Paris-Dauphine,
CEREG, cités par DAIGNE, 1986.
[9]. DESMET P., [1996], " Comparaison de la prédictivité d'un réseau de neurone à rétropropagation avec celles des méthodes de
régression linéaire, logistique et AID pour le calcul des scores en marketing direct", Recherches et Application en Marketing,
vol.11, n°2, pp.17-27.
[10]. PARIZEAU M., [2004], " Réseaux de neurones ", Université de laval, 117 p.
[11]. CYBENKO G., [1989], "Approximation by superpositions of a sigmoidal function", Mathematics of Control, Signals and Systems,
2, pp. 303-314.
[12]. HORNIK et al, [1989], " Multilayer Feedforward Networks are Universal Approximators", Neural Networks, vol. 2, n° 5, 359 p.
[13]. DREYFUS G. et al, [2008], " Apprentissage statistique ", Editions Eyrolles, 88 p.
[BERG D., [2005], "Bankruptcy Prediction by Generalized Additive Models", Université d'Oslo, Département de
mathématiques, Statistical Report, n° 1, janvier, 36 p.
[ODOM M. D. et SHARDA R., [1990], "A neural network model for bankruptcy prediction", In : Proceedings of the IEEE
International Joint Conference on Neural Networks. San Diego, CA, pp. 163-168.
[16]. BALCEAN S. et OOGHE H., [2004], "Alternative Methodologies in Studies on Business Failure : Do They Produce Better
Results than the Classical Statistical Methods ?", Ghent University, Working Paper, n° 2004-249, 40 p.
[SAUERBREI W. et SCHUMACHER M., [1992], "A Bootstrap Resampling Procedure for Model Building : Application to the
Cox Regression Model", Statistics in Medicine, vol. 11, n° 16, pp. 2093-2109.
[18]. BARDOS M., [2001], " Analyse Discriminante - Application au risque et scoring financier ", Dunod.
[RUMELHART D. E., HINTON, G. E. et WILLIAMS R. J., [1986b], "Learning Representation by Back-Propagation Errors",
Nature, Vol. 323, No. 9, pp. 533-536.

*Auteur correspondant : Aomar IBOURK 20 | Page


d'accueil

Vous aimerez peut-être aussi