Vous êtes sur la page 1sur 17

la revue gestion et organisation 10 (2018) 83–99

Disponible en ligne sur www.sciencedirect.com

ScienceDirect

journal homepage: www.elsevier.com/locate/rgo

Prévisions de la liquidité des actions cotées à la bourse


des valeurs de Casablanca. Comparaison entre la
modélisation ARIMA et les réseaux de neurones NARX

Mohamed Ben Houad *, Youssef Oubouali


Laboratoire d'études en Finances et Comptabilité, École Nationale de Commerce et de Gestion, Université Hassan 1er, Settat, Maroc

info article sume


re 

Historique de l’article : Bien que la liquidité des actions ait des répercussions économiques et financières, ses
Reçu le 29 mai 2018 prévisions sont négligées par les chercheurs. Les prévisions de la liquidité des actions est
Reçu sous la forme révisée le une tâche très difficile en raison de l'irrégularité et la fluctuation des mesures de la liquidité.
27 juin 2018 Cette contribution consiste à prédire la liquidité des actions cotées à la Bourse des Valeurs de
Accepté le 25 juillet 2018 Casablanca en se basant sur un échantillon composé de 70 sociétés pour la période allant de
Disponible sur Internet le janvier 2007 à décembre 2016. Des modèles ARIMA sont d'abord utilisés pour générer des
23 août 2018 prévisions linéaires ; puis nous développons un réseau de neurone artificiel NARX pour
corriger d'éventuelles erreurs d'estimation dans les prévisions ARIMA. Les résultats empi-
Mots clés: riques démontrent que le réseau de neurone NARX est le modèle le plus performant pour
Liquidité des actions prédire la liquidité des actions.
Séries financières © 2018 Holy Spirit University of Kaslik. Publishing services provided by Elsevier B.V. This
Modèle ARIMA is an open access article under the CC BY-NC-ND license (http://creativecommons.org/
Réseau de neurone NARX licenses/by-nc-nd/4.0/).

1. Introduction

Au cours des dernières décennies, l'analyse des séries chronologiques est devenue un sujet très attrayant pour les chercheurs.
Elle s'est imposée comme un outil puissant pour comprendre les systèmes complexes à partir des données observées. Elle
concerne le regroupement (Cherif, Cardot, & Boné, 2011), la reconnaissance des formes (Wan, Gong, & Si, 2016), la classification
(L. Wang, Wang, & Liu, 2016) et la prédiction (Hu, 2017). La prédiction des séries temporelles s'applique à plusieurs domaines, tels
que l'énergie, le transport, la santé, le tourisme, l'économie et la finance. Concernant ce dernier domaine, les prévisions des séries
chronologiques se sont intéressées essentiellement aux cours boursiers (Chen & Chen, 2015), aux indices boursiers (Rubio,
Bermúdez, & Vercher, 2017), à la liquidité bancaire (Golan, 2017) et au taux d'intérêt (Lahmiri, 2016). Les prévisions du risque de
liquidité des actions sont négligées par les chercheurs. Or le risque de liquidité des actions présente des conséquences financières
et économiques. Le risque de liquidité affecte le prix et le rendement des actions (Amihud, Mendelson, & Pedersen, 2005). Une forte
baisse de la liquidité est largement citée comme un catalyseur important de la contagion financière prévalue pendant la crise
financière 2007–2009 (Rösch & Kaserer, 2014). La liquidité du marché constitue un aspect du maintien de la stabilité du marché en
assurant la liquidité suffisante (Geithner, 2007). La liquidité des actions a des répercussions sur la structure financière, le coût du

* Auteur correspondant.
Adresse e-mail : mohamedbenhouad@yahoo.fr (M. Ben Houad).
https://doi.org/10.1016/j.rgo.2018.07.001
2214-4234/© 2018 Holy Spirit University of Kaslik. Publishing services provided by Elsevier B.V. This is an open access article under the CC
BY-NC-ND license (http://creativecommons.org/licenses/by-nc-nd/4.0/).
84 la revue gestion et organisation 10 (2018) 83–99

capital (Skjeltorp & Ødegaard, 2015) et le risque de défaillance des sociétés (Xiao, Xiao, Liu, & Wang, 2014). La liquidité du marché
influence la liquidité bancaire (Brunnermeier & Pedersen, 2008). La liquidité du marché affecte aussi l'activité économique
(Apergis, Artikis, & Kyriazis, 2015).
La Bourse des Valeurs de Casablanca (BVC), en tant que marché émergent, connait des problèmes de liquidité. Les prévisions de
la liquidité des actions cotées à la BVC sont très utiles pour les investisseurs, les régulateurs du marché et les autorités monétaires.
Il existe plusieurs approches de prévisions des séries financières, allant des méthodes traditionnelles fondées sur la statistique et
les mathématiques jusqu'à les approches récentes de réseaux neuronaux artificiels (RNA). Toutefois, les séries chronologiques
financières sont très difficiles à prédire car elles sont caractérisées par la saisonnalité, la non-stationnarité et une forte volatilité.
L'objet de cet article est de proposer une approche capable de prédire avec précision le risque de liquidité des actions cotées à la
BVC. Pour ce faire, étant donné que notre échantillon est restreint, nous effectuons une comparaison entre la méthodologie
moyenne mobile intégrée autorégressive (ARIMA) et le réseau autorégressif non linéaire avec entrées exogènes (NARX). Ainsi, nous
contribuons à élargir le champ de prédiction des séries financières à la liquidité des actions en comparant les résultats de
l'approche ARIMA et NARX.
La section suivante fournit un bref aperçu des méthodes de prédiction des séries financières et des déterminants de la liquidité
des actions. La section 3 décrit les données et l'approche méthodologique. La section 4 présente et analyse les résultats. La section
5 sera consacrée à la conclusion.

2. Revue de littérature

2.1. Modèles de prévision de séries chronologiques

Dans la littérature, il existe différentes méthodologies adaptées pour prévoir les séries chronologiques. Elles peuvent être
listées comme suit : analyse statistique et mathématique, traitement du signal, extraction des caractéristiques, reconnaissance
des formes et apprentissage automatique. L'analyse statistique et mathématique dans les données de séries temporelles
consiste à déterminer les paramètres de tendance et de dispersion. L'ajustement de courbe, analyse de régression, moyenne
mobile autorégressive (ARMA), moyenne mobile intégrée autorégressive (ARIMA), analyse bayésienne, méthodes de filtrage de
Kalman sont les méthodes mathématiques généralement utilisées pour analyser et prévoir les données de séries temporelles
dans la littérature (Box, Jenkins, Reinsel, & Ljung, 2015). Toutefois, ces modèles reposent sur l'hypothèse de linéarité des données
chronologiques. De plus, des méthodes de traitement du signal telles que les transformées de Fourier et d'ondelettes sont
utilisées pour analyser les données de séries chronologiques. La transformée de Fourier discrète et la transformée en ondelettes
discrète et agrégée par morceaux sont également utilisées pour analyser les données de séries temporelles afin d'extraire des
caractéristiques et de trouver les similitudes dans les données (Hamilton, 1994). Contrairement aux approches traditionnelles,
les modèles d'apprentissage automatique sont également utilisés pour analyser les données et les prédictions de séries
temporelles. Ces modèles sont principalement utilisés pour réaliser le regroupement, la classification et la régression des
données chronologiques. Les algorithmes d'apprentissage courants pour effectuer ces différentes tâches sont les algorithmes de
clustering, modèles Markov cachés, machines vectorielles de support (MVS), réseaux de neurones artificiels (RNA) et cartes auto-
organisatrices.
La prévision de séries chronologiques est mise en œuvre dans différents domaines tels que la prévision de la vitesse du vent, la
prévision de la demande d'électricité, la prévision des concentrations polliniques aéroportées, la prévision de la reconnaissance
des activités humaines, le comportement des usagers (Sezer & Ozbayoglu, 2018). Pour les prévisions boursières, les modèles
traditionnels d'apprentissage automatique ont été très populaires. Certains chercheurs ont directement mis en œuvre des
prévisions chronologiques basées sur les données financières, tandis que d'autres ont utilisé des données techniques et/ou
d'analyse fondamentale afin d'obtenir de bonnes performances de prévision. Les réseaux de neurones, les algorithmes génétiques,
les systèmes basés sur des règles floues, ainsi que les modèles hybrides sont parmi les choix préférés. Les approches du modèle de
prévision telles que les RNA, MVS, les mécanismes hybrides, l'optimisation et les méthodes d'ensemble sont utilisées dans les
enquêtes (Cavalcante, Brasileiro, Souza, Nobrega, & Oliveira, 2016). D'autres chercheurs ont utilisé des modèles de réseaux
neuronaux dynamiques pour prédire l'indice boursier NASDAQ (Guresen, Kayakutlu, & Daim, 2011). Les approches génétiques et
évolutionnistes sont aussi appliquées pour prédire les cours boursiers (Aguilar-Rivera, Valenzuela-Rendón, & Rodríguez-Ortiz,
2015) et (Sezer, Ozbayoglu, & Dogdu, 2017).
Des modèles d'apprentissage automatique hybrides MVS combinés à l'analyse en composantes principales (ACP) et
à l'optimisation de la tempête cérébrale pour prévoir les prix des actions (J. Wang, Hou, Wang, & Shen, 2016).

2.2. Les facteurs déterminants de la liquidité des actions

Les facteurs communs à la liquidité des actions sont des évènements, des phénomènes ou des variables qui affectent la
liquidité d'un marché au même temps. Ces facteurs constituent la liquidité systématique des actions (Chordia, Roll, &
Subrahmanyam, 2000) sont les premiers chercheurs qui ont identifiés l'existence d'une liquidité commune. En effet, sur la base
des données journalières de l'année 1992 de la bourse Américaine NYSE, ils ont régressé la moyenne des mesures de la liquidité
de toutes les actions en fonction de la liquidité du marché, et ont affirmé l'existence d'une composante commune des variations
la revue gestion et organisation 10 (2018) 83–99 85

de liquidité. Ces auteurs ont conclu que les taux d'intérêt, la rentabilité et la volatilité du marché, les annonces de la croissance
économique et de chômage, la saisonnalité, les vacances et les jours fériés sont autant de facteurs faisant varier la fourchette, la
profondeur, le volume et le nombre de transactions de toutes les actions cotées sur le NYSE simultanément. Depuis, les chercheurs
se sont penchés non seulement sur l'existence de la liquidité commune, mais ils ont également insisté sur les déterminants de la
liquidité en se référant aux bourses nationales ou à l'échelle mondiale dans différents contextes de marché.
Au niveau national, Rösch et Kaserer (2014) ont utilisé un échantillon de 272 entreprises allemandes cotées de 2003 à 2009 pour
examiner la dynamique et les moteurs de la liquidité globale pendant les périodes de crise financière. Ils constatent une relation
positive entre le risque de liquidité et le risque de crédit et concluent que la liquidité du marché peut être un facteur de contagion
financière, car le resserrement des liquidités en période de crise financière entraîne une augmentation des points communs,
entraînant une illiquidité du marché. La politique monétaire affecte aussi la liquidité des actions. Une politique monétaire
expansionniste de la Banque centrale européenne entraîne une augmentation de la liquidité globale des marchés boursiers sur les
marchés allemand, français et italien, et inversement une politique monétaire restrictive engendre une sous liquidité (Fernández-
Amador, Gächter, Larch, & Peter, 2013).
En raison du phénomène de la globalisation financière, la liquidité mondiale des titres intéresse aussi les chercheurs. la
liquidité d'un échantillon de 22 447 actions appartenant à 40 pays de 1995 à 2009 est sensible aux changements dans les variations
des activités de négociation, la mondialisation, la présence d'investisseurs étrangers, la qualité de l'information et le sentiment et
le degré de protection des investisseurs (Karolyi, Lee, & Van Dijk, 2012). En outre, la liquidité intra-journalière des actions cotées en
39 bourses des valeurs dans le monde pour une période de 15 ans de 2 janvier 1996 au 31 Décembre 2010, est influencée par la
conjoncture économique et financière, le degré de protection des investisseurs et des facteurs culturels et comportementaux tels
que l'individualisme, le sexe et l'aversion au risque (Moshirian, Qian, Wee, & Zhang, 2017).

3. Données et méthodologie

3.1. Échantillon et mesure de la liquidité

Notre échantillon est constitué de toutes les actions cotées à la BVC de janvier 2007 à décembre 2016. Toutefois, nous avons
exclu les actions radiées, suspendues et nouvellement introduites pendant les trois dernières passées. L'échantillon est alors
composé de 70 actions.
La liquidité des actions est composée de quatre dimensions : la largeur, la profondeur, la résilience et l'immédiateté. La largeur
appelée aussi le spread ou la fourchette, exprime l'écart entre le prix proposé par l'acheteur et le vendeur. Un marché est profond si
les investisseurs sont capables de réaliser un volume important d'achat ou de vente sans affecter brutalement les cours. La
résilience mesure le degré de résistance d'un marché aux chocs. L'immédiateté exprime la vitesse d'exécution des opérations ; elle
est liée au temps. Toutefois, en raison de l'indisponibilité des données sur la vitesse d'exécution des opérations, nous retenons
seulement six indicateurs de la liquidité qui mesurent la largeur, la profondeur et la résilience.

3.1.1. Fourchette affichée

t Pt
PA B
Qst ¼ (1)
PM
t

Avec :

Qst Fourchette affichée à l'instant t


PAt Meilleur prix à la vente à l'instant t
PBt Meilleur prix à l'achat à l'instant t
PMt Prix du marché à l'instant t

Cet indicateur mesure la largeur du marché. Plus l'écart entre le meilleur vendeur et le meilleur acheteur est élevé par rapport
au prix du marché, plus la liquidité du titre est faible (Levin & Wright, 1999).

3.1.2. Taux de cotation

ni
(2)Qrt ¼ N
Avec :

Qrt Taux de cotation à l'instant t


N Nombre de jours de cotation durant un mois
ni Nombre de jours de la cotation de l'action i durant N
86 la revue gestion et organisation 10 (2018) 83–99

3.1.3. Fréquence

Nat
Frt ¼ (3)
FN

Avec :

Frt Fréquence à l'instant t


Nat Nombre d'actions échangées à l'instant t
FN Flottant durant la période N

3.1.4. Zéro rendement

Nj
Zrt ¼ (4)
N

Avec :

Zrt Zéro rendement à l'instant t


Nj Nombre de jours du rendement nul
N Nombre de jours de cotation durant la période N

Le taux de cotation, la fréquence et le zéro rendement mesurent la profondeur du marché. Plus le taux de cotation ou la
fréquence augmentent plus la liquidité du titre augmente. Par contre, le zéro rendement varie dans le sens contraire avec la
liquidité du titre.

3.1.5. Ratio de liquidité de la BVC

VM
RLt ¼ (5)
CB M

Avec :

RLt Ratio de la liquidité de la BVC à l'instant t


VM V volume à la fin de la période M
CBM Capitalisation boursière à la fin de la période M

Le taux de cotation, la fréquence et le zéro rendement et le ratio de liquidité de la BVC mesurent la profondeur du marché. Plus
le taux de cotation, la fréquence ou le ratio de la BVC augmentent plus l'investisseur est capable de lever des fonds importants, et
en conséquence, la liquidité du marché augmente. Par contre, le zéro rendement augmente, le marché est moins liquide.

3.1.6. Coefficient d'efficience du marché

p@2 ðrm Þ
CEMt ¼ (6)
@2 ðRM Þ

Avec :

CEMt Coefficient d'efficience du marché à l'instant t


@2(rm) Variance du rendement à la fin de la période m
@2(RM) Variance du rendement à la fin de la période M et avec m sous période de M ; M = p. m

Si ce ratio est supérieur à 1, la volatilité courte terme est supérieure à la volatilité longue terme et traduit la capacité du marché
à revenir à la tendance normale. Le marché est t plus résilient, et la liquidité du marché augmente. Dans le cas contraire, le marché
est moins résilient et, la liquidité baisse (Hasbrouck & Schwartz, 1988).
Après avoir collecté les informations journalières sur toutes les sociétés de l'échantillon, nous avons calculé une moyenne
mensuelle de chaque indicateur de janvier 2007 à décembre 2016. Ainsi, nous disposons de 120 observations pour chaque
indicateur de mesure de la liquidité ; soit 720 observations au total. La Fig. 1 ci-dessous indique l'évolution des mesures de la
liquidité.
À partir de cette figure, nous constatons une tendance à la baisse du taux de cotation, de la fréquence, du ratio de la BVC et de
coefficient d'efficience du marché, et ce malgré une légère reprise en 2016. De même, le zéro rendement a connu une hausse de
2007 à 2016. Il en résulte, la dégradation de la liquidité de la BVC de 2007 à 2015 avec légère amélioration en 2016.
la revue gestion et organisation 10 (2018) 83–99 87

Fig. 1 – Évolution des indicateurs de la liquidité de janvier 2007 à décembre 2016.

3.2. Modélisation ARIMA de la liquidité

Pour ce faire, nous devons suivre un ensemble d'étapes listées comme suit. Vérification de la stationnarité des variables,
détermination de la nature des chroniques stationnaires, estimation les modèles et appréciation de la qualité d'ajustement (Box &
Jenkins, 1976).

3.2.1. Vérification de la stationnarité des variables


Afin de vérifier la stationnarité des variables, nous utilisons le test de Dicky Fuller Augmenté. Les résultats de ce test sont
présentés dans le Tableau 1 suivant.
On constate que les variables Qs et CEM sont stationnaires en niveau alors que les autres variables ne le sont qu'après la
première différence.

3.2.2. Détermination de la nature des chroniques stationnaires


Une chronique stationnaire peut être soit à mémoire ou bruit blanc. Seules les chroniques à mémoire peuvent être modélisées
selon l'approche ARIMA. Pour identifier la nature de la chronique, nous nous référons au test de Box & Jenkins (1976) qui consiste
à vérifier la nullité des coefficients d'autocorrélation et d'autocorrélation partielle décalés de p périodes. Pour mener ce test, nous
avons utilisé le script suivant sous le logiciel Matlab.

 
½h; p ¼ lbqtestðy;0 Lags0 ; p1 ; p2 ; ::::pk Þ

Avec :

y Chronique y à tester
lbqtest Test de Box & Jenkins
0
 
Lags0 ; p1 ; p2 ; ::::pk Nombre de retards
h Résultat du test

Tableau 1 – Résultats du test de Dicky-Fuller augmenté.


Variables En niveau En première différence
*
t-Statistic Prob. t-Statistic Prob. *
Qs 9,811073 0,0000 15,89956 0,0000
Qr 1,825413 0,0652 10,28809 0,0000
Fr 1,158927 0,6801 15,89956 0,0000
Zr 1,917237 0,6237 13,5643 0,0001
RL 0,902846 0,9512 13,22015 0,0000
CEM 7,497557 0,0000 10,50782 0,0000
*
p < 5 %.
88 la revue gestion et organisation 10 (2018) 83–99

Tableau 2 – Résultats du test Box et Jenkins.


Variable p=5 p = 10 p = 15 p = 20 Nature de la chronique
Qs 1 1 1 1 A mémoire
D(Qr) 0 1 1 1 A mémoire
D(Fr) 1 1 1 1 A mémoire
D(Zr) 1 1 1 1 A mémoire
D(RL) 1 1 1 1 A mémoire
CEM 1 1 1 1 A mémoire

Si h = 0, les coefficients d'autocorrélation et d'autocorrélation partielle sont significativement nuls ; il s'agit alors d'un processus
de bruit blanc. Par contre, si h = 1, les coefficients d'autocorrélation et d'autocorrélation partielle sont significativement non nuls ;
il s'agit alors d'un processus à mémoire qui peut être modélisé selon l'approche ARIMA. Par souci de simplification, nous avons
mené ce test avec un décalage de 5, 10, 15 et 20 mois. Les résultats de ce test sont présentés dans le Tableau 2 ci-dessous.
À partir de ces résultats, nous constatons que toutes les chroniques stationnaires sont de type à mémoire ; elles seront alors
estimées avec la modélisation ARIMA.

3.2.3. Estimation des modèles


Les mesures de la liquidité sont divisées en deux ensembles. Un ensemble d'entraînement qui concerne la période de janvier
2007 à décembre 2015, soit 108 observations et un ensemble de validation composé des données de douze mois de l'année 2016.
Après plusieurs essais, nous avons retenu les modèles les plus représentatifs en se basant sur le coefficient de détermination, le
test de Fisher et les critères d'information d'Akaike et Schwarz. Il est à noter que lors de la modélisation, nous avons tenu compte
de l'effet saisonnier. Les modèles estimés les plus représentatifs sont présentés dans le Tableau 3 ci-dessous.

3.2.4. Qualité de la modélisation


La validité statistique des modèles ARIMA nécessite l'analyse des résidus d'estimation. En effet, un modèle ARIMA est validé
statistiquement si et seulement si les résidus d'estimation suivent une marche au hasard et sont homoscédastiques. Ces deux
conditions sont vérifiées si les coefficients de corrélations simples et partiels des résidus et des résidus au carré sont nuls. En plus,
nous avons utilisé le test de Jarque-Bera (1987) pour s'assurer que les résidus sont normalisés. Pour ce faire, nous avons un script
sous le logiciel Matlab qui est donné en Annexe A. Les résultats de l'exécution de ce script sont indiqués à la Fig. 2 ci- dessous.
Comme le montre la Fig. 2 ci-dessus, presque tous les coefficients de corrélation partiels des résidus et des résidus au carré sont
significativement nuls. Il en résulte que les résidus suivent une marche au hasard et sont homoscédastiques. Toutefois, tous les
résidus ne sont pas gaussiens sauf les résidus d'estimation de Qs et de CEM. En effet, les probabilités critiques de la statistique de
Jarque-Bera de ces résidus sont supérieures à 5 %.

3.3. Modélisation de la liquidité des actions selon le réseau de neurone NARX

3.3.1. Spécification du modèle


Le réseau autorégressif non linéaire avec entrées exogènes (NARX) est un réseau dynamique récurrent, avec des connexions de
retour d'informations englobant plusieurs couches du réseau. Le modèle NARX est basé sur le modèle linéaire ARX, couramment
utilisé dans la modélisation des séries temporelles. Le modèle NARX est défini selon l'équation suivante.

yt ¼ f ðyt1 ; yt2 ; yt3 ; ::::; ytk ; xt1 ; xt2 ; xt3 ; :::xtk Þ

Tableau 3 – Estimation des modèles.


Variables Qs Qr Fr Rl Zr CEM

Coef. Prob. Coef. Prob. Coef. Prob. Coef. Prob. Coef. Prob. Coef. Prob.
C – – 0,656 0,0000 – – 0,142 0,0000 0,209 0,0000 0,017 0,0000
D – – 0,001 0,0000 0,001 0,0000 0,021 0,0000 0,008 0,0000 – –
AR(1) 1,362 0,0000 0,986 0,0000 0,294 0,0025 1,834 0,0000 – – 0,671 0,0000
AR(2) 0,479 0,0000 – – – – 0,837 0,0000 – – 0,581 0,0002
AR(3) 0,260 0,0000 – – – – – – – – – –
AR(4) 0,188 0,0000 – – – – – – – – – –
SAR(12) – – 0,180 0,0316 0,963 0,0000 0,531 0,0000 – – 0,996 0,0000
MA(1) 0,999 0,0000 0,302 0,0002 – – 0,660 0,0009 0,783 0,0000 0,462 0,0000
MA(2) – – 0,327 0,0003 – – – – – – 0,793 0,0000
MA(12) – – – – 0,999 0,0000 – – – 0,926 0,0096
la revue gestion et organisation 10 (2018) 83–99 89

Fig. 2 – Analyse des résidus des modèles ARIMA.

La variable sortie yt est régressée de ses valeurs précédentes et des variables exogènes xt retardées de k périodes. Cette équation
permet également de former un modèle vectoriel NARX, où l'entrée et la sortie peuvent être multidimensionnelles. Un diagramme
du réseau résultant est montré à la Fig. 3 présente ci-dessous.
Le réseau NARX standard est un réseau à deux couches, avec une fonction de transfert sigmoïde dans la couche cachée et une
fonction de transfert linéaire dans la couche de sortie. Il peut être exécuté en boucle fermé ou ouverte. La première signifie que la
sortie du réseau NARX est renvoyée à l'entrée du réseau (par retards). Dans l'exécution en boucle ouverte, la sortie réelle est utilisée
au lieu de renvoyer la sortie estimée. Cela a deux avantages. Le premier est que l'entrée dans le réseau feedforward est plus précise.
La seconde est que le réseau résultant a une architecture purement feedforward, et la rétropropagation statique peut être utilisée
pour la formation.
Les variables de sortie de notre modèle sont les mesures de la liquidité retenues précédemment dans le modèle ARIMA à savoir
Qs, Qr, Fr, Zr, Rl et CEM. Les variables d'entrée sont constituées des variables de sortie retardées et des variables exogènes macro-
90 la revue gestion et organisation 10 (2018) 83–99

Fig. 3 – Architecture du réseau de neurone NARX.

économiques tenant compte de l'environnement économique, monétaire, budgétaire et financier. En raison de manque des
données mensuelles du taux de croissance économique, l'environnement économique est mesuré par te taux de chômage (TC) et
l'indice de la production industrielle (IPI). L'environnement monétaire est apprécié par la masse monétaire (MM), le taux d'intérêt
interbancaire (TIB) et les avances de la banque centrale (AV). La politique budgétaire est estimée par le taux d'intérêt des bons de
trésor (TBT), la dette publique intérieure (DPI) et le niveau des dépenses publiques (DP). L'impact de l'environnement financier est
évalué par la liquidité bancaire (LB), le volume d'introduction des sociétés en bourse (VO), le rendement des actions (R), la volatilité
des rendements mesurée par l'écart type (VOL), la capitalisation boursière (CB), le pourcentage d'investissements réalisé par des
institutionnels (INV) et la transparence du marché (TM) estimée par la corrélation partielle entre les rendements du jour j et j-1.
Comme les variables de sortie, les variables exogènes sont des données mensuelles allant de janvier 2007 à décembre 2016. Elles
sont collectées de la banque de données du ministère des finances, de la banque centrale (Bank al Maghrib) et de la Haute
Commissariat du Plan (HCP). Ainsi, nous disposons en total de 2520 observations.
Cette étude divise les données (2520 observations) en trois parties (formation, test et vérifications) : 70 % pour la formation, 15 %
pour la validation et le reste pour le test. L'algorithme d'entraînement est la régularisation bayésienne qui est plus adaptée aux
petits problèmes, et bien qu'elle prend plus de temps mais permet d'obtenir une meilleure solution. L'entraînement de ce réseau
s'est réalisé selon un code script Matlab présenté en Annexe B.
Après plusieurs essais, nous avons retenu un modèle avec 36 couches cachées et un retard de deux périodes. L'erreur moyenne
quadratique du modèle dynamique est de 0,4568. Par contre, l'erreur moyenne quadratique du modèle statique est de 0,2117. En
conséquence, nous choisissons le modèle statique dont l'organigramme est indiqué à la Fig. 4 suivante.

3.3.2. Qualité d'ajustement du modèle


Les critères de mesure de la qualité d'ajustement du réseau de neurone NARX sont listés comme suit : l'erreur d'apprentissage
et de validation, le coefficient de corrélation entre les outputs et les valeurs cibles, l'autocorrélation des résidus et la corrélation
entre les inputs et les erreurs d'ajustement.

3.3.2.1. Erreus d'apprentissage et de validation. L'entraînement s'est arrêté après 188 itérations lorsque le gradient atteint son
minimum (Fig. 5). L'erreur moyenne quadratique d'entraînement est de 3,2974e-13 et l'erreur du test est de 0,0020. Ces chiffres
n'indiquent aucun problème majeur avec la formation et le test. En plus, Il n'y a pas de sur apprentissage significatif car la courbe
des erreurs des valeurs testées n'a plus augmentée.

3.3.2.2. Corrélation entre les outputs et les valeurs cibles. Les outputs sont corrélés avec les valeurs cibles correspondantes pour la
formation et le test, et la valeur R est de 0,9967 pour la réponse totale (Fig. 6). Il existe une relation relativement linéaire entre les
sorties et les cibles. Ces résultats montrent un bon ajustement au niveau de l'apprentissage et de test.

3.3.2.3. Autocorrélation des résidus et la corrélation entre les inputs et les erreurs d'ajustement. Comme le montre la Fig. 7 suivante,
les coefficients d'autocorrélation entre les erreurs d'ajustement, à l'exception de celui à décalage nul, se situent dans les limites de
confiance de 95 % autour de zéro, de sorte que les erreurs ne sont pas auto-corrélées entre elles. De même, les coefficients de

Fig. 4 – L'organigramme du modèle NARX statique.


la revue gestion et organisation 10 (2018) 83–99 91

Fig. 5 – Performance du modèle NARX statique.

Fig. 6 – Corrélation entre les outputs et les valeurs cibles.

Fig. 7 – Autocorrélation des résidus et la corrélation entre les inputs et les erreurs d'ajustement.
92 la revue gestion et organisation 10 (2018) 83–99

corrélation entre les erreurs et les inputs se situent dans les limites de confiance de 95 % autour de zéro. En conséquence, les
erreurs d'ajustement ne sont pas corrélées avec les inputs. Il en résulte que la qualité d'ajustement du modèle est très
satisfaisante.

4. Résultats et discussions

Les mesures de la liquidité sont prévues sur la base de la modélisation ARIMA et de réseau de neurone NARX.

4.1. Prévisions de la liquidité des actions selon l'approche ARIMA

Les mesures de la liquidité sont prévues sur la base de la période de validation à savoir les douze mois de l'année 2016. Pour
apprécier la qualité des prévisions, nous comparons les résultats prévues avec les données réelles. Pour ce faire, un code script,
présenté en Annexe C, a été établi sous le logiciel Matlab. Les résultats de l'exécution de ce code sont indiqués à la Fig. 8 ci-dessous.
Pour évaluer plus précisément la qualité de prévisions, nous utilisons l'erreur quadratique moyenne (EQM) et l'erreur absolue
moyenne (EAM). En effet, ces deux indicateurs permettent de comparer les données réelles et prévisionnelles. Des valeurs faibles
de ces indicateurs signifient des prévisions précises. Les équations 7 et 8 montrent les formules de calcul de ces indicateurs.

1X M 
_ 2
EQM ¼ y y (7)
M i¼1 i i


M 

1X yi yÃi 
EAM ¼ (8)
M i¼1 yi

Où M période de validation, yi valeur observée et yÃi valeur prévue.


Les résultats de calcul de ces erreurs sont présentés dans le Tableau 4 suivant.

4.2. Prévisions de la liquidité des actions à base de réseau de neurone NARX

Le modèle NARX retenu est entraîné sur 108 périodes allant de janvier 2007 à décembre 2015. Puis, pour apprécier sa qualité
prédictive, nous prévoyons les six mesures de la liquidité pendant les douze mois de l'année 2016. Une comparaison est ensuite
effectuée entre les valeurs prévisionnelles obtenues avec les données réelles. La Fig. 9 suivante illustre cette la comparaison.

Fig. 8 – Qualité des performances prédictives des modèles ARIMA.

Tableau 4 – Résultats de calcul des erreurs d'ajustement des modèles ARIMA.


Variable Qs Qr Fr Rl Zr CEM
EQM 1,6419e-05 0,0084 0,0020 1,2221e-04 9,6584e-04 2,8434
EAM 0,0034 0,0789 0,0431 0,0094 0,0267 1,4017
la revue gestion et organisation 10 (2018) 83–99 93

Fig. 9 – Qualité des performances prédictives du modèle NARX.

Tableau 5 – Résultats de calcul des erreurs d'ajustement du modèle NARX.


Variable Qs Qr Fr Rl Zr CEM
EQM 2,3212e-07 0,0004 0,0006 1,8721e-05 5,3534e-05 1,6065e-05
EAM 4,8067E-05 0,0038 0,0129 0,0014 0,0015 7,919E-06

Pour apprécier la qualité des prévisions obtenues, nous calculons l'erreur quadratique moyenne (EQM) et l'erreur absolue
moyenne (EAM) entre les données réelles et les données prévues. Ces calculs sont présentés dans Tableau 5 suivant.

4.3. Comparaison entre les résultats

À partir des Tableaux 4 et 5, on constate que la modélisation NARX est plus performantes en termes de prévisions car son EQM
et son EAM sont les plus faibles. En effet, bien qu'on ait tenu compte de la stationnarité et l'effet de saison, les prédictions des
modèles ARIMA sont moins précises pour trois raisons essentielles. La modélisation ARIMA est très coûteuse au niveau de choix
des paramètres AR(p) et Ma(q) et de la différenciation. Elle se base sur l'hypothèse de linéarité des variables en fonction du temps.
Or en réalité, les mesures de la liquidité connaissent une certaine irrégularité et des fortes fluctuations avec le temps. Les modèles
ARIMA sont plus adaptés à effectuer des prédictions à court terme (Valipour, Banihabib, & Behbahani, 2013). Par contre, les facteurs
clés de succès de la modélisation NARX sont listés comme suit. Elle intègre, en plus du temps, d'autres variables exogènes tenant
compte de l'influence de l'environnement macro-économique et financier sur la liquidité des actions. Elle utilise la fonction de
transfert sigmoïde non linéaire entre les entrées et les sorties. Le modèle NARX est dynamique car il peut être exécuté en en boucle
fermé et, par conséquent, les sorties des périodes prévus deviennent des entrées des périodes suivantes.

5. Conclusion

Jusqu'à la crise financière 2008–2009, le risqué de liquidité des actions est sous-estimé aussi bien par les praticiens que le
chercheurs. Cependant, il présente des effets financiers et économiques. Il accentue le risque de marché des actions, réduit la
liquidité bancaire, et par conséquent déstabilise les systèmes financiers nationaux et mondial. En plus, il accroît le coût du capital
et le risque de défaillance des sociétés cotées. Il déstabilise aussi l'activité économique par le biais du canal financier.
La bourse des valeurs de Casablanca, en tant que petit marché, n'a pas échappé aux problèmes de la liquidité. Tous les
indicateurs de mesure de la liquidité ont connu une forte dégradation depuis janvier 2007 avec une légère amélioration en 2016. Les
prévisions du risque de liquidité des actions sont importantes pour les acteurs du marché, les autorités monétaires et les autorités
régulateurs. Toutefois, les prévisions de la liquidité des actions, comme toute série financière, sont très difficiles en raison de leur
caractère non stationnaire, saisonnier et irrégulier. Traditionnellement, l'analyse de régression linéaire, l'analyse bayésienne, les
méthodes de filtrage de Kalman, les moyennes mobiles autorégressif et les moyenne mobile intégrée autorégressive sont
généralement utilisées pour analyser et prévoir les données de séries temporelles. Actuellement, les modèles d'apprentissage
automatique se sont de plus en plus exploitées pour analyser et prédire les séries financières.
Sur l'appui d'un échantillon composé de 70 sociétés à la bourse des valeurs de Casablanca, en se référant à la période allant de
janvier 2007 à décembre 2016, nous avons essayé de prévoir les mesures de la liquidité des actions en utilisant d'abord la
modélisation ARIMA, puis les réseaux de neurones NARX.
94 la revue gestion et organisation 10 (2018) 83–99

En comparant les prédictions obtenues avec les deux modèles, sur la base de l'erreur moyenne quadratique et l'écart absolu
moyen, nous concluons que les réseaux de neurones NARX garantissent des prévisions plus précises. En effet, les modèles ARIMA
sont plus adaptés à effectuer des prévisions à court terme et suppose que les variables de mesure de la liquidité sont linéaires au
facteur temps. Les réseaux de neurones NARX, par contre, utilise la fonction de transfert sigmoïde non linéaire entre les entrées et
les sorties et permettent aussi d'intégrer des variables exogènes macro-économiques et financière comme facteurs explicatifs de
la liquidité.
La présente recherche est originale car c'est la première à notre connaissance qui s'est intéressée aux prévisions du risque de
liquidité des actions tout en se fondant sur une approche innovante basée sur la comparaison entre les méthodes traditionnelles et
les réseaux de neurones. Les résultats empiriques de cette recherche est encourageante. Toutefois, des résultats meilleurs peuvent
être obtenus en exploitant les réseaux d'apprentissage profond à mémoire à long terme.

Annexe A. Code Matlab des résidus d'estimation des modèles ARIMA

resQs = infer(EstMdQs,Qs);
stdrQs = resQs/sqrt(EstMdQs.Variance);
[h,p,jbstat,critval] = jbtest(resQs,[],0.05)
figure
subplot(3,3,1)
histogram(stdrQs,10)
title ('Residus standards de Qs')
subplot(3,3,2)
parcorr(resQs)
title ('Autocorrélation partielle des résidus de Qs')
subplot(3,3,3)
parcorr(resQs.^2)
title ('Autocorrélation partielle des résidus au carré de Qs')
hvec = findall(gcf, 'Type', 'axes');
set(hvec, 'TitleFontSizeMultiplier',0.8,..
'LabelFontSizeMultiplier', 0.8);
resQr = infer(EstMdQr,Qr);
stdrQr = resQr/sqrt(EstMdQr.Variance);
[h,p,jbstat,critval] = jbtest(resQr,[],0.05)
figure
subplot(3,3,1)
histogram(stdrQr,10)
title ('Residus standards de Qr')
subplot(3,3,2)
parcorr(resQr)
title ('Autocorrélation partielle des résidus de Qr')
subplot(3,3,3)
parcorr(resQr.^2)
title ('Autocorrélation partielle des résidus au carré de Qr')
hvec = findall(gcf, 'Type', 'axes');
set(hvec,'TitleFontSizeMultiplier',0.8,..
'LabelFontSizeMultiplier', 0.8);
resFr = infer(EstMdFr,Fr);
stdrFr = resFr/sqrt(EstMdFr.Variance);
[h,p,jbstat,critval] = jbtest(resFr,[],0.05)
figure
subplot(3,3,1)
histogram(stdrFr,10)
title ('Residus standards de Fr')
subplot(3,3,2)
parcorr(resFr)
title ('Autocorrélation partielle des résidus de Fr')
subplot(3,3,3)
parcorr(resFr.^2)
title ('Autocorrélation partielle des résidus au carré de Fr')
hvec = findall(gcf, 'Type', 'axes');
set(hvec, 'TitleFontSizeMultiplier', 0.8,..
'LabelFontSizeMultiplier', 0.8);
la revue gestion et organisation 10 (2018) 83–99 95

resRl = infer(EstMdRl,Rl);
stdrRl = resRl/sqrt(EstMdRl.Variance);
[h,p,jbstat,critval] = jbtest(resRl,[],0.05)
figure
subplot(3,3,1)
histogram(stdrRl,10)
title ('Residus standards de Rl')
subplot(3,3,2)
parcorr(resRl)
title ('Autocorrélation partielle des résidus de Rl')
subplot(3,3,3)
parcorr(resRl.^2)
title ('Autocorrélation partielle des résidus au carré de Rl')
hvec = findall(gcf, 'Type', 'axes');
set(hvec, 'TitleFontSizeMultiplier', 0.8,..
'LabelFontSizeMultiplier', 0.8);
resZr = infer(EstMdZr,Zr);
stdrZr = resZr/sqrt(EstMdZr.Variance);
[h,p,jbstat,critval] = jbtest(resZr,[],0.05)
figure
subplot(3,3,1)
histogram(stdrZr,10)
title ('Residus standards de Zr')
subplot(3,3,2)
parcorr(resZr)
title ('Autocorrélation partielle des résidus de Zr')
subplot(3,3,3)
parcorr(resZr.^2)
title ('Autocorrélation partielle des résidus au carré de Zr')
hvec = findall(gcf, 'Type', 'axes');
set(hvec, 'TitleFontSizeMultiplier',0.8,..
'LabelFontSizeMultiplier', 0.8);
resCEM = infer(EstMdCEM,CEM);
stdrCEM = resCEM/sqrt(EstMdCEM.Variance);
[h,p,jbstat,critval] = jbtest(resCEM,[],0.05)
figure
subplot(3,3,1)
histogram(stdrCEM,10)
title ('Residus standards de CEM')
subplot(3,3,2)
parcorr(resCEM)
title ('Autocorrélation partielle des résidus de CEM')
subplot(3,3,3)
parcorr(resCEM.^2)
title ('Autocorrélation partielle des résidus au carré de CEM')
hvec = findall(gcf, 'Type', 'axes');
set(hvec, 'TitleFontSizeMultiplier', 0.8,..
'LabelFontSizeMultiplier', 0.8);

Annexe B. Code Matlab de formation et d'entrainement du réseau de neurones NARX

X = tonndata(input5,true,false);
T = tonndata(ouput5,true,false);
.trainFcn = 'trainbr'; % Bayesian Regularization backpropagation.
% Create a Nonlinear Autoregressive Network with External Input
inputDelays = 1:2;
feedbackDelays = 1:2;
hiddenLayerSize = 36;
net = narxnet(inputDelays,feedbackDelays,hiddenLayerSize, 'open',trainFcn);
% Choose Input and Feedback Pre/Post-Processing Functions
% Settings for feedback input are automatically applied to feedback output
net.inputs{1}.processFcns = {'removeconstantrows', 'mapminmax'};
net.inputs{2}.processFcns = {'removeconstantrows', 'mapminmax'};
% Prepare the Data for Training and Simulation
% The function PREPARETS prepares timeseries data for a particular network,
[x,xi,ai,t] = preparets(net,X,{},T);
96 la revue gestion et organisation 10 (2018) 83–99

% Setup Division of Data for Training, Validation, Testing


net.divideFcn = 'dividerand'; % Divide data randomly
net.divideMode = 'time'; % Divide up every sample
net.divideParam.trainRatio = 70/100;
net.divideParam.valRatio = 15/100;
net.divideParam.testRatio = 15/100;
% Choose a Performance Function
net.performFcn = 'mse'; % Mean Squared Error
% Choose Plot Functions
% For a list of all plot functions type: help nnplot
net.plotFcns = {'plotperform', 'plottrainstate', 'ploterrhist',..
'plotregression', 'plotresponse', 'ploterrcorr', 'plotinerrcorr'};
% Train the Network
[net,tr] = train(net,x,t,xi,ai);
% Test the Network
y = net(x,xi,ai);
e = gsubtract(t,y);
performance = perform(net,t,y)
% Recalculate Training, Validation and Test Performance
trainTargets = gmultiply(t,tr.trainMask);
valTargets = gmultiply(t,tr.valMask);
testTargets = gmultiply(t,tr.testMask);
trainPerformance = perform(net,trainTargets,y)
valPerformance = perform(net,valTargets,y)
testPerformance = perform(net,testTargets,y)
% View the Network
view(net)
% The function CLOSELOOP replaces the feedback input with a direct
% connection from the outout layer.
netc = closeloop(net);
netc.name = [net.name' - Closed Loop'];
view(netc)
[xc,xic,aic,tc] = preparets(netc,X,{},T);
yc = netc(xc,xic,aic);
closedLoopPerformance = perform(net,tc,yc)
% Multi-step Prediction
numTimesteps = size(x,2);
knownOutputTimesteps = 1:(numTimesteps-5);
predictOutputTimesteps = (numTimesteps-4):numTimesteps;
X1 = X(:,knownOutputTimesteps);
T1 = T(:,knownOutputTimesteps);
[x1,xio,aio] = preparets(net,X1,{},T1);
[y1,xfo,afo] = net(x1,xio,aio);
% Next the the network and its final states will be converted to
% closed-loop form to make five predictions with only the five inputs
x2 = X(1,predictOutputTimesteps);
[netc,xic,aic] = closeloop(net,xfo,afo);
[y2,xfc,afc] = netc(x2,xic,aic);
multiStepPerformance = perform(net,T(1,predictOutputTimesteps),y2)
% inputs and the last closed-loop states xfc and afc.
% Step-Ahead Prediction Network
% given y(t + 1). For some applications such as decision making, it would
% help to have predicted y(t + 1) once y(t) is available, but before the
% actual y(t + 1) occurs. The network can be made to return its output a
nets.name = [net.name' - Predict One Step Ahead'];
view(nets)
[xs,xis,ais,ts] = preparets(nets,X,{},T);
ys = nets(xs,xis,ais);
stepAheadPerformance = perform(nets,ts,ys)
% Deployment
% Change the (false) values to (true) to enable the following code blocks.
% See the help for each generation function for more information.
if (false)
% Generate MATLAB function for neural network for application
genFunction(net, 'myNeuralNetworkFunction');
y = myNeuralNetworkFunction(x,xi,ai);
end
if (false)
% Generate a matrix-only MATLAB function for neural network code
la revue gestion et organisation 10 (2018) 83–99 97

% generation with MATLAB Coder tools.


genFunction(net, 'myNeuralNetworkFunction', 'MatrixOnly', 'yes');
x1 = cell2mat(x(1,:));
x2 = cell2mat(x(2,:));
xi1 = cell2mat(xi(1,:));
xi2 = cell2mat(xi(2,:));
y = myNeuralNetworkFunction(x1,x2,xi1,xi2);
end
if (false)
% Generate a Simulink diagram for simulation or deployment with.
% Simulink Coder tools.
gensim(net);
end

Annexe C. Code Matlab des prévisions de la liquidité des actions avec la modélisation ARIMA

y1 = Qs(1:108);
y2 = Qs(109:end);
MdQs = estimate(MdQs,y1);
yF1 = forecast(MdQs,12, 'Y0', y1);
pmse = mean((y2-yF1).^2)
err = immse(yF1,y2)
figure
plot(y2, 'r', 'LineWidth',2)
hold on
plot(yF1, 'k–', 'LineWidth',1.5)
xlim([0,12])
title('Prédiction')
legend('Observed', 'Forecast', 'Location', 'NorthWest')
hold off
err = pe (yF1,y2,12)
perf = mae(yF1,y2)
y1 = Qr(1:108);
y2 = Qr(109:end);
MdQr = estimate(MdQr,y1);
yF1 = forecast(MdQr,12, 'Y0', y1);
pmse = mean((y2-yF1).^2)
err = immse(yF1,y2)
figure
plot(y2, 'r', 'LineWidth', 2)
hold on
plot(yF1, 'k–', 'LineWidth', 1.5)
xlim([0,12])
title('Prédiction')
legend('Observed', 'Forecast', 'Location', 'NorthWest')
hold off
err = pe (yF1,y2,12)
perf = mae(yF1,y2)
y1 = Qs(1:108);
y2 = Qs(109:end);
MdQs = estimate(MdQs,y1);
yF1 = forecast(MdQs,12, 'Y0', y1);
pmse = mean((y2-yF1).^2)
err = immse(yF1,y2)
figure
plot(y2, 'r', 'LineWidth', 2)
hold on
plot(yF1, 'k–', 'LineWidth', 1.5)
xlim([0,12])
title('Prédiction')
legend('Observed', 'Forecast', 'Location', 'NorthWest')
hold off
err = pe (yF1,y2,12)
perf = mae(yF1,y2)
y1 = Fr(1:108);
y2 = Fr(109:end);
MdFr = estimate(MdFr,y1);
98 la revue gestion et organisation 10 (2018) 83–99

yF1 = forecast(MdFr,12, 'Y0', y1);


pmse = mean((y2-yF1).^2)
err = immse(yF1,y2)
figure
plot(y2, 'r', 'LineWidth', 2)
hold on
plot(yF1, 'k–', 'LineWidth', 1.5)
xlim([0,12])
title('Prédiction')
legend('Observed', 'Forecast', 'Location', 'NorthWest')
hold off
err = pe (yF1,y2,12)
perf = mae(yF1,y2)
y1 = Rl(1:108);
y2 = Rl(109:end);
MdRl = estimate(MdRl,y1);
yF1 = forecast(MdRl,12, 'Y0', y1);
pmse = mean((y2-yF1).^2)
err = immse(yF1,y2)
figure
plot(y2, 'r', 'LineWidth', 2)
hold on
plot(yF1, 'k–', 'LineWidth', 1.5)
xlim([0,12])
title('Prédiction')
legend('Observed', 'Forecast', 'Location', 'NorthWest')
hold off
err = pe (yF1,y2,12)
perf = mae(yF1,y2)
y1 = Zr(1:108);
y2 = Zr(109:end);
MdZr = estimate(MdZr,y1);
yF1 = forecast(MdZr,12, 'Y0', y1);
pmse = mean((y2-yF1).^2)
err = immse(yF1,y2)
figure
plot(y2, 'r', 'LineWidth', 2)
hold on
plot(yF1, 'k–', 'LineWidth', 1.5)
xlim([0,12])
title('Prédiction')
legend('Observed', 'Forecast', 'Location', 'NorthWest')
hold off
err = pe (yF1,y2,12)
perf = mae(yF1,y2)
y1 = CEM(1:108);
y2 = CEM(109:end);
MdCEM = estimate(MdCEM,y1);
yF1 = forecast(MdCEM,12, 'Y0', y1);
pmse = mean((y2-yF1).^2)
err = immse(yF1,y2)
figure
plot(y2, 'r', 'LineWidth', 2)
hold on
plot(yF1, 'k–', 'LineWidth', 1.5)
xlim([0,12])
title('Prédiction')
legend('Observed', 'Forecast', 'Location', 'NorthWest')
hold off
err = pe (yF1,y2,12)
perf = mae(yF1,y2)

 fe
re  rences

Aguilar-Rivera, R., Valenzuela-Rendón, M., & Rodríguez-Ortiz, J. (2015). Genetic algorithms and Darwinian approaches in financial
applications: A survey. Expert Systems with Applications, 42(21), 7684–7697.
la revue gestion et organisation 10 (2018) 83–99 99

Amihud, Y., Mendelson, H., & Pedersen, L. H. (2005). Illiquidity and stock returns: Liquidity and asset pricing. Foundation and Trends in
Finance, 1, 269–364.
Apergis, N., Artikis, P. G., & Kyriazis, D. (2015). Does stock market liquidity explain real economic activity? New evidence from two large
European stock markets. Journal of International Financial Markets, Institutions and Money, 38, 42–64.
Box, G. E., & Jenkins, G. M. (1976). Time series analysis: Forecasting and control. San Francisco: Holden-Day.
Box, G. E., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). Time series analysis: Forecasting and control. John Wiley & Sons.
Brunnermeier, M. K., & Pedersen, L. H. (2008). Market liquidity and funding liquidity. The Review of Financial Studies, 22(6), 2201–2238.
Cavalcante, R. C., Brasileiro, R. C., Souza, V. L., Nobrega, J. P., & Oliveira, A. L. (2016). Computational intelligence and financial markets:
A survey and future directions. Expert Systems with Applications, 55, 194–211.
Chen, M.-Y., & Chen, B.-T. (2015). A hybrid fuzzy time series model based on granular computing for stock price forecasting. Information
Sciences, 294, 227–241.
Cherif, A., Cardot, H., & Boné, R. (2011). SOM time series clustering and prediction with recurrent neural networks. Adaptive Incremental
Learning in Neural Networks, 74(11), 1936–1944.
Chordia, T., Roll, R., & Subrahmanyam, A. (2000). Commonality in liquidity. Journal of Financial Economics, 56(1), 3–28.
Fernández-Amador, O., Gächter, M., Larch, M., & Peter, G. (2013). Does monetary policy determine stock market liquidity? New evidence
from the euro zone, Journal of Empirical Finance, 21, 54–68.
Geithner, T. (2007). Liquidity and financial markets. Presented at the Keynote address at the 8th annual risk convention and exhibition, Global
Association of Risk Professionals, New York.
Golan, I. (2017). Liquidity risk prediction using Bayesian networks. Neural Networks & Machine Learning, 1(1), 3.
Guresen, E., Kayakutlu, G., & Daim, T. U. (2011). Using artificial neural network models in stock market index prediction. Expert Systems
with Applications, 38(8), 10389–10397.
Hamilton, J. D. (1994). Time series analysis (Vol. 2). Princeton: Princeton University Press.
Hasbrouck, J., & Schwartz, R. A. (1988). Liquidity and execution costs in equity markets. The Journal of Portfolio Management, 14(3), 10–16.
Hu, Y.-C. (2017). Electricity consumption prediction using a neural-network-based grey forecasting approach. Journal of the Operational
Research Society, 68(10), 1259–1264.
Karolyi, G. A., Lee, K.-H., & Van Dijk, M. A. (2012). Understanding commonality in liquidity around the world. Journal of Financial
Economics, 105(1), 82–112.
Lahmiri, S. (2016). Interest rate next-day variation prediction based on hybrid feedforward neural network, particle swarm
optimization, and multiresolution techniques. Physica A: Statistical Mechanics and Its Applications, 444, 388–396.
Levin, E. J., & Wright, R. E. (1999). Explaining the intra-day variation in the bid – ask spread in competitive dealership markets – A
research note. Journal of Financial Markets, 2(2), 179–191.
Moshirian, F., Qian, X., Wee, C. K. G., & Zhang, B. (2017). The determinants and pricing of liquidity commonality around the world.
Journal of Financial Markets, 33, 22–41.
Rösch, C. G., & Kaserer, C. (2014). Reprint of: Market liquidity in the financial crisis: The role of liquidity commonality and flight-to-
quality. Journal of Banking & Finance, 45, 152–170.
Rubio, A., Bermúdez, J. D., & Vercher, E. (2017). Improving stock index forecasts by using a new weighted fuzzy-trend time series
method. Expert Systems With Applications, 76, 12–20.
Sezer, O. B., Ozbayoglu, A. M., & Dogdu, E. (2017). An artificial neural network-based stock trading system using technical analysis and
big data framework. Presented at Proceedings of the South East Conference, ACM (pp. 223–226).
Sezer, O. B., & Ozbayoglu, A. M. (2018). Algorithmic financial trading with deep convolutional neural networks: Time series to image
conversion approach. Applied Soft Computing.
Skjeltorp, J. A., & Ødegaard, B. A. (2015). When do listed firms pay for market making in their own stock? Financial Management, 44(2),
241–266.
Valipour, M., Banihabib, M. E., & Behbahani, S. M. R. (2013). Comparison of the ARMA, ARIMA, and the autoregressive artificial neural
network models in forecasting the monthly inflow of Dez dam reservoir. Journal of Hydrology, 476, 433–441.
Wan, Y., Gong, X., & Si, Y.-W. (2016). Effect of segmentation on financial time series pattern matching. Applied Soft Computing, 38,
346–359.
Wang, J., Hou, R., Wang, C., & Shen, L. (2016). Improved v-Support vector regression model based on variable selection and brain storm
optimization for stock price forecasting. Applied Soft Computing, 49, 164–178.
Wang, L., Wang, Z., & Liu, S. (2016). An effective multivariate time series classification approach using echo state network and adaptive
differential evolution algorithm. Expert Systems with Applications, 43, 237–249.
Xiao, Y., Xiao, J., Liu, J., & Wang, S. (2014). A multiscale modeling approach incorporating ARIMA and ANNS for financial market
volatility forecasting. Journal of Systems Science and Complexity, 27(1), 225–236.

Vous aimerez peut-être aussi