MEMOIRE PROFESSIONNEL
INTELLIGENCE ARTIFICIELLE & AUDIT : LE MACHINE
LEARNING AU SERVICE DE LA DETECTION DE LA FRAUDE
1
2
Remerciements
Je tenais avant tout à remercier Deloitte pour ces années d’alternance au cours desquelles j’ai
beaucoup appris sur les théories et les pratiques professionnelles du commissariat aux comptes,
ainsi que sur l’organisation du système économique.
Je remercie également l’ensemble des répondants qui ont accepté de partager leur expérience
et leur expertise en donnant de leur temps pour la réalisation de mon enquête terrain.
Mes remerciements s’adressent aussi à Rémi Nabonne, ingénieur logiciel diplômé de l’ISEP et
de Cranfield University (Londres), Jean-Baptiste Dupuy, élève ingénieur à l’école d’Epitech
Paris et Guillaume Cuny, étudiant bi-cursus en 6ème année de médecine à l’Université de
Strasbourg et en master 2 d’entreprenariat à l’EM Strasbourg, ingénieur systèmes embarqués
diplômé de l’ESIEE Paris et ingénieur en bio-ingénierie et innovation en neurosciences diplômé
de BME Paris, pour leur sensibilisation au machine learning. Ils m’ont permis de m’approprier
les bases d’un outil complexe grâce à leurs connaissances dans ce domaine.
Pour la relecture et la mise en page, mes remerciements vont à Mme Olivia Dupuy, écrivain
public diplômée de la licence professionnelle Conseil en écriture professionnelle et privée et au
Lieutenant-colonel Beauvy, officier de l’Armée de terre.
Enfin, je suis reconnaissant envers les professeurs qui m’ont accompagné tout au long de la
rédaction de ce mémoire.
3
4
Table des matières
Remerciements .................................................................................................................. 3
Tableaux .......................................................................................................................... 8
Avant-propos .................................................................................................................... 9
Attestation de l’employeur.............................................................................................. 11
5
II. 1. 1 - Les méthodes d'enquêtes et leur pertinence ................................................... 48
II. 2 - Vérification des hypothèses de recherche : l'analyse des résultats d'enquête ... 58
Annexes ........................................................................................................................ 72
Bibliographie .................................................................................................................. 91
6
Table des illustrations
Illustration 1 : Triangle de Kranacher et al. (2011) et Dorminey (2012) comparé à celui de
Cressey (1950)…....……………………………………………...……..……..28
Illustration 2 : Positionnement des groupes sur les facteurs appartenant aux thèmes mission,
équipe/cabinet et réglementation……………………………………………...33
Illustration 7 : Guide pratique en 10 points sur le bon usage du machine learning par les cabinets
d’audit…..…………………………………………………………………….66
7
Tableaux
Tableau 1 : Cadre légal et réglementaire de la fraude en audit………………………………..27
Tableau 2 : Etat des lieux des points d’attention en matière d’audit de fraude………………..29
Tableau 9 : Guide d’entretien à destination des CAC n’utilisant pas le machine learning……55
8
Avant-propos
Particulièrement intéressé par les innovations technologiques et l’intelligence artificielle, ce
sujet m’a permis de lier mes centres d’intérêt et mon activité professionnelle. Après avoir
obtenu le diplôme de comptabilité et gestion (DCG), j’ai intégré le cabinet Deloitte dans le
cadre d’une alternance préparant au diplôme supérieur de comptabilité gestion (DSCG). Je
souhaite poursuivre dans la formation comptable et commencer le stage d’expertise comptable
en vue de soutenir le diplôme d’expert-comptable (DEC).
C’est au travers de mes missions chez Deloitte que j’ai été amené à réaliser des tests sur la
détection de la fraude (annexe 1, p.72). Du négoce de produits d’entretien au géant de la
logistique en passant par un réseau de franchise de cordonnerie, j’ai eu l’occasion d’appliquer
les méthodes de détections de la fraude dans divers secteurs. Aussi, le choix de ce sujet m’a
permis de prendre de la hauteur sur les pratiques professionnelles et mieux comprendre les
origines et les enjeux des travaux menés par les commissaires aux comptes (CAC).
La seconde partie aborde le sujet choisi de « Intelligence artificielle & audit : le machine
learning au service de la détection de la fraude ». Elle se décompose en une revue de littérature
(articles de recherche, presse professionnelles, conférences, MOOCs etc.) et sa confrontation
avec les discours des chercheurs et des professionnels du monde de l’audit et du machine
learning.
9
10
Attestation de l’employeur
11
12
Fiche d’agrément
13
14
15
16
17
18
19
20
Intelligence artificielle & audit : le machine learning au service de la
détection de la fraude
Introduction
Les innovations dans le secteur informatique n’ont eu de cesse d’améliorer la qualité des audits
légaux menés par les commissaires aux comptes (CAC) ainsi que d’optimiser le temps
d’intervention. Tant sur le plan matériel que logiciel, l’outil informatique s’est mis au fur et à
mesure au service des métiers de la comptabilité et, notamment, de l’audit. Aussi, depuis la
publication de Will en 19751 sur le langage Audit Command Language, divers travaux ont
abouti au concept de Computer-aided audit tools2 (en français, Techniques d'audit assistées par
ordinateur, TAAOs). L’outil informatique basé sur l’interdépendance entre l’homme et la
machine se trouve actuellement complété par l’outil numérique qui peut agir indépendamment
de l’intervention humaine. Le développement de l’intelligence artificielle, dont les métiers de
la finance sont fortement demandeurs, s’inscrit dans cette tendance
1
https://www.tandfonline.com/doi/abs/10.1080/03155986.1975.11731597
2
Techniques à la disposition du commissaire aux comptes pour analyser les données de l’entreprise, parallèlement
aux techniques de sondages sur les procédures. (CNCC)
21
En effet, dans le cadre du machine learning, l’intervention de l’homme se fait en début de
processus et se limite à la préparation et l’incorporation des données dans l’algorithme. Cette
innovation inscrite dans l’intelligence artificielle est définie par le groupe Whalts comme « un
type d’intelligence artificielle qui confère aux ordinateurs la capacité d’apprendre sans être
explicitement programmés. Cette technologie s'appuie sur le développement de programmes
informatiques capables d'acquérir de nouvelles connaissances afin de s'améliorer et d'évoluer
d'eux-mêmes dès qu’ils sont exposés à de nouvelles données. »3 Rappelons que l’intelligence
artificielle (IA, ou AI en anglais pour Artificial Intelligence) est communément admise comme
une pratique qui consiste à mettre en œuvre un certain nombre de techniques visant à permettre
aux machines d'imiter une forme d'intelligence réelle4.
L’ensemble de ces concepts s’inscrit dans le cadre général de la Big Data, en plein essor
aujourd’hui. Traduit par « métadonnées », le phénomène de Big Data reflète l’idée que les
entreprises, les consommateurs et, plus généralement, l’activité économique génèrent un
nombre massif de données brutes que les outils d’analyse ou de gestion peinent à assimiler. Il
en découle une volonté de vouloir maitriser ces données avec, notamment, la forme la plus
avancée de l’IA au travers de procédés appelés Deep Learning (en français, apprentissage
profond). Très présent dans le marketing digital5, le Deep Learning permet d’obtenir, à l’aide
d’algorithmes, une synthèse sur des tendances ou des classifications à partir d’une population
massive de données grâce à un traitement par couches successives.
3
http://www.lemagit.fr/definition/Machine-Learning
4
https://www.futura-sciences.com/tech/definitions/informatique-intelligence-artificielle-555/
5
https://www.forbes.com/sites/louiscolumbus/2018/02/25/10-ways-machine-learning-is-revolutionizing-
marketing/#3d1d06875bb6
6
https://www.cncc.fr/mission-legale.html
22
Les récents travaux de Richard Thaler (Prix Nobel d’Economie en 2017) ont permis de mettre
en avant l’importance de la prise en compte des facteurs psychologiques et sociologiques dans
les agissements des agents économiques7. Ses travaux sur la finance comportementale
démontrent qu’il existe une multitude de forces qui font pression volontairement, ou non, sur
les agents dans leur processus décisionnel. Le point de départ de toute sa réflexion, est le
suivant : « Quand les choses se compliquent, les simples mortels se prennent parfois les pieds
dans le tapis. » Il marque la fin de la rationalité au sens de l’école néoclassique comme une
situation dans laquelle les agents disposent de l’ensemble de l’information disponible pour agir
et reconnait une limite à l’homo œconomicus8.
La rationalité limitée, telle que définie par Herbert Simon (Prix Nobel d’Economie 1978)
s’oppose à l’optimisation et se trouve au cœur des processus décisionnels. Selon Simon, il existe
trois facteurs principaux qui remettent en cause le choix d’une décision optimale : l’information
disponible (et/ou coût de l’information), les motivations du décideur (psychologie, valeurs,
personnalité, freins…) et sa capacité cognitive. Cette approche est à mettre en lien avec nos
démarches subjectives d’approches par les risques. Qu’il s’agisse de la définition de nos seuils
de matérialité9 ou des sources potentielles de risques, le résultat est le fruit d’une démarche
intellectuelle et professionnelle qui nous amène à prendre une décision.
7
http://www.laviedesidees.fr/Nudge-ou-le-paternalisme.html
8
Sujet conçu par l'analyse économique comme un être agissant de manière parfaitement rationnelle.
9
Montant au-delà duquel les décisions économiques ou le jugement fondé sur les comptes sont susceptibles d'être
influencés. (NEP 320 – Compagnie nationale des commissaires aux comptes).
10
http://www.capsurlenumerique.fr/
11
https://www.lesechos.fr/finance-marches/vernimmen/definition_comptabilite-creative.html
23
Encadrée par la norme d’exercice professionnelle 240 (NEP-240) « Prise en considération de
la possibilité de fraudes lors de l'audit des comptes », la compagnie nationale des commissaires
aux comptes (CNCC) attire l’attention du CAC sur les anomalies relevant de la fraude et à sa
distinction de l’erreur. Cette NEP rappelle notamment que la fraude se distingue de l’erreur du
fait de son caractère intentionnel, matérialisé par le fait qu’elle est « généralement
accompagnée de procédés destinés à dissimuler les faits » (NEP-240). Le CAC doit ainsi faire
« preuve d'esprit critique et tient compte, tout au long de son audit, du fait qu'une anomalie
significative résultant d'une fraude puisse exister. » (NEP-240).
Potentiellement présente dans tous les cycles revus lors de nos missions12, la suspicion de fraude
mènera à des tests spécifiques de la part de l’équipe d’audit afin de s’assurer de manière
raisonnable qu’elle n’existe pas. Toutefois, notre sujet n’a pas vocation à cibler l’ensemble des
fraudes propres à chacun de ces cycles qui puissent exister comme le pilotage par les stocks, la
dissimulation d’actifs ou les problématiques de reconnaissances de chiffre d’affaires, mais
simplement par l’analyse des états financiers en se basant sur le FEC.
Au regard des concepts précédemment définis, de la mission légale du CAC et de ses limites
potentielles : « Quels sont les procédés actuels permettant de tester la fraude ? » « Présentent-
ils des limites ? » « Comment fonctionne le machine learning ? » « Quelle application au métier
de commissaire aux comptes ? » « Peut-il se substituer à la démarche de l’auditeur ?»
Afin de traiter notre problématique, nous verrons dans un premier temps l’approche par les
risques préconisée dans la détection de la fraude. Puis nous nous intéresserons aux
améliorations attendues de l’implémentation de l’intelligence artificielle dans les travaux de
l’auditeur (I). A l’issu, nous confronterons ces éléments avec l’avis de chercheurs, d’experts et
de professionnels de sorte à dégager des préconisations et des recommandations de nos analyses
(II).
12
http://www.apdc-france.fr/wp-content/uploads/La-fraude-comptable-et-financi%C3%A8re-mai-2014.pdf
24
I. Le machine learning : une technologie d’avenir pour l’audit dans
l'identification de la fraude
Il est obligatoire dans le cadre de la mission légale du commissaire aux comptes de s’assurer de
manière fiable qu’aucune anomalie significative ne résulte de pratiques intentionnelles, comme
le définit la NEP 240. Aussi, l’émergence de nouvelles pratiques avec le développement de
l’intelligence artificielle amène à repenser les approches traditionnelles (I.1) au regard des
avancées technologiques et particulièrement celle de l’apprentissage des machines (I.2).
Le métier du CAC est encadré par une obligation de moyens, orientant ainsi son approche
d’audit. N’étant pas contraint de devoir expliquer chaque flux, chaque solde de l’entité, il va
déterminer des niveaux de risques afin de prioriser ses travaux et adapter sa planification.
Tandis que la profession s’est adaptée au contexte socioéconomique (I.1.1) l’auditeur ne reste
pas moins soumis à des limites cognitives et émotionnelles (I.1.2).
Au regard de la NEP 315 il est établi que le professionnel de l’audit n’est tenu de s’intéresser
qu'aux éléments « matériels », cela signifie que les impacts non significatifs sur les comptes
font seulement l'objet d’une revue et non de tests approfondis (sauf exceptions). Potentiellement
présente dans tous les cycles comptables, la fraude est approchée au travers de diverses
méthodes telles que le journal d'opérations diverses (OD) ou le FEC.
Au sens juridique, la fraude est un acte « accompli en vue de porter atteinte délibérément aux
droits et intérêts d'autrui. »13 Le droit pénal la définit comme une tromperie ou un acte de
mauvaise foi « par lequel on lèse quelqu'un en se soustrayant aux règlements. » Dans la sphère
comptable, l’International Federation of Accountants (IFAC) propose la définition
suivante : « acte intentionnel commis par une ou plusieurs personnes parmi les membres de la
direction, les responsables de la gouvernance, les employés ou des tiers, impliquant le recours
à des manœuvres trompeuses dans le but d’obtenir un avantage indu ou illégal. »14 Dans les
13
http://www.cnrtl.fr/definition/fraude
14
http://www.nifccanada.ca/key-terms-french-only/item21186.pdf
25
NEP de la CNCC, la fraude est décrite comme un acte « intentionnel portant atteinte à l’image
fidèle des comptes et de nature à induire en erreur l’utilisateur des comptes »15.
Les scandales financiers du début du siècle ont contraint les régulateurs à mettre à jour leurs
approches d’audit afin de faire face à ces nouveaux enjeux. En effet, la loi Sarbanes-Oxley
(SOX) aux Etats-Unis s’est traduite par la mise à jour des normes SAS-82 et SAS-99 tandis que
la loi sur les nouvelles réglementations économiques (loi NRE) en France a donné lieu au
renforcement de la NEP-240 par la publication CNCC-2002 adoptée le 3 juillet 2003 ainsi que
l’article L225-L235 du code de commerce. Nous avons synthétisé ces normes qui insistent sur
15
Pratique frauduleuse consistant en un détournement de l'actif d'une société au profit d'un tiers, sans contrepartie
pour l'entreprise victime du détournement.
16
In Carassus et Cormier (2003).
17
Idem Carassus et Cormier (2003).
18
Ibid Carassus et Cormier (2003).
26
l’importance du contrôle interne dans la prévention et la détection de la fraude ainsi que le
renforcement du scepticisme professionnel chez les auditeurs dans le tableau suivant :
Etat des lieux des outils utilisés dans la détection de la fraude sur la base du FEC
La NEP-240 prévoit que l’auditeur doit déterminer le niveau risque de fraude dans sa
planification lorsqu’il se prononce sur l’évaluation du risque d’anomalies significatives. Cette
évaluation sera déterminante pour le reste de la mission d’audit en ce sens qu’elle conditionne
l’étendu des tests de préventions et de détection qui seront réalisés lors des interventions. Le
triangle de la fraude modélisé par Cressey en 1950 constitue un outil pertinent lors de la phase
de planification. Sur la base de plus de 200 entretiens avec des criminels incarcérés pour
escroquerie, il distingue les trois principales motivations à l’origine de la fraude (Wells, 2001) :
• La pression financière non réductible ;
• L’opportunité de réaliser l’action ;
• La conviction que l’auteur n’est pas en train de commettre un crime.
Ce modèle a été mis à jour par les travaux de Kranacher et al. (2011) et Dorminey (2012)
permettant de mieux comprendre les moyens mis en œuvre pour prévenir et identifier la fraude
plus facilement. La fraude est caractérisée de la manière suivante (Le Maux et al., 2013, p .5) :
• « L’acte frauduleux consiste à développer une méthodologie et la mettre en pratique ;
• La dissimulation représente l’acte ayant pour objectif de cacher la fraude ;
• La conversion est le processus de transformation des bénéfices mal-acquis en actifs
utilisables par le fraudeur. »
L’illustration 1 compare la version traditionnelle du triangle de fraude, tel que décrit pas
Cressey en 1950 (à droite) avec l’actualisation du modèle par suite des travaux de Kranacher et
al. en 2011 et ceux de Dorminey en 2012.
27
Illustration 1 : Triangle de Kranacher et al.(2011) et Dorminey (2012) comparé à celui de Cressey (1950)
Grâce au premier modèle, l’auditeur peut répondre à la question « Qui est susceptible d’être à
l’origine de la fraude ? » Le deuxième modèle permet de mieux identifier les mécanismes et les
processus au travers desquels la fraude a le plus de chance de se trouver. Par exemple, le journal
des opérations divers fait souvent l’objet d’une revue spécifique car les écritures sont
généralement passées et/ou approuvées par un membre de direction. Or, les membres de
direction sont parmi les plus concernés par le triangle de la fraude, d’autant plus lorsqu’il s’agit
d’anciens auditeurs19.
Dès lors que le CAC décide de mettre en place des tests spécifiques sur la comptabilité, il
dispose de différents outils pour identifier le fait « qu'une anomalie significative résultant d'une
fraude puisse exister ». Le premier outil dont dispose l’auditeur, avant même de solliciter des
supports analytiques, reste son jugement professionnel. Miledi et Pigé (2013) traduisent la
définition de l’IAASB (2001, 6) comme suit « L’atteinte des objectifs des ISA […] dépend d’un
déterminant essentiel – les personnes qui assurent l’audit. C’est leur connaissance, leur
expérience et leur compréhension du client qui fait une réelle différence dans la qualité de
l’audit. Il est indéniable que l’exécution efficace de la plupart des exigences des ISA dépend
d’une compétence personnelle essentielle – le jugement professionnel. Atteindre l’objectif d’un
audit de grande qualité dépend de la capacité des auditeurs à exercer un jugement
professionnel approprié et pertinent tout au long de leur mission. »
19
In Carasus et Cormier (2003, p.187).
28
le CAC devra compléter son savoir-faire pour émettre un jugement professionnel et se
prononcer sur les travaux à mener dans l’identification et la prévention de la fraude.
Tableau 2 : Etat des lieux des points d’attention en matière d’audit de fraude
20
Score financier qui permet de prédire la probabilité de faillite à 2ans d’une entreprise.
21
Personnel interne de l’entreprise possédant des actions de celle-ci.
29
un modèle prédictif efficace à 76%
sur la base de 74 firmes.
Johnson et A l’aide d’une méthode basée sur la Dès lors qu’il s’agit d’actions et non d’options d’achat,
al. régression logistique, identification plus l’intéressement des cadres au capital est élevé, plus
(2009) de 71 cas de fraudes sur 87. le risque de fraude l’est aussi.
Lors de son enquête, Carassus et Cormier (2003) se sont adressés à la profession comptable
pour demander si la mise en place d’outils analytiques spécifiques à la fraude est nécessaire.
63% d’entre eux ont répondu être en faveur de cette approche. Le recours à outil analytique
consiste à faire appliquer un traitement informatique sur une base de données numérique. Dans
le cadre du FEC, l’auditeur peut s’appuyer sur des logiciels ou des tableurs capables d’effectuer
des calculs et des analyses de corrélations grâce aux statistiques. En ce qui concerne la fraude,
l’analytique permet d’intégrer la loi de Benford, d’effectuer un MUS (monetary unit sampling,
en français : sondage en unité monétaire) ou encore de réaliser des sélections aléatoires.
Pour qu’il soit utilisable par l’auditeur, le MUS doit répondre au triptyque suivant : un niveau
de confiance souhaitable, un taux de déviation acceptable et un taux d’écart attendu sur la
population (Messier, Glover et Prawitt, 2014). La loi de Benford22 donne la probabilité attendue
que le chiffre constituant le début d’un nombre (représenté par la lettre D dans la formule) ait
la plus forte occurrence d’apparition dans une base de données chiffrée. Dans la suite [14,0896 ;
(-0,140896) ; 14 089,6] le premier chiffre de la suite est à chaque fois 1 car la loi de Benford
fait abstraction des 0 et du sens (+/-) du nombre. Gomes da Silva et Carreira (2013) ont
expérimenté et modélisé une méthode d’audit dite « Silva method » qui base l’ensemble des
22
In Nigrini (2017).
30
sélections lors d’un audit de fraude sur la loi de Benford. L’idée sous-jacente est que la
fréquence de D liées à des données frauduleuses ou manipulées sera différente de la fréquence
de D dans un contexte hors fraude. La formulation avec m la valeur maximale de l’échantillon,
j une variable d’ajustement égale à 1 pour faire abstraction du 0 de la loi de Benford se fait
comme suit :
−1
𝑚
En prenant comme point de départ le scandale WorldCom, Lanza et Gilbert (2007) publient un
article dans la presse professionnelle sur la nécessité des outils analytiques dans les tests
d’audits sur la fraude. Ils précisent également la nécessité de coupler le contrôle interne avec
un test sur la base du general ledger (en français le grand livre général) que l’on peut assimiler
au FEC en comptabilité française. Aussi, les auteurs préconisent l’usage d’un journal entry
testing (JET, test sur les écritures comptables) assisté par ordinateur car l’outil analytique
permet de focaliser le temps et l’énergie de l’auditeur sur l’analyse des opérations ayant un fort
niveau de risque. C’est au travers du Practice Alert 2003-02 que les auteurs se reposent
principalement pour se prononcer sur la pertinence du JET, du fait, notamment, d’une meilleure
aisance des CAC face aux chiffres et la comptabilité par rapport au contrôle interne.
La fraude est un acte protéiforme et bien souvent dissimulé. Bien que le CAC dispose d’un
panel d’outils lui permettant d’identifier la personne et les mécanismes impliqués dans la
fraude, des scandales tels qu’Enron (2001), Vivendi (2002), Société Générale (2005) et, plus
récemment, William Saurin (2016) posent la question des limites des outils traditionnels.
Les travaux menés en 1957 par Simon23 ont permis de synthétiser les trois facteurs à l'origine
des limites au processus décisionnel que sont : l'information disponible ou son coût, les
motivations du décideur (psychologie, valeurs, personnalité, freins…) et ses capacités
(notamment cognitives). En respect avec les NEP, l'auditeur met alors en place des mesures
permettant de tester la fraude de la manière la plus pertinente possible.
23
Herbert Simon, prix Nobel d’économie 1978 pour ses recherches en matière de processus décisionnels au sein
des organisations.
31
Cadre théorique de la rationalité limitée
Dans son étude sur la « self-compassion » (en français, l’auto-compassion) Neff a mené une
étude mettant en exergue les biais cognitifs dans la vie quotidienne24. A travers un sondage
adressé à différentes populations (âge, sexe, nationalité) elle posait des questions de type « Etes-
vous bon(ne) conducteur(trice) ? » avec 4 réponses possibles « A- dans les meilleurs 25% »,
« B- meilleur que la moyenne », « C- moins bien que la moyenne » ou « D- parmi les plus
mauvais ». Les taux de réponses A et B ont montré que 90% de l’échantillon se considère
comme meilleur que la moyenne. Ce phénomène a été vérifié chez les enseignants (90% d’entre
eux considèrent comme meilleur que la moyenne des enseignants), les entrepreneurs ou encore
les mariés dont le score atteint quasiment 100%.
Dans le cadre d’une démarche empirique, Gonthier-Besacier et al. (2012) ont mis en évidence
une vingtaine de facteurs qui influencent de manière significative la qualité d’un audit. Ils ont
interrogé des professionnels en gestion ayant des audits externes dans les entités dans lesquelles
24
In Sibony (2014)
25
Bien que Kahneman et Tversky aient mené beaucoup de travaux ensemble, seul Kahneman reçu le prix Nobel
d’économie en 2002 pour leurs recherches en économie psychologique et expérimentale.
32
ils travaillent. Le groupe 1 correspond à des gestionnaires travaillant dans des entités générant
plus de 200 millions d’euros de CA et qui n’est pas accompagnée par un EC. Le second groupe
est constitué de répondants appartenant à une entreprise dont le CA est compris entre 100 et
200 millions d’euros et étant possiblement accompagnée par un EC.
Illustration 2 : Positionnement des groupes sur les facteurs appartenant Les répondants du groupe 1
aux thèmes mission, équipe/cabinet et réglementation
considèrent que les éléments
ayant un impact positif dans la
qualité de l’audit étaient
essentiellement lié à la mission
(implication du CAC signataire,
connaissance du dossier et la
gestion du temps et des
équipes). Par ailleurs, bien que
la taille du cabinet soit un gage
de qualité, les procédures de
travail, fortement standardisées
dans les grands cabinets, ont un
impact négatif sur la qualité
Source : Gonthier-Besacier et al. (2012), p.46 d’un audit. Concernant le
groupe 2, les facteurs de qualité d’un audit sont plus nombreux (13 contre 3 pour le groupe 1).
Les plus significatifs étant le changement de mandat (indépendance), la participation à des
instances professionnelles (gage de professionnalisme) et le respect des règles en dehors de la
mission (exemplarité).
Les principaux scandales comptables et financiers révèlent une forte corrélation avec les
cabinets de type Big4. En effet, le tableau ci-dessous indique que 45 des 88 cas recensés étaient
sous mandat Big4. La question se pose alors de savoir si la taille du cabinet impacte la qualité
d’un audit ou bien si le type d’entité auditée par les Big4 sont plus susceptibles de frauder.
33
Arthur Andersen & KPMG 1 USA
Arthur Young & Co 1 USA
Coopers & Lybrand 1 USA
DTT 11 CA, USA
EY 14 Australie, CA, Chine, Irlande, Japon, USA
Fox & Company 1 USA
Friehling & Horowitz 1 USA
Grant Thornton 1 Italie
Homes and Davis 1 USA
Other Audit Firms 2 Iran
KPMG 8 Belgique, Canada, USA
Lybrand, Ross Brothers, & Montgomery 1 USA
Peat, Marwick, Mitchell & Co. 2 USA
PwC 12 Angleterre, Bermudes, Canada, Indes, USA
Touche, Niven & Co. 1 USA
Wagman, Fruitman & Lando 1 Canada
Wolfson Weiner; Ratoff & Lapin 1 USA
Non renseigné 15 Angleterre, Australie, Brésil, Canada, USA
Grand Total 88
Source : D’après https://en.wikipedia.org/wiki/Accounting_scandals
Sur la base d’une modélisation mathématique, un modèle propose de mesurer la qualité d’une
mission audit en fonction de la taille du cabinet (Sirois et al. 2016). Soit π la valeur de marché
de l’entité auditée en fonction du niveau contrôle qui s’exerce sur elle, AEi le volume d’heures
d’audit acheté par l’entité audité et y le niveau des autres mécanismes d’audit et de gouvernance
interne :
Par extension, Sirois et al. (2016) définissent également la valeur de π au travers des variables :
• δixi : qualité de l’audit achetée à, et livrée par, un auditeur i (c’est-à-dire, capacité de
l’auditeur i à découvrir une ou des anomalies significatives dans les états financiers, en
excluant les problématiques liées à l’indépendance)
• 𝛼 : proportion du budget B alloué à l’audit externe
• y : tel que décrit précédemment.
Les conclusions de ces travaux mettent en avant le fait que les Big4 apportent plus de qualité à
leur travail, notamment grâce aux outils analytiques et aux investissements en innovations
34
technologiques. Cependant, si les non-Big4 existent sur le marché de l’audit c’est parce qu’ils
proposent des services d’audit légaux plus adaptés aux structures n’ayant soit pas les moyens
ou l’intérêt de mandater un Big4, soit des besoins ne nécessitant pas de faire appel aux outils
analytiques et technologiques que proposent ces grands cabinets. Par ailleurs, l’organisation de
type Big4 permet de pallier les biais cognitifs par la prise de décision collégiale. En effet, lors
de leur enquête sur le jugement professionnel en audit, Milédi et Pigé (2013) rapportent les
propos d’un CAC selon qui l’absence de comité technique en interne ne permet pas le partage
de connaissance, alourdissant le ressenti de la responsabilité dans la décision chez un CAC non-
Big426.
Au travers du tableau 3 (p.34) nous remarquons que les Etats-Unis (USA), apparaissent dans
quasiment toutes les lignes. Aussi, en 2008, Pearson et Singleton proposent à l’AICPA
(American Institute of Certified Public Accountants) un module de formation dit « Fraud &
Forensic Accounting » à intégrer dans le CPA (Certified Public Accountant) équivalent du
Diplôme d’Expert-Comptable (DEC) aux Etats-Unis.
La compétence des auditeurs repose sur « des connaissances, une formation, une qualification
et une expérience suffisantes pour mener à bien un audit financier »27. Partant d’un postulat
similaire, Pearson et Singleton (2008) ont fait état de la faiblesse des capacités cognitives lié à
une carence dans la formation comptable aux Etats-Unis. Reprenant l’exemple du scandale
WorldCom ils soulèvent les problématiques et les enjeux de la formation, notamment la
sensibilisation à l’environnement digital et aux techniques d’audits assistés par ordinateur.
C’est également l’exemple repris par Lanza et Gilbert (2007) pour sensibiliser à l’utilisation
des outils analytiques dans la détection de la fraude. Dans une étude de l’ACFE menée de 2002
26
Milédi et Pigé (2013, p.13)
27
In Gonthier-Besacier et al. (2012, p.36)
35
à 2006, il a été constaté que seulement 11% des cas de fraudes sont identifiés par le CAC, ce
qui souligne le manque de formation de la profession28. Deux carences sont distinguées :
• Les fondamentaux de la fraude (cycles risqués, domaines d’activités sensibles, schéma
comptables …)
• L’adéquation des formations à l’environnement technologique (cybersécurité, data
mining, internet …).
D’après nos recherches sur le cadre légal et les pratiques à disposition de l’auditeur dans l’audit
de la fraude, l’ensemble des forces et des biais agissant sur le CAC (voir annexes 3, p.74) et 4,
p.77), la qualité de sa mission d’audit et la pertinence des travaux menés, nous émettons
l’hypothèse de recherche (HR1) suivante :
Du concept général d’intelligence artificielle découle divers outils dont le machine learning,
apprécié pour sa neutralité et sa fiabilité (I.2.1). Dans les secteurs du marketing ou de la
médecine, il transforme les métiers d’aujourd’hui sans pour autant les remplacer, posant ainsi
la question des changements dans le milieu de l’audit (I.2.2).
Bien que le concept de machine learning soit récent, les outils statistiques qui le composent
sont, eux, utilisés dans la détection de la fraude depuis plus longtemps. Aussi, l’apport de
l’intelligence artificielle se caractérise par la concaténation de ces divers modèles statistiques
28
Pearson et Singleton et al. (p.547)
36
et offre la mise en place d’un développement endogène qui s’auto entretient par l’expérience,
même si sa démocratisation reste bridée par différents facteurs.
Le machine learning a pour finalité d’apprendre à la machine à faire ce que l’homme fait, pour
le moment, mieux qu’elle. A ses prémisses, l’IA à la fin du XXème consistaient à « singer » les
processus cognitifs, l’enjeux des data scientists au XXIème est de faire mieux que l’esprit
humain29. La notion de machine learning est systématiquement renvoyée à l’IA en tant qu’outil
qui découle de l’intelligence artificielle. Cependant, comme le rappelle Alexandre Gramfort 30,
l’apprentissage automatique peut exister indépendamment de la notion d’IA (illustration 3).
Apprentissage Automatique
Intelligence
artificielle à
système de
Deep
raisonnement Learning**
symbolique*
Cette technologie fonctionne selon deux approches différentes, schématisée dans l’illustration
3:
- L’approche dite « supervisée » consiste à prédire une donnée T appelée « target » sur la
base de données classifiée et connues a priori. Elle peut répondre à une question fermée
de type « Blanc ou noir ? » ou bien à une demande ouverte d’information « quelle serait
la valeur probable de cet immeuble ? »
29
C. Berthet, rapporteur de la commission Villani, lors de la conférence JUREM, 29/05/2018.
30
Data scientist à l’origine de Scikit Learn, une bibliothèque de codage informatique financée par l’INRIA, Paris-
Saclay, Telecom Paritech, Columbia University, University of Sydney, Sloan Fondation et Google.
37
- L’approche « non supervisé » est utilisée lorsque l’une des variables est manquante ou
qu’elles n’ont pas été étiquetées. Elle consiste, pour la fraude, à reconnaitre les situations
d’anomalies par une étape préalable d’apprentissage autonome de ce que sont des
situations « normales » à l’aide d’une multitude d’exemples différents.
Machine Learning
Non-supervisé Supervisé
(data non labélisée) (data labélisées)
Partitionnement de
Classification
données
(Classification)
(Clustering)
Détection
Hiérarchisation
d’anomalie
(Ranking)
(Anomaly detection)
Réduction de
dimensionnalité Régression
(Dimensionality (Regression)
reduction)
En ce qui concerne le métier de commissaire aux comptes, ces méthodes peuvent permettent de
faire de l’évaluation de risque, de la planification, des sélections pour tests de détails ou encore
se substituer à des examens analytiques de validations (Perols, 2011). Dans le cadre de la
détection de la fraude, l’algorithme est entrainé à mettre en évidence les anomalies qu’il détecte
dans sa base de données. Par défaut, une approche non supervisée est mise en place avec comme
objectif d’identifier les outlier que détecte la machine31. La notion d’outlier désigne un cas isolé
ou déviant par rapport au reste du dataset, c’est-à-dire que l’algorithme déterminera un
« deviation standard » (en français, écart type) qui sera l’éloignement acceptable par rapport à
une valeur de référence. Les valeurs les plus éloignées sont alors diagnostiquées comme une
anomalie. Concernant l’approche supervisée, elle ne répond pas à la solution face à un cas de
fraudes étant donné que la fraude n’est a priori pas connue. Une telle approche n’est
envisageable qu’en amont pour la prédiction du risque de fraude ou en aval pour classifier les
schémas de fraudes une fois qu’ils ont été identifiés (Andrew Ng, MOOC, Standford
university).
31
Ng A., Semaine 9 - Anomaly Detection, Machine Learning, Standford University.
38
Les facteurs de fiabilité de l’apprentissage automatique
Feroz et al. (1991) ou encore Green et Choi (1997) que nous avons abordé précédemment au
travers de l’état des lieux des outils utilisés dans la détection de la fraude proposaient des
approches algorithmiques dans l’identification de la fraude. La différence significative avec les
travaux plus récents de Perols (2011), Zhang et Ling (2013) Song et al. (2014) ainsi que Hajek
et Henriques (2017) est la capacité de calcul des outils informatiques permettant la combinaison
d’algorithmes propre au machine learning comme outil d’intelligence artificiel.
L’apprentissage ensembliste consiste à utiliser au sein d’un même modèle une multitude
d’algorithmes d’apprentissages afin d’accroitre les performances de l’outil. Les différentes
méthodes utilisées par ces auteurs sont synthétisées dans le tableau ci-dessous :
Méthode Résumé
Permet d’exprimer la relation d’une variable en fonction d’une ou plusieurs
Régression Logistique autres (la probabilité X d’être malade au regard des symptômes Y1, Y2, … Yn).
Elle est utilisée pour déterminer ou non l’occurrence d’un évènement.
Machine à Vecteur de Support Procédé de discrimination par lequel l’algorithme classifie les prévisions
(Support Vector Machine, d’une variable de sorte à mettre en évidence plusieurs tendances parmi la base
SVM) de données.
Réseau de Neurones
Programme imitant le cheminement intellectuel humain. Il est basé sur le
Artificiels
principe d’inférence bayésien, c’est-à-dire qu’il se sert des éléments passés
(Artificial Neural Network,
pour conjecturer sur l’avenir par cohérence.
ANN)
Modèle d’apprentissage basé sur un arbre décisionnel qui permet d’effectuer
de la classification supervisée de la façon suivante :
Arbre de décision C4.5 - Décider si un nœud est terminal
- Si un nœud n’est pas terminal, sélectionner un test à lui associer
- Si un nœud est terminal, lui affecter une classe.
Méthode permettant d’accroitre l’exactitude et la stabilité d’un modèle grâce
Bootstrap aggregating
à la réduction de la variance (dispersion d’un échantillon) par créations de
(Bagging)
données supplémentaires qu’il juge pertinent.
Le stacking consiste à combiner des algorithmes afin d’accroitre l’efficacité
Stacking
de son modèle en tirant les avantages de chaque algorithme.
Source : Hajek et Henriques (2017), Perols (2011), Song et al. (2014) et Zhang et Ling (2013)
32
https://www.cs.waikato.ac.nz/ml/weka/
39
d’ingénierie logicielle qui consiste à développer un logiciel, ou des composants logiciels, et de
laisser en libre accès le code source produit [pour qu’il puisse] être exploité par les
développeurs et les entreprises souhaitant soit l’adapter à leurs besoins métiers, soit affiner
son intégration avec leur système d’information.33» En plus d’être gratuit pour l’utilisateur, les
codes source ouverts sont alimentés en permanence par le savoir de la communauté utilisatrice,
garantissant toujours plus de fiabilité, comme le souligne Rouse dans sa présentation. Parmi les
principales bibliothèques open sources d’apprentissage automatique utilisées par les
professionnels TensorFlow (Google), Apache MXnet (Apache Software Foundation), FeaturFu
(LinkedIn), DMTK (Microsoft), Keras (Google, Microsoft, NVidia et Amazon) sont des
exemples d’outils développés par des entreprises privées. Il existe également des projets issus
de la recherche universitaire tel que Scikit-Learn ou Weka. Ainsi, l’usage de bases ouvertes
permet aux entreprises de rester en phase avec les évolutions numériques et technologiques
ainsi que de réaliser des économies de coûts sur la mise à jour de leurs outils.
Nous comprenons qu’il existe des facteurs de fiabilités qui font la renommée du machine
learning, notamment la possibilité de combiner des modèles mathématiques et statistiques entre
eux, la capacité de la communauté des data scientists à renforcer ces outils grâce à l’open
source. Ainsi, au regard de notre sujet, nous proposons l’hypothèses de recherche suivante :
33
https://www.lemagit.fr/definition/Open-Source
34
Audevart A. (2017), Machine Learning de A à Z, Salon de la Data, Nantes, France. (Retranscription disponible
à l’adresse suivante : https://www.youtube.com/watch?v=BLZo9QLt0UY )
35
https://docs.microsoft.com/fr-fr/azure/machine-learning/team-data-science-process/prepare-data
40
Dans sa notice, Microsoft Azure rappelle que les principaux écueils rencontrés sont les bruits
(aberrations, erreurs), les incohérences (contradictions entre les données) et l’incomplétude de
l’information (manquement de valeur ou d’attributs). Déjà en 2016, la revue Forbes 36 publiait
des résultats selon lesquels la récupération de données occupe en moyenne 19% du temps de
l’équipe, le nettoyage et l’organisation mobilise 60% du temps et près de 9% du projet consiste
à identifier les patterns37.
Dans la chronologie présentée ci-dessus, nous remarquons que la phase suivante celle de
récupération et traitement des données est la construction du modèle. Contrairement aux étapes
précédentes, celle-ci ne présente pas de caractère chronophage et occupe seulement 3% du
temps. Pendant cette étape, l’enjeux n’est pas la gestion du temps, mais la recherche de la
précision et la qualité de l’algorithme. Tandis que la plupart des services qualité tolère une
marge d’erreur de 10% à 25% pour lancer leur production, la précision d’une intelligence
destinée à assister ou à se substituer à l’homme peut parfois exiger une marge d’erreur de
seulement 108 d’écart (Charly Berthet, rapporteur de la commission Villani), c’est-à-dire que
la probabilité d’erreur acceptable est de 1/10 000 000.
36
https://www.forbes.com/sites/gilpress/2016/03/23/data-preparation-most-time-consuming-least-enjoyable-data-
science-task-survey-says/#48b1b5ef6f63
37
Série ou séquence dde donnée qui se répète et constitue un modèle.
38
http://easynomie.com/le-detour-de-production-illustre/ (Esteban Giner, Professeur d’économie, Université Paris
Est)
41
L’investissement (le réseau de plomberie) lui permet in fine d’économiser du temps et de
l’énergie (les aller-retours jusqu’à la source d’eau potable) de sorte qu’il puisse se consacrer à
de nouveaux projets ou se focaliser sur des activités à plus forte valeur ajoutée, notamment
l’accroissement de son capital humain (Gary Becker, 1992). Dans ce processus, Böhm-Bawerk
souligne le phénomène paradoxal selon lequel l’agent économique va réduire sa productivité
pendant la phase de conception et de réalisation du sceau ou du réseau de plomberie. Cependant,
ce temps dédié au projet futur lui permet d’accroitre sa productivité future, une fois la mise en
place effectuée. Dans le cadre du machine learning, on comprend de l’étude de Forbes que le
projet peut prendre un temps considérable en termes de traitement des données et
d’entrainement du modèle algorithmique.
Bien qu’il existe des bases open source qui permettent de réduire les coûts de mise en œuvre,
la mobilisation d’équipes d’ingénieurs, de data scientists et d’auditeurs constitue un enjeu
stratégique et financier pour les cabinets d’audit en ce sens qu’ils ne s’agit pas d’heures de
travails affectées à la production de l’audit des comptes des entités clientes mais à de la
recherche et développement.
Force est de constater qu’il existe des barrières à l’entrée, principalement techniques et
financières. Nous formulons notre hypothèse de recherche HR3 qui découle de ce constat
comme suit :
HR 3 : Il existe des barrières à l’entrée pour mettre en place un outil de type machine
learning dans un cabinet d’audit.
L’usage du machine learning amènera à des changements dans divers professions dont la data
n’est pas le cœur de métier. Il sera amené à changer l’approche et le rôle de l’auditeur dans sa
mission et conduira à de nouveaux enjeux dans l’exercice de ses fonctions.
99,5%, c’est le taux de réussite qu’obtiennent les chercheurs de la Harvard Medical School dans
la détection de cancer du sein lorsque le médecin s’associe au machine learning39, tandis que
la machine seule se trompe dans 8% des cas et le spécialiste seul dans 4% des cas. Ce genre de
recherches permet de statuer en faveur d’une complémentarité de l’Homme et de la machine.
39
In Rapport France Stratégie, p.56.
42
Yann LeCun, chercheur français considéré comme l’un des fondateurs du Deep Learning,
reconnait que l’apprentissage automatique est plus efficace que des ingénieurs dans certains
domaines, ce qui peut s’avérer « désespérant pour des gens qui ont passé leur carrière à essayer
de faire le design de ces [outils], mais c’est un fait »40. Yannick Meiller, met également en
garde quant à l’appréhension de la machine par l’homme. Il souligne l’existence d’un « risque
psychosocial » qu’il ne faut pas négliger car selon lui « c’est aussi un douloureux sentiment
d’inutilité qui peut dominer, un sentiment d’incapacité, d’inaptitude et d’échec permanent ».
En ce qui concerne la profession de CAC nous pouvons considérer qu’à l’instar des médecins,
il y aura moins de personnes impliquées dans la préparation et l’analyse des éléments
nécessaires au diagnostic. Nous assisterons à une revalorisation du diplôme et des compétences,
rendant le niveau d’expertise exigé d’autant plus important. Enfin, l’un des risques abordés par
le rapport de France Stratégie est celui de la surcharge de travail que peut amener
l’apprentissage automatique. Considérant en effet que les tâches simples et fastidieuses sont
traitées par l’outil numérique, l’expert se focalisera sur des opérations plus complexes
nécessitant plus d’attentions, des analyses plus fines et donc plus de connaissances.
Parmi les plus grands travaux de recherches menés par des institutions françaises tel que l’ordre
des médecins, la CNIL, France Stratégie et tant d’autres, la rapidité de traitement de
l’information par la machine est unanimement reconnue. La question que sous-tend ce constat
est celle de la gestion du temps de l’expert à l’ère du machine learning. En prenant comme
exemple le domaine de la santé, le rapport France Stratégie considère que l’usage de
l’apprentissage automatique permet à l’expert de se « recentrer son activité sur les cas les plus
complexes, sur la formation et bénéficier d’un apprentissage continu ». Le médecin « sera aussi
conduit à renforcer la relation et le dialogue médecin-patient, afin d’apporter l’information
nécessaire à la compréhension des diagnostics. » Dans les métiers de l’audit, et notamment
l’investigation de la fraude, nous avons vu au travers des précédentes sous-partie que l’analyse
des chiffres sur la base de différents ratios permettait d’identifier des cas de fraudes internes au
travers de la comptabilité (tableau 3). Tandis que l’outil d’apprentissage statistique détecte
rapidement les risques de fraudes au travers de la comptabilité, l’auditeur pourra privilégier
l’investigation au travers d’entretiens avec des interlocuteurs de l’entité auditée. Il pourra
étendre son analyse au-delà des chiffres et du fichier des écritures comptables de sorte à
percevoir ce que la machine ne peut percevoir au travers du comportement humain. Par ailleurs,
un tel outil permet également une meilleure allocation des ressources humaines sur une mission
40
https://www.youtube.com/watch?v=RgUcQceqC_Y&t=1338s
43
d’audit. C’est du moins ce que met en avant le Conseil National de l’Ordre des Médecins
(CNOM) dans son livre blanc dédié à l’intelligence artificielle lorsqu’il présente le quotidien
du Pr Francois et son assistante Galiena (voir annexe 5, p.78).
Si nous prenons le cas de l’industrie aéronautique, les chercheurs comme Clément Ader (1897)
se sont inspirés de la biologie pour mimer des animaux tel que la chauve-souris et s’inspirer de
leur façon de voler pour concevoir des avions41. Concernant l’IA, les ingénieurs, au travers de
techniques s’appuyant sur des réseaux de neurones artificiels, s’inspirent du cheminement
intellectuel humain pour mettre en place leurs outils. Or, même si nous sommes en mesures de
comprendre le fonctionnement du cerveau par le jeu des neurones et des synapses, le
raisonnement intellectuel d’un individu est quant à lui imperceptible. Cet aspect « boîte noire »
s’applique également aux algorithmes qui composent les outils d’apprentissages automatiques.
C’est-à-dire qu’il est impossible de comprendre comment la machine produit ses outputs,
qu’elle ait tort ou raison. Selon Eric Topol, cardiologue généticien et chercheur en médecine
numérique aux Etats-Unis, l’intelligence artificielle et les outils d’apprentissages automatiques
resteront complémentaires aux experts pour des raisons évidentes de capacité à expliquer le
résultat de leurs observations. Or, dans un rapport annuel sur les comptes d’une société, le
commissaire aux comptes doit justifier ses appréciations et ses commentaires. L’absence
d’explicabilité de l’algorithme remet en cause le fondement du jugement professionnel du CAC
ayant conduit à ses appréciations. Meiller rappelle aussi qu’un des enjeux pour l’utilisateur est
de ne pas accorder une confiance aveugle au machine learning car il peut mettre en évidence
des corrélations entre des éléments par l’identification de patterns, mais ces relations ne sont
pas systématiquement causales.
41
http://culture.cnam.fr/histoires-d-objets/aeroplane-de-clement-ader-659204.kjsp
44
Illustration 6 : Cadre et paramètres expérimentaux
Qualité du dataset
42
Matsas P. (29/03/2018), Intelligence articille : Les propositions de Cédric Villani, Le Figaro, 20-21.
45
de Philippe Besse, professeur de mathématique et de statistique de Toulouse qui alerte sur le
problème de représentativité des échantillons et des populations utilisées en médecine
prédictive assisté par intelligence artificielle (voir annexe 7, p.79). Selon lui, « si vous êtes une
femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous
concerne ».
Par ailleurs, le paradoxe de Simpson rappelle la nécessité de nourrir les algorithmes de données
le plus brut possible afin d’éviter les biais de l’agrégation d’information. Ce phénomène
démontre qu’une donnée globale agrégée peut donner une information contradictoire par
rapport aux données détaillées qui la composent43. Dans l’exemple pris par Arthur Charpentier,
professeur de sciences actuarielles à l’université de Montréal, deux hôpitaux A et B sont
comparés sur la base du taux de survie de leurs patients « sains » versus le taux de survie des
patients « malades ». Dans l’analyse par découpage « sain » versus « malade », l’hôpital A
apparait comme le plus performant. Cependant, l’effet volume fait qu’au global, l’hôpital B
accorde plus de chance de survie au patient, quel que soit sa situation comme l’illustre le tableau
ci-dessous :
Taux de Choix
Situation Hôpital Population Survivants Décès
survie rationnel
L’enjeux de la sauvegarde des données n’est pas nouveau pour les cabinets, le sujet de la
migration vers les services de cloud-coumputing avait relancé le débat il y a quelques années44.
La différence avec le Big Data c’est que la responsabilité est accrue du fait de la volumétrie de
donnée et la menace grandissante des cyberattaques. L’entreprise Cisco, dans son rapport de
43
https://freakonometrics.hypotheses.org/231
44
Bacchi M. et al. (2014), Guide pratique sur le bon usage du Cloud Computing par les cabinets d’expertise-
comptable, Collection des études Institutionnelles.
46
2017, faisait état des cas de cyberattaques connues touchant les entreprises. Aussi, il s’avère
que « 8% des attaques ont coûté 4 millions d'euros et plus aux entreprises et organisations
touchées en 2017 »45. Les données à caractère financier et stratégiques des entreprises que les
cabinets d’audit stockent pour les besoins de leur mission légale sont sensibles, voire
confidentielles. Aussi, si les cabinets décident les accumuler en masse pour les besoins de leur
technologie d’intelligence artificielle, ils s’exposent à des répercutions d’autant plus importante
en cas de faille dans leurs systèmes de cybersécurité.
45
https://www.cisco.com/c/dam/global/fr_fr/solutions/security/pdfs/Cisco2017MidyearCybersecurityReportFR.p
df
46
http://www.lrqa.fr/RGPD-Reglement-General-sur-la-Protection-des-Donnees-Personnelles/
47
« Une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un
identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à
un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique,
économique, culturelle ou sociale »
(https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32016R0679&from=FR , page 33)
47
II. Enquête terrain, analyse des résultats et recommandations
Dans le cadre d'une méthode hypothético-déductive, nous avons déduit quatre hypothèses de
recherche de notre revue de littérature. Cette partie a pour objet de présenter la façon dont nous
allons approcher les différentes parties prenantes concernées par nos hypothèses afin de tester
celles-ci ; les résultats de l'enquête seront analysés en vue d’établir des recommandations et des
préconisations.
Préalablement à sa mise en place, nous déterminerons les méthodes et l'échantillon les plus
adaptés à notre démarche. Nous présenterons également les guides d'entretien à l'origine de nos
enquêtes.
Une approche qualitative peut prendre la forme d’un entretien individuel ou collectif ou bien
d’une observation. Les observations sont davantage adaptées à des études sociologiques ou
managériales. C’est par exemple la méthode utilisée par Crozier entre 1959 et 1963 pour
démontrer l’importance de la structure informelle et les zones d’incertitudes dans l’organisation
et Emery et Trist dans l’analyse sociotechnique des mines de charbon en Angleterre dans les
années 1950. Dans notre enquête, les entretiens seront privilégiés aux observations étant donné
que nos besoins ne reposent pas sur l’analyse psychosociale des comportements humains. Ce
fut d’ailleurs l’expérience menée par Mayo au sein de Western Electric qui marqua le point de
départ de l’utilisation de l’entretien comme outil pertinent de l’enquête terrain selon Blanchet
et Gotman (2007). Dans ses travaux en 1985, Alain Blanchet conclue que l’entretien non
directif a pour avantage de ne comporter aucun biais généré par l’enquêteur lui-même car le
répondant se trouve totalement libre dans son expression et n’est limité qu’au thème imposé au
guide d’entretien48.
48
https://www.persee.fr/doc/rfsoc_0035-2969_1987_num_28_1_2380
48
A l’inverse, l’entretien directif est plus strict et s’apparente au questionnaire en ce sens que les
questions sont préalablement définies avec un ordre précis et la réponse attendue est
généralement fermée (oui/non) ou courte (mots clefs). Ainsi, le semi-directif apparait alors
comme le juste milieu entre ces deux méthodes. Il permet de rendre plus libre les réponses de
l’interviewé tout en gardant la possibilité de réorienter le dialogue à l’aide d’une liste de
questions préétablies. Le machine learning repose sur des procédés algorithmiques très
complexes et son usage est très varié. Aussi, de sorte à laisser libre cours aux réponses
spontanées des personnes interrogées, tout en gardant la possibilité de pouvoir recentrer nos
interrogations sur nos mots clefs tels que la fraude ou l’audit, nous faisons le choix d’utiliser la
méthode d’entretien semi-directive. En effet, il s’agit d’une démarche exploratoire et un
entretien directif induit le risque d’être fermés aux seuls éléments que nous connaissons de nos
lectures de recherche. Par ailleurs, un entretien non directif ne permet pas à l’intervieweur
d’avoir le contrôle sur l’entretien, ce qui l’empêche de potentiellement axer la discussion sur
des points particuliers. Concernant notre première hypothèse sur les facteurs de rationalité
limitée, cette méthode permet également de laisser le répondant libre, tout en adaptant
l’entretien selon les réponses apportées.
Le benchmarking, est une pratique dans le marketing qui consiste à se comparer par rapport
aux concurrents grâce à un étalonnage et un positionnement de l’entreprise ainsi qu’à imiter les
leaders sur le marché. Ainsi, le premier à se lancer détient un avantage concurrentiel,
particulièrement en termes d’adaptabilité à la demande. Dans le cas de l’enquête terrain, le
benchmarking est un processus par lequel l’enquêteur va comparer deux types de répondant
différents qui sont sujets au même objet d’étude de sorte à observer quelles ont été les
différences observées au sein de ces différentes catégories et ainsi déterminer un one best way49.
Les sources de l’étalonnage peuvent être secondaires, c’est-à-dire que l’analyse comparative
d’un sujet peut reposer sur des données recueillies dans la presse professionnelle et spécialisée
ou des instituts de sondages fiables. Il est alors important de croiser l’ensemble des ressources
secondaires de sorte à obtenir une analyse la plus exhaustive possible. Jacques Gautron,
représentant de la France à l’European Benchmarking Forum (EBF) de 1996 à 2002, souligne
le fait que dans le cadre d’un benchmarking, « il sera souvent utile de rechercher de bonnes
pratiques auprès de partenaires d’autres secteurs d’activité »50.
49
Dans la terminologie taylorienne (organisation scientifique du travail, OST), il s’agit de déterminer la façon
optimale d’exploiter les ressources au sein d’une organisation.
50
Gautron J. et al (2003), Le Guide du Benchmarking, Editions d’organisation, p.50.
49
En ce qui concerne notre étude, la réalisation d’un benchmarking s’avère être pertinent du fait
du nombre divers de secteurs d’activité qui exploitent le machine learning. Il ne s’agit pas de
comparer les cabinets d’audit entre eux, mais de s’immiscer dans des domaines voisins comme
la finance ou complètement étranger au commissariat aux comptes comme la cyberdéfense. Au
travers de nos entretiens, nous chercherons alors à identifier un one best way, c’est à dire les
« bonnes pratiques » du machine learning grâce aux retours d’expériences des personnes
interrogées.
Les démarches documentaires consistent à exploiter les recherches effectuées par une tierce
personne, une entreprise ou un institut de statistique. Ainsi, les sondages menés par l’Institut
national de la statistique et des études économiques (INSEE), les études d’entreprises privées
tel que le groupe Xerfi ou encore les enquêtes provenant d’articles de recherches sont des
sources documentaires fiables et exploitables dans ce genre de démarche. Bouzon et al. (1996)
soulèvent deux aspects de la recherche documentaire qui sont les ingrédients clefs de
l’efficience de cette méthode51. Le premier ingrédient est le travail de groupe. Ils constatent en
effet que le doctorant qui recherche seul en autonomie se noie dans l’information et peine à
prendre du recul. Il préconise la recherche de groupe pour diminuer le temps de recherche,
restreindre les biais de compréhension par le partage d’analyse et permettre l’échange de
méthode d’investigation. Le deuxième élément qui fait l’objet de leur préconisation est la
formation. Il est important que les chercheurs soient formés de sorte, notamment, à acquérir un
regard critique et objectif sur les conclusions et les analyses des auteurs qu’ils citent.
En termes d’outils, il est indéniable qu’internet reste le plus utilisé au XXIème siècle pour les
recherches documentaires et plus particulièrement le moteur de recherche Google (Lardellier
2016 et Ginouvès 2008). Afin d’exploiter les supports trouvés sur internet, il faut alors s’assurer
de leur fiabilité et leur véracité de manière raisonnable. De plus, afin de s’assurer que ces
recherches testent bien une hypothèse de recherche, il est indispensable de pouvoir accéder à
l’intégralité des paramètres de l’enquête (échantillon, nombre de répondants, zone
géographique couverte …). Compte tenu de nos hypothèses de recherche, nous n’avons pas
trouvé d’études satisfaisantes, d’autant plus que l’outil machine learning connait une
application récente dans l’environnement professionnel, notamment dans l’audit.
51
http://bbf.enssib.fr/consulter/bbf-1996-06-0054-008
50
L’enquête quantitative représente un outil d’aide à la décision stratégique pour les entreprises
mais aussi les associations et le gouvernement. Hervé Dumez écrit à propos de l’enquête
quantitative : « On y retrouve cette idée que l’analyse qualitative précède et prépare l’analyse
quantitative (qu’elle est « exploratoire ») en lui fournissant des phénomènes à étudier et des
concepts à tester statistiquement ou économétriquement »52. En effet, l’approche quantitative
permet de quantifier des phénomènes pour établir des statistiques et des analyses
mathématiques permettant de corroborer ou non les conclusions d’une enquête qualitative
préalable. Par ailleurs, Dumez ajoute que « dans les approches quantitatives, l’accent est mis
sur les variables, et les acteurs n’apparaissent vraiment que quand les variables ne parviennent
pas à expliquer un phénomène. Dans les approches qualitatives, l’accent doit être mis sur les
acteurs et non sur les variables ». Dans l’étude d’un sujet en phase d’émergence, il est essentiel
que les parties prenantes puissent s’exprimer sur leur retour d’expérience pour ensuite donner
des pistes d’enquêtes statistiques permettant de vérifier des tendances à plus grande échelle.
Etant donné que notre étude porte sur un outil dont l’utilisation par les professionnels est à ses
débuts, les travaux de recherche sont tournés vers l’expérimentation comme le montre les
expériences de Perols (2011), Zhang et Ling (2013) Song et al. (2014) ainsi que Hajek et
Henriques (2017). Aussi, l’étude quantitative ne serait pas significative car l’usage du machine
learning n’est pas démocratisé et ne fait qu’émerger dans les pratiques professionnelles. Aussi,
nous allons privilégier l’enquête qualitative (voir supra).
Intitulé Commentaire
- Liberté d’expression pour le répondant
Enquête qualitative –
- Entretien non figé
Entretien semi-directif
- L’enquêteur garde le contrôle de la discussion
Méthodes
Retenues - Elargir les connaissances grâce au point de vue d’autres
utilisateurs du machine learning
Etalonnage
- Identifier les bonnes pratiques dans des domaines différents
- Permet d’affiner les recommandations
- Faiblesse des ressources
Enquête documentaire
Méthodes - Inadéquats aux hypothèses de recherche
Exclues - Sujet d’étude encore à caractère exploratoire
Enquête quantitative
- Accent plus sur les variables que les acteurs
Source : D’après Blanchet et Gotman (2007), Bouzon et al. (1996), Dumez (2011) et Gautron et al (2003).
52
Dumez H. (2011), Qu’est-ce que la recherche qualitative ? Le Libellio d’Aegis, 7, 4, 47-58
51
II. 1. 2 - La détermination des répondants
Ingénieurs, mathématiciens, commissaires aux comptes, ou encore data scientist, sont autant
de professions concernées par l'arrivée du machine learning dans les cabinets d'audit et
d'expertise comptable. Pour le benchmarking, nous chercherons à comparer la mise en place de
l’outil machine learning dans d’autres secteurs professionnels. Compte tenu de nos hypothèses
de recherches, nous avons distingué quatre catégories de répondant pour nos entretiens.
Les commissaires aux comptes ont volontairement été séparés en deux groupes : ceux qui
exploitent l’intelligence artificielle dans leur processus de détection de la fraude et ceux qui ne
l’exploitent pas. En effet, le guide d’entretien se présentera différemment selon que le CAC
interrogé utilise le machine learning ou pas. Dans le cas où il ne l’exploiterait pas, nos questions
seront orientées vers l’expectative et ce qu’il pense sur cette technologie bien qu’il ne l’exploite
pas. C’est également un moyen de pouvoir identifier les raisons qui expliqueraient l’absence de
cet outil dans leurs processus métier. Nous appellerons AAM les « Auditeurs Avec Machine
learning », pour désigner les auditeurs, diplômés ou non, qui exploitent ou conçoivent des outils
algorithmiques. Les ASM seront les « Auditeurs Sans Machine learning » qui au contraire ne
disposent pas de ces outils.
Par ailleurs, nous chercherons à interroger des professionnels du machine learning qui le
mettent en place pour leur propre compte ou celui de clients. Diplômé d’écoles d’ingénieur, de
mathématiques ou d’informatiques et étant à l’origine des outils, ils sont plus à même d’aborder
les points pratiques et théoriques du machine learning. Nous testerons donc avec eux les
hypothèses de recherches HR2, HR3 et HR4. Comme nous l’avons spécifié précédemment,
l’entretien semi directif sera le moyen de faire parler les experts sur leur retour d’expérience et
non pas des variables (H.Dumez 2011). Ils seront nommés « DS » pour « Data Science ».
Enfin, dans le cadre du benchmarking, nous solliciterons des professionnels qui exploitent
également le machine learning dans des domaines similaires ou non. L’objectif de notre
approche sera de diversifier les domaines d’activités pour croiser les attentes de chacun mais
aussi les difficultés éventuelles qu’ils ont pu rencontrer lors de la mise en place de cet outil ainsi
que l’apport de l’intelligence artificielle dans l’accomplissement de leur tâche. Ils seront
identifiés par l’abréviation « Bench. » par la suite.
52
Tableau 7 : Liste des répondants démarchés (Modifié pour des raisons d’anonymat)
Le guide d’entretien est un outil d’enquête qualitative qui synthétise l’ensemble des thèmes
abordés et des questions posées par catégorie de répondants. Il présente une certaine
chronologie qui peut être amenée à changer dès lors que l’entretien invite à modifier le plan de
l’interview par exemple. L’ensemble des questions posées proviennent des lectures dont nous
avons fait la synthèse dans la revue de littérature. Afin de s’assurer que ces questions soient
pertinentes lorsqu’elles seront posées aux professionnels, nous avons procédé à une démarche
53
Chartred Public Accountant (CPA), diplôme américain équivalent du DEC en France.
53
exploratoire. C’est-à-dire que le guide d’entretien a préalablement été soumis à des
professionnels et des étudiants de l’informatique et du marketing.
Ainsi, nous avons dégagé deux thèmes principaux de nos quatre hypothèses de recherche. Le
tableau 8 décrit la pertinence de chaque thème par rapport aux hypothèses de recherche. Les
tableaux suivants auront pour objet de présenter le guide d'entretien à destination des différentes
catégories de répondants que nous avons évoqué précédemment. Enfin, le dernier tableau
regroupe les questions adressées dans le cadre de notre benchmarking aux autres professionnels
utilisant le machine learning.
54
Tableau 9 : Guide d’entretien à destination des CAC n’utilisant pas le machine learning
Q2 - Selon vous, quels sont les critères à retenir lorsque l'on teste la fraude ?
Rationalité La détection de la fraude au travers du Q3 - Quels moyens utilisez-vous lorsque que vous auditez la fraude ?
limitée « Journal Entry Testing » est biaisée Test Jet & Rationalité Q4 - Quel est votre avis sur le JET ?
par les motivations de l’auditeur et son limitée Q5 - En quoi est-il pertinent pour tester la fraude ?
intelligence émotionnelle. Q6 - Pensez-vous qu'il existe des biais au test de la fraude par le JET ? Lesquels ?
Q7 - Comment réduire ces biais ?
L’IA, grâce au machine learning, Q8 - A votre avis, l'intelligence artificielle, grâce au machine learning, pourrait-elle tester le -
Fiabilité et pertinence
pourrait tester le FEC de manière -FEC de manière pertinente et fiable ?
du machine learning
pertinente, fiable et économique. Q9 - Pensez-vous que cela génère des économies pour le cabinet ?
Il existe des barrières à l’entrée pour
Conditions de mise en
mettre en place un outil de type Q10 - Pour quelle(s) raison(s) n'avez-vous pas mis en place cet outil dans votre cabinet ?
Machine œuvre du machine
Learning machine learning dans un cabinet Q11 - Si oui, à quelle(s) condition(s) ?
learning
d’audit.
L'usage du machine learning dégagera Q12 - Pensez-vous que l'implémentation de l'intelligence artificielle dans les cabinets d'audit
Usage du machine
du temps pour l'auditeur au profit de puisse dégager du temps pour l'auditeur ?
learning et profession
l'analyse et la relation client. Q13 - Selon vous, cela se fera-t-il au profit de la relation client ?
Source : Moi-même
55
Tableau 10 : Guide d’entretien à destination des CAC utilisant le machine learning
56
Tableau 11 : Guide d’entretien à destination des professionnels du machine learning
L'usage du machine learning dégagera Q8 - Le ML a-t-il permis de dégager du temps pour vos collaborateurs ?
Usage du machine
du temps pour l'auditeur au profit de Q9 - Le cas échéant, au profit de quoi s’est fait ce gain de temps ?
learning et profession
l'analyse et la relation client. Q10 - En termes de pratiques professionnelles, cela change-t-il qqch pour l’auditeur ?
Conclusion Q11 - Si vous deviez conseiller cet outil à un confrère, quels conseils lui donneriez-vous ?
Source : Moi-même
Thème Benchmarking
Q3 - Que représente l'intelligence artificielle pour vous (concept, outil, développement ...) ?
Q4 - Comment s'est faite la mise en place de cet outil dans votre entreprise ? (Prestataire, décision, conseil...) ?
Q5 - Quels avantages attendiez-vous de la mise en place du machine leanring ?
Machine learning
Q6 - Avez-vous été confronté à des éléments bloquants ? Lesquels ?
Q7 - Considérez-vous que vous bénéficiiez d'un bon retour sur investissement ?
Q8 - Avez-vous constaté des changements dans vos pratiques professionnelles depuis sa mise en place ? Lesquels ?
Source : Moi-même
57
II. 2 - Vérification des hypothèses de recherche : l'analyse des résultats d'enquête
La vérification des hypothèses s’est faite auprès d’une dizaine de répondants répartis en quatre
catégories différentes. Afin de vérifier nos hypothèses de recherche (II.2.2), nous mettons en
place une analyse de leur réponse par type de répondant (II.2.1).
Le taux de retour des répondants démarchés a été de 18 sur 23, soit 78% de réponses. Finalement
nous avons pu concrétiser des entretiens physiques ou par téléphone avec 11 d’entre eux. Le
développement de cette technologie étant en plein essor, la crainte d’un « espionnage
industriel » a été avancée par certains interlocuteurs démarchés pour justifier leur abstention.
En ce qui concerne les data scientists et les personnes abordées dans le cadre du benchmarking,
certains ont préféré ne pas donner d’issue favorable à notre demande d’entretien car la fraude
et l’audit sont des sujets qu’ils n’approchent pas dans leurs métiers.
58
Tableau 13 : Liste des répondants interrogés dans le cadre de l’enquête terrain (Modifié pour des raisons d’anonymat)
59
Présentation des résultats par catégorie de répondants
Les auditeurs, diplômés ou non, qui n’utilisent pas le machine learning (catégorie ASM) ont
tous avancé des arguments allant dans sens des limites du test d’identification de la fraude sur
la base du FEC avec des outils analytiques. En effet, nous notons que les exigences du CAC
sont souples et que la NEP 240 n’implique pas un degré d’implication équivalent à celui des
services Forensic ou de l’Autorité des Marchés Financiers (AMF) comme le rappelle ASM 1,
confirmant ainsi les propos de Carassus et Cormier (2003). Par ailleurs, ASM 3, auditeur
d’origine américaine considère que les auditeurs manquent de scepticisme professionnel
(« professional skepticism ») lors de leurs audits et qu’ils ne posent pas assez de questions.
ASM 1 et ASM 2 soulignent tous les deux le manque de connaissance de l’environnement de
l’entreprise et de son mode de fonctionnement. Aussi, ce défaut peut résulter d’un manque de
temps auquel le machine learning pourrait remédier. De plus, bien que les outils analytiques
existant soient efficaces pour les dossiers type « middle market », il présente des défaillances
en cas d’un volume trop élevé d’écriture au FEC (ASM 2). Or, l’une des raisons d’être du
machine learning est la capacité à traiter des données en masse. Enfin, nous comprenons que le
FEC est une base de données, en principe exhaustive, qui mérite d’être complétée par
d’avantage de contrôle interne. Tandis que ASM 3 conseil de faire davantage de tests sur
procédures lors de la phase d’intérim, ASM 1 imagine l’intégration de paramètres
supplémentaires en complément du FEC dans le dataset traité par le machine learning, relevant
de procédure de contrôle interne (RIB, comptes auxiliaires etc).
Concernant l’auditeur utilisant l’apprentissage automatique pour les besoins de ses audits
(AAM), il reconnait l’efficacité du machine learning. Néanmoins, il nous met en garde
concernant le caractère « protéiforme de la fraude » et l’absence de prise en compte du contrôle
interne dans un test basé uniquement sur le fichier des écritures comptables. Il ajoute également
que l’investissement de base est conséquent et que ce n’est pas dans l’habitude des cabinets
60
d’audit de mobiliser des ressources financières et humaines pour des besoins de R&D. Par
ailleurs, l’open source ne suffit pas à réduire les couts, car les solutions ouvertes ne sont pas
clefs-en-main et requièrent un travail par une équipe de data scientists. Aussi, l’adoption de
l’apprentissage automatique doit répondre à un réel besoin stratégique pour le cabinet.
Cependant, s’il décide de le mettre en place, l’auditeur en tire plusieurs bénéfices dont la
délégation des tâches laborieuses à la machine. D’une part cela lui permet de se focaliser sur
l’analyse et la critique des résultats obtenus grâce à l’outil. D’autre part, dans une approche non
supervisée, l’apprentissage automatique peut apporter à l’auditeur une certaine ouverture
d’esprit en ce sens qu’il produira des résultats que l’auditeur n’attendait pas forcément. Par
ailleurs, AAM 1 pense que certains cabinets s’y mettront par la force des choses étant donné
que leurs clients utiliseront à terme ce genre d’outils pour produire de la donnée comptable et
financière.
L’interview d’équipes de data science (catégorie DS) a permis de mieux saisir les enjeux de
mises en place des algorithmes ainsi que leur potentiel au regard de l’investigation de la fraude
par un auditeur. En effet, nos deux entretiens ont mené à une conclusion commune autour des
données et de leur récolte. Le trio, nommé DS1, que nous avons rencontré chez un Big4 a insisté
sur le manque de maturité des clients qui rend difficile l’accès aux donnée et leur récupération
dans un format exploitable. DS 2 rajoute que le temps passé sur le traitement des données est
un gouffre qui occupe les équipes de data science à 80% de leur temps. Cette phase étant
cruciale pour l’entrainement de l’algorithme, les équipes passent le plus de temps possible à
maintenir l’information brute, voire l’enrichir. En ce qui concerne la fraude, nous comprenons
qu’il existe des limites liées à l’accessibilité des données par l’auditeur et l’entrainement des
algorithmes. Si la fraude a toujours existé dans les comptes, l’outil pourrait alors identifier la
fraude comme un standard ne répondant pas à une anomalie. De plus, la fraude évolue dans le
temps et dans l’espace. Or l’outil se base sur des éléments de comparaisons pour effectuer son
analyse. Etant donnée le nombre considérable de schéma différents de fraudes comptables qui
peuvent exister, l’outil risque de sortir un taux trop élevé de faux positifs. Par ailleurs, les
équipes de data sciences rencontrées nous ont mis en garde contre les enjeux de la sous-
traitance du traitement des données par les algorithmes avec toutes les problématiques liées à
l’infogérance. En tant qu’auditeur, il sera alors essentiel de garantir un maximum de
transparence avec les entités auditées et de s’entourer de juristes pour sécuriser les contrats de
sous-traitance et les lettres de missions d’audit. Enfin, les expérimentations qui ont déjà pu être
réalisées dans le cadre de l’audit et autres domaines ont confirmé que ces outils permettent un
61
gain de temps considérable permettant la réallocation des ressources sur une mission d’audit
(planification). Cependant, ce recentrage métier impliquera une formation nécessaire des
utilisateurs et des préparateurs au sein de la profession comptable comme le soulignent nos
répondants.
Au travers de notre benchmarking, nous avons pu découvrir les conditions de mises en place
de cet outil dans les domaines suivants : modèles de robots décisionnels, lutte contre la fraude
et le blanchiment, investigation d’infractions financières, cyberdéfense et justice prédictive.
Nous constatons que le recours à l’outil répond à un besoin des clients lié à un changement
d’environnement comme les banques face aux nouvelles techniques de fraudes ou l’évolution
des cyberattaques ainsi qu’à des initiatives de professionnels, cherchant à optimiser leurs
procédés de travail (analyser des décisions de justices en masse et rapidement). La rapidité,
l’efficacité et l’exhaustivité du traitement et un objectif recherché par l’ensemble de nos
interlocuteurs. C’est par exemple la capacité à traiter 5 000 décisions de justices par secondes,
décortiquer 60 000 contrats par jours ou encore nécessiter seulement 3 millisecondes pour
traiter une transaction financière là où le marché exige 5 secondes. Toutefois, 3 d’entre eux
nous ont mis en garde contre les faux positifs. Certains nous ont illustré des exemples
d’entreprises qui ont abandonné leur projet à cause de ça. Par ailleurs, deux répondants
rappellent que grâce aux bibliothèques de codes open source, il est possible aujourd’hui d’avoir
des algorithmes efficaces avec les dernières mises à jour faites par la communauté d’utilisateurs.
En termes d’enjeux, tous nous ont fait part des problématiques inhérentes à la collecte de
donnée, à savoir leur retraitement (data wrangling), leur mise en conformité (RGPD) et leur
sécurité. La rentabilité est également un sujet préoccupant car les couts fixes sont composés des
serveurs et des machines utilisés pour le stockage et la programmation des modèles. Certains
les ont rapidement rentabilisés avec leurs premiers contrats. Cependant, les couts variables sont
eux très élevés car ils correspondent à des heures humaines de personnels hautement qualifiés.
Bench. 2 souligne que la question à se poser est de savoir si « l’économie de temps et d’argent
future vaut l’investissement initial ». Le bilan reste néanmoins positif étant donné que chacun
le recommande avec ses conseils différents bien précis selon le secteur allant de la remise en
cause de l’algorithme de manière aléatoire à l’écoute attentif des besoins du client et des
exigences éthiques et déontologique en passant par la nécessité d’avoir une équipe compétente
et capable de travailler ensemble.
62
En définitive, nous distinguons trois approches différentes par rapport à l’apprentissage
automatique : les technico-commerciaux, les entrepreneurs et les équipes de data scientists&
machine learning engineer En effet, les technico-commerciaux, du fait de leur poste, ont des
discours qui tendent vers « l’over expectation »54. C’est-à-dire qu’ils savent mettre en avant les
avantages de leurs outils, les perspectives d’évolutions et leurs atouts par rapport à la
concurrence. La rencontre avec des équipes de data science nous a permis de nuancer leurs
propos. Etant concepteur de ces outils, ils ont pleinement conscience des enjeux et des limites
du machines learning et reconnaissent plus facilement avoir des visions sceptiques non pas
quant au potentiel de ces outils mais quant à la faisabilité technique de ce qu’en attendent les
entreprises. Enfin, l’entrepreneur et dirigeant que nous avons rencontré à l’incubateur de start-
up du Crédit Agricole55 parvient à nuancer son propos naturellement étant donné qu’il a connu
les contraintes de mise en place lors du suivi de projet mais qu’il connait aussi tout le potentiel
de l’outil que son équipe a élaboré et qu’il vend aux juristes.
A titre de synthèse de notre enquête terrain, nous avons rappelé dans le tableau 14 les
hypothèses de recherche qui ont orienté nos entretiens et nous nous sommes prononcés sur les
résultats de leur vérification. Nous constatons que toutes les hypothèses sont validées ou
partiellement validées.
54
DS 2, associé risk advisory, lors de notre entretien en face à face du 21/06/2018.
55
https://www.levillagebyca.com/fr
63
learning dans un cabinet de ressources humaines non dédiée à l’audit ne sont pas
d’audit. dans les schémas de financement classique des cabinets.
Par ailleurs, recourir à ce genre d’outil implique une
maitrise parfaite de la collecte de donnée afin de répondre
au besoin de l’audit.
Cependant, ces barrières peuvent être contournée grâce à
la sous-traitance auprès des GAFA ou des start-ups, ce qui
peut poser des problèmes d’infogérance.
Les discours sont unanimes, le machine learning est à
l’origine d’un gain de temps qui permet de recentrer le
métier des experts. Le CAC sera amené à mettre ce temps
à profit d’une investigation auprès d’interlocuteurs
HR4 : L'usage du machine privilégiés, apportant des informations comportementales,
learning dégagera du temps Partiellement psychologiques et sociales dont la machine ne tiend pas
pour l'auditeur au profit de validée compte.
l'analyse et l'entretien client.
Toutefois, le temps gagné par l’auditeur sera également à
partager avec les nouvelles responsabilités qui incombent
au cabinet lorsqu’il récolte en masse des données à
caractère confidentiel, financier, personnel et sensible.
Source : Moi-même
Compte tenu des résultats de notre enquête, nous constatons qu’il existe des points d’attentions
en matière de gestion de projet de mise en place d’outils de type machine learning appliqué à
la détection de la fraude dans les travaux du commissaire aux comptes sur le FEC.
Recommandations
La migration vers des outils de type machine learning doivent répondre à des besoins
stratégiques pour le cabinet. En effet, s’il souhaite bénéficier d’un avantage concurrentiel, il
peut d’ores et déjà investir dans cette technologie de sorte à se spécialiser dans ce domaine. Or,
les data scientists rencontrés lors de nos entretiens nous ont révélé que les projets de mise en
place de machine learning peuvent s’avérer coûteux à cause du temps passé sur le nettoyage et
la récupération de données, la mise en place des modèles et l’entrainement des algorithmes par
une main d’œuvre hautement qualifiée (donc onéreuse). De plus, si les traitements de données
doivent se faire en interne, l’entité sera contrainte d’acquérir du matériel informatique
performant dont elle n’a pas la nécessité pour ses missions d’audit classique. Il est recommandé
de n’investir que si cela est adapté au type de client du cabinet et qu’il sera possible d’en tirer
des avantages économiques futurs permettant d’amortir les coûts de recherches et
développement. Les méthodes traditionnelles d’audit de la fraude, si elles sont accompagnées
de contrôle interne et d’une meilleure connaissance de l’entité et de son environnement,
suffisent sur des entités dont le volume d’écriture reste faible. L’apprentissage automatique sera
64
plus pertinent sur des entités cotées, des fonds d’investissements, ou des structures générant des
volumes de données considérable.
De surcroit, notre enquête a montré que dans tous les cas, il était recommandé de se détacher
des aspects purement chiffrés de la comptabilité et qu’une étude approfondie de l’entité, de son
environnement et de ses processus sera nécessaire de sorte à mieux appréhender les sources
d’erreurs et le niveau de risque lié à la fraude. Si un cabinet décide de mettre en place des outils
d’intelligence artificielles, nous lui conseillons d’aller au-delà du FEC et de parvenir à intégrer
dans sa base de données le maximum d’informations de sorte à accroitre l’exactitude de
l’analyse des algorithmes. Il faudra notamment chercher à récupérer le maximum de données
provenant des modules du PGI de l’entité, apportant des informations sur les stocks, les
immobilisations, les données de paie et ainsi donner une source d’informations différentes à
l’apprentissage statistique que celle procurée par le FEC. Par ailleurs, le CAC récoltant des
données pour ses tests devra en avoir une parfaite maitrise tout au long de son mandat. Ce point
est d’avantage détaillé dans la préconisation P2 (voir infra). Nous proposons au travers de
l’annexe 9 (p.81) des pistes de bases de données à exploiter en plus du FEC dans la détection
de fraudes.
R2 : L’investigation de la fraude par le CAC doit se baser sur des variables qui vont au-
delà du FEC en privilégiant notamment le contrôle interne et la prise de connaissance de
l’entité et de son environnement.
La CNIL pose la question suivante : « Quid du risque que les préconisations de la machine
soient appréhendées comme une vérité absolue, non soumise à la discussion quant à ses
conséquences pratiques ? »56 Aussi, il semble important que des professionnels indépendants
puissent se prononcer sur l’algorithme mis en place par un cabinet d’audit. En qualité de
réviseur, le commissaire aux comptes doit avoir conscience qu’il existe un dilemme entre
l’explicabilité de l’algorithme et son efficacité. Plus le schéma algorithmique sera complexe,
moins il sera possible d’identifier quel a été le « cheminement intellectuel » de la machine.
Aussi, nous suggérons la mise en place d’audits d’algorithmes par des entités tierces comme
56
Rapport CNIL, p.27
65
des auditeurs IT ou bien le H3C, régulateur de la profession. Nous recommandons donc la mise
en place de système de boîte blanche, permettant l’auditabilité des algorithmes.
R3 : Pour être discuté, les algorithmes doivent être le plus explicable possible par un
réviseur.
Préconisations
Le plan de formation proposé est présenté en annexe 10 (p.82) et se décline en trois modules :
• Module à destination des juniors : Initiation au machine learning
• Module à destination des seniors : Collecte et nettoyage des données
• Module à destination des managers : Pilotage de la mission
Illustration 7 : Guide pratique en 10 points sur le bon usage du machine learning par les cabinets d’audit
Data:
- RGPD & Sécurité
- Qualité du dataset
Cabinet:
Algorithme: - Stratégie
- Explicabilité - Informer ses clients
- Non discrimination - Sensibiliser ses équipes
Profession:
- Exigence du régulateur
- Rester proactif
- Renouvellement de la profession
Source : Moi-même
66
Se poser les bonnes questions
Le machine learning doit répondre à des besoins stratégiques pour l’entreprise et ne doit pas
être un effet de mode. Sa mise en place peut être couteuse en temps et en argent. L’entrainement
des modèles, la récupération de données, leur nettoyage et la gestion des faux positifs sont les
principaux motifs d’abandon de projet. La recherche et développement n’étant pas une
composante de la structure financière « type » des cabinets d’audit et de conseil, les dirigeants
de cabinets doivent se poser les bonnes questions de faisabilité techniques et de rentabilité
financière.
En réponse au phénomène de Big Data, les législateurs européens ont mis en place la
réglementation générale de la protection des données (RGPD). Destinée à protéger les
consommateurs et les utilisateurs de réseau sociaux, cette norme s’applique aux entreprises
collectant des données à caractère personnel en Europe et/ou de résidents européens. L’auditeur
doit en avoir conscience et se plier aux exigences des législateurs pour assurer toujours plus de
transparence. Le CAC doit également prendre conscience qu’il a la garde des données et qu’il
doit assurer leur sécurité face aux menaces des cyberattaques.
Etant donné les changements profonds que peuvent apporter le machine learning l’IA, des
institutions prennent des positions et accompagnent les professionnels. La CNCC sera amenée
elle aussi à se prononcer au travers d’un rapport ou d’une charte de bonnes pratiques. Nous
invitons les auditeurs à prendre connaissance des publications de l’ordre pour agir en
conformité avec les exigences de la CNCC.
Informer le client
67
Être soucieux de la qualité de son dataset
L’auditeur, dans sa démarche, documente et justifie l’ensemble de ses travaux. Les règles
déontologiques d’exercices invitent l’auditeur à appuyer son audit sur des éléments probants,
de chercher la vérité en toute chose et ne pas se contenter d’à peu près. Il n’est donc pas
concevable que l’opinion du CAC soit basée sur l’analyse d’un algorithme dont on ne sait pas
le raisonnement. Il faudra continuer à faire preuve de scepticisme professionnel, challenger les
analyses de l’outil et si possible, mettre en place des systèmes de boites blanches.
Lorsque l’algorithme est en phase d’entrainement, Les équipes de data science s’assurent
qu’elles mettent en service un outil efficace. Aussi, elles contrôlent le taux de retour des faux
positifs par la machine. Etant donné que le risque 0 n’existe pas, il ne faut pas hésiter à
challenger les résultats de l’outil de temps à autres (de manière statistique ou aléatoire) de sorte
à s’assurer de son efficacité permanente. Par ailleurs, avec l’entrainement, l’apprentissage
automatique finira par connaitre de patterns de plus en plus spécifiques de fraudes. Aussi, si sur
l’ensemble de ses bases de données l’algorithme a pu identifier que des flux issus d’un pays
spécifique étaient frauduleux, il peut à terme cataloguer ce pays comme systématiquement
synonyme de fraude. Autrement dit, l’outil peut être à l’origine de discrimination. Il faut
pouvoir garder la main sur son évolution et s’assurer de la non-discrimination de l’outil.
68
Rester proactif
Au travers des publications et des événements organisés par l’OEC, la CNCC et les CRCC, les
auditeurs titulaires du DEC et du CAFCAC bénéficient de formations et d’informations sur les
changements dans les pratiques professionnelles. Il en va de sa responsabilité de retransmettre
ses connaissances acquises à ses équipes d’audit en matière de machine leanring. C’est d’autant
plus important que les collaborateurs assistant participeront à la récupération des données, la
préparation des bases de données et le lancement du traitement de l’algorithme. Aussi, il est
nécessaire que les collaborateurs aient à l’esprit l’ensemble des enjeux liée à l’utilisation du
machine learning pour les besoins de l’audit.
Nous pouvons légitimement considérer que les collaborateurs auditeur diplômés de master
(DSCG, ingénieur, école de commerce, CCA ...) seront les premiers touchés par l’arrivée du
machine learning. En effet, tandis qu’il ne se substituera pas à l’esprit critique du CAC, il pourra
néanmoins effectuer le travail des assistants auditeurs. Toutefois, s’il doit acquérir un meilleur
niveau d’expertise, l’auditeur qui se destine à la profession de CAC aura besoin de se former
sur le terrain et développer son jugement professionnel. Afin de préserver un savoir-faire,
développer son scepticisme professionnel apprendre à lire l’information cachée derrière les
chiffres de la comptabilité, l’auditeur doit être encadré par un CAC. Ainsi, il ne faudra pas
négliger l’embauche d’assistant au profit de l’usage d’outils de type machine learning.
Pr2 : Guide pratique en 10 points sur le bon usage du machine learning par les cabinets
d’audit.
69
Conclusion
Rappelons que notre étude s’est structurée autour de la question suivante : « En quoi le machine
learning peut-il améliorer la détection de la fraude dans les travaux du commissaire aux
comptes sur le FEC ? »
L’exigence du CAC « “ liée à la fraude est analogue à celle du policier pour trouver des
criminels ” disent Winters et Sullivan (1994). Ce dernier ne peut la refuser, mais il serait
absurde de penser que les policiers doivent trouver tous les criminels » 58. Le rapport de 2012
de l’ACFE59 chiffre à 14% le taux de détection moyen de la fraude par l’audit interne et
seulement 3,3% par l’audit externe cette année-là. Avec une efficacité se rapprochant plus des
100%, nous pourrions nous demander si l’introduction de ces outils, s’ils s’avèrent aussi
efficaces, amènerait à un renforcement de la responsabilité du CAC à l’égard de la fraude et,
ainsi, renouer avec les exigences passées telles que décrites par Dicksee en 1905.
57
Rapport France Stratégie (2018, p.66)
58
Carassus et Cormier (2003, p.186)
59
Rapport ACFE (2012, p.34)
70
Table des annexes :
Annexe 1 : Présentation des paramètres du cas Jet X……………………….……….……….72
Annexe 2 : Slides du 64è congrès de l’OEC – Détection de fraudes, quels indices pour le
reviseur ?................................................................................................................73
71
Annexes
Annexe 1 : Présentation des paramètres du cas Jet X
Annexe 1.1 : Liste des 14 tests pris en charge par le JET et leur intérêt dans le dans le cas Jet X
Source : Deloitte
Source : Deloitte
Annexe 1.3 : Sélection effectuée par l’outil JET dans le cas du JetX
Source : Deloitte
72
Annexe 2 : Slides du 64è congrès de l’OEC – Détection de fraudes, quels indices pour le
reviseur ?
Les auteurs et les dates qui s’y rattachent correspondent aux publications fondatrices de ces principes. Il peut exister des publications plus
anciennes sur le sujet ou des mises à jour plus récentes par les auteurs eux-mêmes ou par d’autres chercheurs
74
Limite liée à la présentation de l’information. Face à un taux, le taux de réussite peut être plus encourageant qu’un taux
Cadrage Kahneman 1981
d’échec qui apporte la même information, mais de manière inverse.
Amable & A l’échelle du temps, les choix qui sont pris fait de sorte à privilégier les effets à court-terme plutôt qu’à long terme
Court-termisme 1995
Chatelain sont le fruit de l’incertitude face au futur et d’un arbitrage en faveur de l’immédiat.
C’est le fait, pour une personne, de se baser sur un trait particulier de la personnalité d’un individu pour se former une
Effet de halo Thorndike 1920
impression globale de sa personnalité.
1927- À la suite de l’enquête de la Western Electric, Elton Mayo conclu sur le fait que lorsque des individus savent ou ont le
Effet Hawthorn Mayo
1932 sentiment de participer à une étude, alors les rendements sont meilleurs et cela génère un gain de motivation.
Aussi appelé « effet d’isolation », ce phénomène démontre qu’il existe un effet de focalisation parmi une population
Effet von Restorff Restorff 1933
d’éléments similaires sur ce qui est inhabituel.
L’organisation est vue comme un nœud de contrats (internes et externes) avec des relations d’agence entre un principal
Jensen &
Effets d’Agence 1976 qui engage un agent. Dans ces relations, il y a une asymétrie d’information où l’agent a en général une information
Meckling
plus grande, que celle détenue par le principal.
Dans un jeu, la solution sans qu’il y ait coopération entre les « joueurs » peut aboutir à une stratégie « dominante »
Equilibre de Nash Nash 1994 pour chaque joueur de sorte qu’il minimise son risque. J.Nash remarque sue cette stratégie aboutit à un équilibre sous-
optimal en l’absence de coopération.
Erreur fondamentale L'erreur fondamentale d'attribution est la tendance à surestimer les causes internes (personnalité, intentions, efforts), ce
Jones & Harris 1967
d’attribution qui revient à attribuer systématiquement à l'individu la responsabilité de sa conduite.
Erreur de Tversky & Phénomène qui viole le paradigme selon lequel la probabilité que deux événements surviennent en même temps est
1983
conjonction Kahneman toujours plus petite que la probabilité que chacun de ces événements arrivent séparément.
Erreur du « sunk Arkes & Les sunk costs ou « coûts irrécupérables » sont des dépenses qui ne seront jamais récupérées quel que soit
1985
cost » Blumer l’investissement. Un choix est alors biaisé dès lors qu’ils sont pris en compte dans le jugement.
Lorsqu’un individu prend une première décision, nous risquons de prendre toutes les décisions suivantes qui
Escalade de
Staw 1976 permettraient d’aboutira but de la première. Un sentiment de dénie peut ou non accompagner cette escalade de
l’engagement
l’engagement.
Biais par lequel une personne surestime les probabilités de succès en passant outre les éventuels écueils, ce qui peut
Excès d’optimisme Dejoy 1989
amener à prendre plus de risque que ce que l’individu ou son organisation ne peut en assumer.
Johnson & Situation où l’individu pense maitriser l’incontrôlable et ne se sent pas sujet à des situations à risque. Il estime pouvoir
Excès de confiance 2009
Fowler maximiser sa satisfaction en faisant abstraction de l’incertitude.
75
Force du Stratégie issue du marketing et de la communication qui consiste à créer ou à mystifier une histoire dans le but de
Denning 2005
storytelling séduire une cible bien définie et de créer un lien.
« Un mode de pensée dont les gens usent lorsqu'ils sont profondément impliqués dans un groupe uni, quand le désir
Groupthink Janis 1982
d'unanimité des membres outrepasse leur motivation à concevoir d'autres solutions de façon réaliste. » (Janis)
On parle d’illusion de contrôle lorsqu’une personne ou une organisation pense agir positivement sur des évènements au
Illusion de contrôle Langer 1975
point d’avoir le contrôle sur ces derniers.
Tandis que le comportement rationnel des agents vise à optimiser sa consommation compte tenu de la limite de ses
Malédiction du Capen, Clapp ressources, le cas de la malédiction du gagnant (winner’s curse) va à l’encontre de ce principe. Basé sur le modèle
1971
gagnant & Campbell d’enchère, le prix payé par le « gagnant » sera considéré comme surestimé car au-dessus de ce qu’était prêt à payer la
majorité des individus.
Mode de management non participatif où les décisions sont prises par le leader et sans contestation, empêchant la prise
Management en Lovallo &
2006 de décision de type collégial. Les employés se tournent constamment vers le manager comme le tournesol vers le
tournesol Sibony
soleil.
Théorie de Alexandre & La théorie de l’enracinement énonce que les décisions des dirigeants sont parfois irrationnelles étant donné qu’elles
2000
l’enracinement Paquerot peuvent être prise dans leur intérêt qui est de préserver leur poste de direction.
Sources : D’après la série Youtube « Crétin de cerveau », « Management et contrôle de gestion » éditions Corroy, Sibony (2014), Chanut et al. (2011) et
https://fr.wikipedia.org/wiki/Biais_cognitif
76
Annexe 4 : Prise en compte de l’incertitude et la réintroduction du jugement
77
Annexe 5 : Fiction – Journal de bord du docteur François
78
Annexe 6 : Entre explicabilité et efficacité des algorithmes
Source : http://internetactu.blog.lemonde.fr/2016/10/30/lintelligence-artificielle-va-t-elle-rester-impenetrable/
79
Annexe 8 : Tableau de retranscription d’entretien (exemple du Benchmarking)
80
Annexe 9 : Proposition de base de données à exploiter en complément du FEC
Source : Moi-même
81
Annexe 10 : Préconisation – Proposition de plan de formation interne
82
83
84
85
86
87
88
89
90
Bibliographie
Articles de recherche
Chanut V., Guibert N., Rojot J. et Dubois P. (2011), Les limites de la rationalité limitée ? Un
essai de réflexion en sciences de gestion, Revue management & avenir, 48, 97-117.
Chanut V., Guibert N. et Rojot J. (2011), La rationalité limitée en gestion : état des lieux et
perspectives, Revue management & avenir, 48, 94-96.
Collins J. C. (2017), Using Excel and Benford's Law to detect fraud, Journal of accountancy,
223, 4, 45-50.
Dagorn N., Biot-Paquerot G. et Didierjean A. (2013), Peut-on faire mentir les chiffres?
L'embellissement des informations financières par la comptabilité d'intention, Revue française
de gestion, 231, 88-101.
Debreceny R. S. et Gray G. L. (2010), Data mining journal entries for fraud detection: An
exploratory study, International Journal of Accounting Information Systems, 11, 3, 157-181.
Denis J-P. (2009), Entre finance et stratégie : Calcul, mimétisme… exemplarité?, Revue
française de gestion, 8, 198-199, 95-123.
Durtschi C., Hillison W. et Pacini C. (2004), The effective use of benford's law to assist in
detecting fraud in accounting data, Journal of forensic accounting, 5, 1, 17-34.
Fay R. et Negangard E. M. (2017), Manual journal entry testing: Data analytics and the risk of
fraud, Journal of Accounting Education, 38, 37-49.
91
Hajek P. et Henriques R. (2017), Mining Corporate Annual Reports for Intelligent Detection of
Financial Statement Fraud – A Comparative Study of Machine Learning Methods, Knowledge-
Based Systems, 128, 139-152.
Johnson S., Ryan H. et Tian Y. (2009), Managerial incentives and corporate fraude: The sources
of incentives matter, Review of finance, 13, 115-145.
Lanza R. B. et Gilbert Scott (2007), A risk-based approach to journal entry testing, Journal of
accountancy, 204, 1, 32-35.
Le Maux J., Smaili N. et Ben Amar W. (2013), De la fraude en gestion à la gestion de la fraude
: Une revue de la littérature, Revue française de gestion, 231, 2, 73-85.
Ndofor H., Wesley C. et Priem R. (2015), Providing CEOs with opportunities to cheat: The
effects of complexity-based information asymmetries on financial reporting fraud, Journal of
Management, 41, 6, 1774-1797.
Meiller Y. (2017), Intelligence artificielle, sécurité & sûreté, Sécurité & stratégie, 28, 4, 75-84.
Nigrini M. J. (2017), Audit Sampling Using Benford's Law: A Review of the Literature with
Some New Perspectives, Journal of Emerging Technologies in Accounting, 14, 2, 29-46.
Perols J. (2011), Financial statement fraud detection: an analysis of statistical and machine
learning algorithms, Auditing: A Journal of Practice & Theory, 30, 2, 19-50.
Song X-P., Hu Z-H., Du J-G. et Sheng Z-H (2014), Application of machine learning methods
to risk assessment of financial statement fraud: evidence from china, Journal of Forecasting,
33, 611-626.
92
Warren J. D. Jr., Moffitt K. C. et Byrnes P. (2015), How big data will change accounting,
Accounting Horizons, 29, 2, 397-407.
Wells J. T. (2001), Why Employees Commit Fraud. It’s either greed or need, Journal of
Accountancy, 191, 2, 89-91.
Zhang M. et Ling H. (2013), Distinguishing fraud from error in restatement data using machine
learning techniques, Academy of Business Journal, 2, 1-8.
Conférences
Ginouvès V. (2008, MàJ 2009), Recherche documentaire sur l’internet en SHS, Aldébaran,
(disponible à l’adresse suivante : https://journals.openedition.org/aldebaran/5822?file=1).
Gramfort A. (2017), Scikit-learn : From Zero to Hero, BlendWebMix, Paris, France (disponible
à l’adresse suivante : https://www.youtube.com/watch?v=ZD5lJGq1rvQ&t=6s ).
LeCun Y. (2015), Deep Learning, Unexpected Sources of Inspiration, Paris, France (disponible
à l’adresse suivante : https://www.youtube.com/watch?v=RgUcQceqC_Y&t=1338s ).
Sibony O. (2014), Comment éviter les biais cognitifs pour prendre la bonne décision ?,
L'Échappée Volée, Paris, France (disponible à l’adresse suivante :
https://www.youtube.com/watch?v=FZJwRRsmeyY ).
93
Gallet O., Callede J-C. et Jaffé J-L. (2009), Détection de fraudes : quels indices pour le
réviseur ?, 64ème congrès de l’Ordre des Experts-Comptables, Nantes, France.
Miledi A. et Pigé B. (2013), Le jugement professionnel en audit : enquête auprès des associes
signataires. Comptabilité sans Frontières, The French Connection, Canada.
Rapports d’institutions
Association of Certified Fraud Examiners (2012), L’étude 2012 sur la fraude (Report of the
Nations), Sommaire de l’enquête mondiale par l’ACFE sur la fraude en entreprise.
CNIL (2017), Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des
algorithmes et de l’intelligence artificielle, Synthèse du débat public animé par la CNIL dans
le cadre de la mission de réflexion éthique confiée par la loi pour une république numérique.
Conseil National de l’Ordre des Médecins (2018), Médecins et patients dans le monde des data,
des algorithmes et de l’intelligence artificielle, Analyses et recommandations du Cnom.
#FranceIA (2017), France Intelligence Artificielle, Rapport de synthèse des groupes de travail
du gouvernement, (p209-260).
Office Parlementaire d’Evaluation des Choix Scientifiques et Technologiques (2017), Pour une
IA maîtrisée, utile et démystifiée, synthèse du rapport proposée par C.Ganay (député) et
D.Gilliot (sénatrice).
94
Thèse
Bibliographie secondaire
Blanchet A. et Gotman A. (2007), L'entretien : L'enquête et ses méthodes, Armand Collin, 2ème
édition.
Montgoméry R.H (1913), Auditing: Theory and Practice, New York, Ronald Press Company.
Shelton S. W., Whittington O., et Landsittel D. (2001), Auditing Firms' Fraud Risk Assessment
Practices, Accounting Horizon, 15, 1, 19-33.
Wang D., Khosla A., Gargeya R., Irshad H. et Beck A. H. (2016), Deep Learning for identifying
metastatic breast cancer, Beth Israel Deaconess Medical Center (BIDMC) et Harvard
MEDICAL School.
95
Webographie
https://fr.wikipedia.org/wiki/Techniques_d%27audit_assist%C3%A9es_par_ordinateur (visité
le 21/03/2018)
https://www.quantmetry.com/single-post/2015/10/28/Une-petite-histoire-du-Machine-
Learning (visité le 21/03/2018)
https://www.efl.fr/pratique/avis-experts/comptable/details.html?ref=r-98c612fd-1cb7-455b-
874f-aad6b3a05ed8 (visité le 23/03/2018)
https://www.economie.gouv.fr/dgfip/outil-test-des-fichiers-des-ecritures-comptables-fec
(visité le 23/03/2018)
https://www.xlstat.com/fr/solutions/fonctionnalites/regression-logistique-pour-reponse-
binaires-et-multinomiales-logit-probit (visité le 25/03/2018)
https://www.futura-sciences.com/tech/definitions/informatique-reseau-neuronal-601/ (visité le
25/03/2018)
https://www.linkedin.com/feed/update/urn:li:activity:6383976822597652480/ (visité le
27/03/2018)
https://l.facebook.com/l.php?u=http%3A%2F%2Fnews.mit.edu%2F2017%2Fartificial-data-
give-same-results-as-real-data-0303&h=ATP2Lc-
kAEjonsiaHh6ESKLluKe27NBEDh8WaOXTmBox0OsfD55Cbz5oFSe7VYOylqxDIFJwHC
cR_FsaBieoDbs4XtNB7edixEauuRhnato7Pl1Tgw (visité le 27/03/2018)
https://www.helloopenworld.com/lintelligence-artificielle-change-lexpertise-comptable-4075
(visité le 29/03/2018)
96
Résumé :
Abstract:
This master thesis is an exploratory approach about fraud auditing using machine learning. It
contrasts traditional approach of performing audit fraud with machine learning potential.
Eventually this dissertation concludes with three recommendations addressed to accounting
profession, a proposition of a training plan of machine learning for auditors and a practical
guide of machine learning use.
97
C