Vous êtes sur la page 1sur 97

Léopold WENGER

MEMOIRE PROFESSIONNEL
INTELLIGENCE ARTIFICIELLE & AUDIT : LE MACHINE
LEARNING AU SERVICE DE LA DETECTION DE LA FRAUDE

UE 7 – RELATIONS PROFESSIONNELLES – SESSION 2018

1
2
Remerciements
Je tenais avant tout à remercier Deloitte pour ces années d’alternance au cours desquelles j’ai
beaucoup appris sur les théories et les pratiques professionnelles du commissariat aux comptes,
ainsi que sur l’organisation du système économique.

Je remercie également l’ensemble des répondants qui ont accepté de partager leur expérience
et leur expertise en donnant de leur temps pour la réalisation de mon enquête terrain.

Mes remerciements s’adressent aussi à Rémi Nabonne, ingénieur logiciel diplômé de l’ISEP et
de Cranfield University (Londres), Jean-Baptiste Dupuy, élève ingénieur à l’école d’Epitech
Paris et Guillaume Cuny, étudiant bi-cursus en 6ème année de médecine à l’Université de
Strasbourg et en master 2 d’entreprenariat à l’EM Strasbourg, ingénieur systèmes embarqués
diplômé de l’ESIEE Paris et ingénieur en bio-ingénierie et innovation en neurosciences diplômé
de BME Paris, pour leur sensibilisation au machine learning. Ils m’ont permis de m’approprier
les bases d’un outil complexe grâce à leurs connaissances dans ce domaine.

Concernant la réalisation de l’enquête terrain, je remercie Estelle Beauvy, étudiante en


marketing et diplômée du bachelor Marketing & Communication du Luxe de l’EIML, pour son
aide dans l’élaboration des guides d’entretien.

Pour la relecture et la mise en page, mes remerciements vont à Mme Olivia Dupuy, écrivain
public diplômée de la licence professionnelle Conseil en écriture professionnelle et privée et au
Lieutenant-colonel Beauvy, officier de l’Armée de terre.

Enfin, je suis reconnaissant envers les professeurs qui m’ont accompagné tout au long de la
rédaction de ce mémoire.

3
4
Table des matières
Remerciements .................................................................................................................. 3

Table des matières ............................................................................................................ 5

Table des illustrations ....................................................................................................... 7

Tableaux .......................................................................................................................... 8

Avant-propos .................................................................................................................... 9

Attestation de l’employeur.............................................................................................. 11

Fiche d’agrément ............................................................................................................ 13

Intelligence artificielle & audit : le machine learning au service de la détection de la fraude


........................................................................................................................ 21

I. Le machine learning : une technologie d’avenir pour l’audit dans l'identification


de la fraude ....................................................................................................... 25

I. 1 - L’intelligence artificielle et l’audit de la fraude : d’une approche classique par


les risques à une approche digitalisée ............................................................... 25

I. 1. 1 - Etat des lieux du cadre légal et des pratiques à disposition de l’auditeur......... 25

I. 1. 2 - De la rationalité limitée à l’intelligence émotionnelle : une amorce à


l’intelligence artificielle .................................................................................... 31

I. 2 - De récentes évolutions dans les pratiques d’audit grâce à l’intelligence


artificielle : la révolution du machine learning ................................................. 36

I. 2. 1 - La neutralité et la fiabilité du machine learning soumise à une complexité de


mise en œuvre. .................................................................................................. 36

I. 2. 2 - Vers une évolution du métier de l’auditeur ...................................................... 42

II. Enquête terrain, analyse des résultats et recommandations .............................. 48

II. 1 - Méthodologie de l'enquête terrain .................................................................... 48

5
II. 1. 1 - Les méthodes d'enquêtes et leur pertinence ................................................... 48

II. 1. 2 - La détermination des répondants .................................................................... 52

II. 1. 3 - Les guides d'entretien ..................................................................................... 53

II. 2 - Vérification des hypothèses de recherche : l'analyse des résultats d'enquête ... 58

II. 2. 1 - Présentation et analyse des résultats de l'enquête terrain ............................... 58

II. 2. 2 - Vérification des hypothèses de recherche ...................................................... 63

II. 3 - Recommandations et préconisations................................................................. 64

Table des annexes : ......................................................................................................... 71

Annexes ........................................................................................................................ 72

Bibliographie .................................................................................................................. 91

6
Table des illustrations
Illustration 1 : Triangle de Kranacher et al. (2011) et Dorminey (2012) comparé à celui de
Cressey (1950)…....……………………………………………...……..……..28

Illustration 2 : Positionnement des groupes sur les facteurs appartenant aux thèmes mission,
équipe/cabinet et réglementation……………………………………………...33

Illustration 3 : Le machine learning à la frontière entre deux concepts………………………37

Illustration 4 : Déclinaison des principaux usages du machine learning……………………..38

Illustration 5 : Etapes clefs de la mise en place d’un projet de machine learning…………....41

Illustration 6 : Cadre et paramètres expérimentaux………………………….….….………...45

Illustration 7 : Guide pratique en 10 points sur le bon usage du machine learning par les cabinets
d’audit…..…………………………………………………………………….66

7
Tableaux
Tableau 1 : Cadre légal et réglementaire de la fraude en audit………………………………..27

Tableau 2 : Etat des lieux des points d’attention en matière d’audit de fraude………………..29

Tableau 3 : Quatre-vingt-huit plus grands scandales comptables……………………………..33

Tableau 4 : Principales méthodes algorithmiques utilisées par les auteurs……………………39

Tableau 5 : Exemple d’illustration du paradoxe de Simpson………………………………….46

Tableau 6 : Synthèse des méthodes d’enquête.………………………………………………..51

Tableau 7 : Liste des répondants démarchés…………………………………………………..53

Tableau 8 : Dictionnaire des thèmes…………………………………………………………..54

Tableau 9 : Guide d’entretien à destination des CAC n’utilisant pas le machine learning……55

Tableau 10 : Guide d’entretien à destination des CAC utilisant le machine learning………..56

Tableau 11 : Guide d’entretien à destination des professionnels du machine learning………57

Tableau 12 : Guide d’entretien relatif au benchmarking……………………………………...57

Tableau 13 : Liste des répondants interrogés dans le cadre de l’enquête terrain………………59

Tableau 14 : Vérification des hypothèses de recherche………………………………………..63

8
Avant-propos
Particulièrement intéressé par les innovations technologiques et l’intelligence artificielle, ce
sujet m’a permis de lier mes centres d’intérêt et mon activité professionnelle. Après avoir
obtenu le diplôme de comptabilité et gestion (DCG), j’ai intégré le cabinet Deloitte dans le
cadre d’une alternance préparant au diplôme supérieur de comptabilité gestion (DSCG). Je
souhaite poursuivre dans la formation comptable et commencer le stage d’expertise comptable
en vue de soutenir le diplôme d’expert-comptable (DEC).

C’est au travers de mes missions chez Deloitte que j’ai été amené à réaliser des tests sur la
détection de la fraude (annexe 1, p.72). Du négoce de produits d’entretien au géant de la
logistique en passant par un réseau de franchise de cordonnerie, j’ai eu l’occasion d’appliquer
les méthodes de détections de la fraude dans divers secteurs. Aussi, le choix de ce sujet m’a
permis de prendre de la hauteur sur les pratiques professionnelles et mieux comprendre les
origines et les enjeux des travaux menés par les commissaires aux comptes (CAC).

La première partie de ce mémoire présente le cabinet Deloitte, ses aspects organisationnels et


les différentes missions qui m’ont été confiées. J’y ai décrit plus précisément l’observation
participante qui m’a conduit à traiter ce sujet. Dans cette version publique, cette partie a
volontairement été retirée.

La seconde partie aborde le sujet choisi de « Intelligence artificielle & audit : le machine
learning au service de la détection de la fraude ». Elle se décompose en une revue de littérature
(articles de recherche, presse professionnelles, conférences, MOOCs etc.) et sa confrontation
avec les discours des chercheurs et des professionnels du monde de l’audit et du machine
learning.

Conformément à la méthodologie de rédaction d’un mémoire professionnel pour l’obtention


d’un grade de master universitaire, j’utilise le « nous » de modestie pour m’adresser aux
lecteurs. Par ailleurs, l’ensemble des sites internet mentionnés en note de bas de page ont été
consultés le 31/07/2018 afin de s’assurer de leur existence avant dépôt à la Maison Des
Examens.

9
10
Attestation de l’employeur

11
12
Fiche d’agrément

13
14
15
16
17
18
19
20
Intelligence artificielle & audit : le machine learning au service de la
détection de la fraude
Introduction

Les innovations dans le secteur informatique n’ont eu de cesse d’améliorer la qualité des audits
légaux menés par les commissaires aux comptes (CAC) ainsi que d’optimiser le temps
d’intervention. Tant sur le plan matériel que logiciel, l’outil informatique s’est mis au fur et à
mesure au service des métiers de la comptabilité et, notamment, de l’audit. Aussi, depuis la
publication de Will en 19751 sur le langage Audit Command Language, divers travaux ont
abouti au concept de Computer-aided audit tools2 (en français, Techniques d'audit assistées par
ordinateur, TAAOs). L’outil informatique basé sur l’interdépendance entre l’homme et la
machine se trouve actuellement complété par l’outil numérique qui peut agir indépendamment
de l’intervention humaine. Le développement de l’intelligence artificielle, dont les métiers de
la finance sont fortement demandeurs, s’inscrit dans cette tendance

En ce qui concerne le commissariat aux comptes, l’utilisation de la machine et de ses logiciels,


en particulier les tableurs tel qu’Excel, sont devenus indispensables. Permettant le traitement
de volumes de données toujours plus important, l’outil informatique facilite le travail de
l’auditeur et parfois génère des gains de qualité par la fiabilité et l’exhaustivité du traitement
qu’il permet. Dans le cas particulier de la fraude, les auditeurs sont tenus lors de leurs
interventions de mettre en place des tests permettant de l’identifier, indépendamment des
différents travaux spécifiques menés sur chaque cycle. La méthodologie que nous suivons dans
le cadre du test de la fraude consiste généralement à effectuer un test de détail sur la base du
FEC (fichier des écritures comptables) et à identifier les sources potentielles de fraudes au
travers d’un questionnaire permettant la compréhension des processus de contrôle et
l’environnement de l’entité auditée. Le test sur FEC, plus communément connu sous le nom de
JET (Journal Entry Testing), s’apparente à la démarche que suit le machine learning (en
français, apprentissage automatique), à la différence près que la sélection découle d’un arbitrage
humain sur la base de nos considérations quant aux origines du risque de fraude dans le FEC
(libellé de l’écriture, montant saisie, date de saisie …).

1
https://www.tandfonline.com/doi/abs/10.1080/03155986.1975.11731597
2
Techniques à la disposition du commissaire aux comptes pour analyser les données de l’entreprise, parallèlement
aux techniques de sondages sur les procédures. (CNCC)

21
En effet, dans le cadre du machine learning, l’intervention de l’homme se fait en début de
processus et se limite à la préparation et l’incorporation des données dans l’algorithme. Cette
innovation inscrite dans l’intelligence artificielle est définie par le groupe Whalts comme « un
type d’intelligence artificielle qui confère aux ordinateurs la capacité d’apprendre sans être
explicitement programmés. Cette technologie s'appuie sur le développement de programmes
informatiques capables d'acquérir de nouvelles connaissances afin de s'améliorer et d'évoluer
d'eux-mêmes dès qu’ils sont exposés à de nouvelles données. »3 Rappelons que l’intelligence
artificielle (IA, ou AI en anglais pour Artificial Intelligence) est communément admise comme
une pratique qui consiste à mettre en œuvre un certain nombre de techniques visant à permettre
aux machines d'imiter une forme d'intelligence réelle4.

L’ensemble de ces concepts s’inscrit dans le cadre général de la Big Data, en plein essor
aujourd’hui. Traduit par « métadonnées », le phénomène de Big Data reflète l’idée que les
entreprises, les consommateurs et, plus généralement, l’activité économique génèrent un
nombre massif de données brutes que les outils d’analyse ou de gestion peinent à assimiler. Il
en découle une volonté de vouloir maitriser ces données avec, notamment, la forme la plus
avancée de l’IA au travers de procédés appelés Deep Learning (en français, apprentissage
profond). Très présent dans le marketing digital5, le Deep Learning permet d’obtenir, à l’aide
d’algorithmes, une synthèse sur des tendances ou des classifications à partir d’une population
massive de données grâce à un traitement par couches successives.

L’apprentissage automatique s’applique également dans la conduite autonome, le médical, la


finance, l’audit, les assurances et les banques pour identifier les anomalies. Dans ce mémoire,
nous nous intéresserons particulièrement à la détection de la fraude, appliquée au métier de
l’audit. Alors que la prestation de commissariat aux comptes n’est tenue qu’à une obligation de
moyens, l’auditeur doit mettre en œuvre tout ce dont il est capable dans la réalisation de son
métier en vue de se prononcer sur la situation financière d’une entité6. Dans sa condition
humaine, il reste soumis à un certain nombre de contingences auxquelles l’outil numérique tend
à remédier. La technologie du machine learning pourrait faire partie des supports numériques
qui sont exploités dans le but d’éliminer au maximum les biais liés à la rationalité limitée au
sens de Simon (1958) à laquelle le CAC est soumis.

3
http://www.lemagit.fr/definition/Machine-Learning
4
https://www.futura-sciences.com/tech/definitions/informatique-intelligence-artificielle-555/
5
https://www.forbes.com/sites/louiscolumbus/2018/02/25/10-ways-machine-learning-is-revolutionizing-
marketing/#3d1d06875bb6
6
https://www.cncc.fr/mission-legale.html

22
Les récents travaux de Richard Thaler (Prix Nobel d’Economie en 2017) ont permis de mettre
en avant l’importance de la prise en compte des facteurs psychologiques et sociologiques dans
les agissements des agents économiques7. Ses travaux sur la finance comportementale
démontrent qu’il existe une multitude de forces qui font pression volontairement, ou non, sur
les agents dans leur processus décisionnel. Le point de départ de toute sa réflexion, est le
suivant : « Quand les choses se compliquent, les simples mortels se prennent parfois les pieds
dans le tapis. » Il marque la fin de la rationalité au sens de l’école néoclassique comme une
situation dans laquelle les agents disposent de l’ensemble de l’information disponible pour agir
et reconnait une limite à l’homo œconomicus8.

La rationalité limitée, telle que définie par Herbert Simon (Prix Nobel d’Economie 1978)
s’oppose à l’optimisation et se trouve au cœur des processus décisionnels. Selon Simon, il existe
trois facteurs principaux qui remettent en cause le choix d’une décision optimale : l’information
disponible (et/ou coût de l’information), les motivations du décideur (psychologie, valeurs,
personnalité, freins…) et sa capacité cognitive. Cette approche est à mettre en lien avec nos
démarches subjectives d’approches par les risques. Qu’il s’agisse de la définition de nos seuils
de matérialité9 ou des sources potentielles de risques, le résultat est le fruit d’une démarche
intellectuelle et professionnelle qui nous amène à prendre une décision.

A l’heure de la digitalisation et de numérisation des processus métier, l’architecte ne dessine


plus sur une planche à l’aide d’un rapporteur, l’expert-comptable (EC) et le CAC se sont mis à
l’ère du numérique au travers de leur campagne « Cap sur le numérique »10. Dans le métier de
l’audit, le concept de TAAOs évoqué supra (p.21) définit l’ensemble des techniques dont
disposent les professionnels de l’audit pour s’appuyer sur les outils informatiques et numériques
permettant une meilleure maitrise des données comptables et financières. Aussi, dans le cadre
de sa démarche sur la détection de la fraude au travers des états financiers, l’auditeur se heurte
au volume de données du FEC selon la taille de l’entité auditée, mais aussi à sa dissimulation
au travers, par exemple, de la comptabilité créative11. Malgré ses compétences et son expérience
professionnelle, son expertise peut se retrouver limitée par les spécificités d’une entreprise.

7
http://www.laviedesidees.fr/Nudge-ou-le-paternalisme.html
8
Sujet conçu par l'analyse économique comme un être agissant de manière parfaitement rationnelle.
9
Montant au-delà duquel les décisions économiques ou le jugement fondé sur les comptes sont susceptibles d'être
influencés. (NEP 320 – Compagnie nationale des commissaires aux comptes).
10
http://www.capsurlenumerique.fr/
11
https://www.lesechos.fr/finance-marches/vernimmen/definition_comptabilite-creative.html

23
Encadrée par la norme d’exercice professionnelle 240 (NEP-240) « Prise en considération de
la possibilité de fraudes lors de l'audit des comptes », la compagnie nationale des commissaires
aux comptes (CNCC) attire l’attention du CAC sur les anomalies relevant de la fraude et à sa
distinction de l’erreur. Cette NEP rappelle notamment que la fraude se distingue de l’erreur du
fait de son caractère intentionnel, matérialisé par le fait qu’elle est « généralement
accompagnée de procédés destinés à dissimuler les faits » (NEP-240). Le CAC doit ainsi faire
« preuve d'esprit critique et tient compte, tout au long de son audit, du fait qu'une anomalie
significative résultant d'une fraude puisse exister. » (NEP-240).

Potentiellement présente dans tous les cycles revus lors de nos missions12, la suspicion de fraude
mènera à des tests spécifiques de la part de l’équipe d’audit afin de s’assurer de manière
raisonnable qu’elle n’existe pas. Toutefois, notre sujet n’a pas vocation à cibler l’ensemble des
fraudes propres à chacun de ces cycles qui puissent exister comme le pilotage par les stocks, la
dissimulation d’actifs ou les problématiques de reconnaissances de chiffre d’affaires, mais
simplement par l’analyse des états financiers en se basant sur le FEC.

Au regard des concepts précédemment définis, de la mission légale du CAC et de ses limites
potentielles : « Quels sont les procédés actuels permettant de tester la fraude ? » « Présentent-
ils des limites ? » « Comment fonctionne le machine learning ? » « Quelle application au métier
de commissaire aux comptes ? » « Peut-il se substituer à la démarche de l’auditeur ?»

Ces questions spécifiques soulèvent la problématique suivante : En quoi le machine learning


peut-il améliorer la détection de la fraude dans les travaux du commissaire aux comptes sur le
FEC ?

Afin de traiter notre problématique, nous verrons dans un premier temps l’approche par les
risques préconisée dans la détection de la fraude. Puis nous nous intéresserons aux
améliorations attendues de l’implémentation de l’intelligence artificielle dans les travaux de
l’auditeur (I). A l’issu, nous confronterons ces éléments avec l’avis de chercheurs, d’experts et
de professionnels de sorte à dégager des préconisations et des recommandations de nos analyses
(II).

12
http://www.apdc-france.fr/wp-content/uploads/La-fraude-comptable-et-financi%C3%A8re-mai-2014.pdf

24
I. Le machine learning : une technologie d’avenir pour l’audit dans
l'identification de la fraude

Il est obligatoire dans le cadre de la mission légale du commissaire aux comptes de s’assurer de
manière fiable qu’aucune anomalie significative ne résulte de pratiques intentionnelles, comme
le définit la NEP 240. Aussi, l’émergence de nouvelles pratiques avec le développement de
l’intelligence artificielle amène à repenser les approches traditionnelles (I.1) au regard des
avancées technologiques et particulièrement celle de l’apprentissage des machines (I.2).

I. 1 - L’intelligence artificielle et l’audit de la fraude : d’une approche classique par


les risques à une approche digitalisée

Le métier du CAC est encadré par une obligation de moyens, orientant ainsi son approche
d’audit. N’étant pas contraint de devoir expliquer chaque flux, chaque solde de l’entité, il va
déterminer des niveaux de risques afin de prioriser ses travaux et adapter sa planification.
Tandis que la profession s’est adaptée au contexte socioéconomique (I.1.1) l’auditeur ne reste
pas moins soumis à des limites cognitives et émotionnelles (I.1.2).

I. 1. 1 - Etat des lieux du cadre légal et des pratiques à disposition de l’auditeur

Au regard de la NEP 315 il est établi que le professionnel de l’audit n’est tenu de s’intéresser
qu'aux éléments « matériels », cela signifie que les impacts non significatifs sur les comptes
font seulement l'objet d’une revue et non de tests approfondis (sauf exceptions). Potentiellement
présente dans tous les cycles comptables, la fraude est approchée au travers de diverses
méthodes telles que le journal d'opérations diverses (OD) ou le FEC.

Evolution du rôle de l’auditeur au regard de la fraude

Au sens juridique, la fraude est un acte « accompli en vue de porter atteinte délibérément aux
droits et intérêts d'autrui. »13 Le droit pénal la définit comme une tromperie ou un acte de
mauvaise foi « par lequel on lèse quelqu'un en se soustrayant aux règlements. » Dans la sphère
comptable, l’International Federation of Accountants (IFAC) propose la définition
suivante : « acte intentionnel commis par une ou plusieurs personnes parmi les membres de la
direction, les responsables de la gouvernance, les employés ou des tiers, impliquant le recours
à des manœuvres trompeuses dans le but d’obtenir un avantage indu ou illégal. »14 Dans les

13
http://www.cnrtl.fr/definition/fraude
14
http://www.nifccanada.ca/key-terms-french-only/item21186.pdf

25
NEP de la CNCC, la fraude est décrite comme un acte « intentionnel portant atteinte à l’image
fidèle des comptes et de nature à induire en erreur l’utilisateur des comptes »15.

Le rôle de l’auditeur dans la détection de fraudes a évolué selon les contextes


socioéconomiques. Carassus et Cormier (2003) rappellent que jusqu’au début du XXème siècle,
le premier objectif d’un audit légal était la détection de fraude, le deuxième la détection
d’erreurs techniques et le troisième les non conformités aux principes comptables. Cette
hiérarchie des objectifs a été établie par Dicksee dans son ouvrage Auditing de 190516. En 1913,
le rapport Montgoméry17 place en priorité la conformité aux principes comptables et la
correction d’erreurs, faisant de l’identification de la fraude un rôle mineur dans la mission du
CAC. La fin des Trente Glorieuses donne lieu à la règle des 3D (Dérèglementation,
Désintermédiation et Décloisonnement). Le rôle des CAC est à nouveau amené à changer et
devient principalement celui de garant de la transparence sur les marchés. C’est la certification
que les comptes présentent une image fidèle de l’entreprise qui devient le but premier de la
mission d’audit. Selon l’enquête de Nobes, seulement 8% des CAC interrogés considéraient
que la prévention et la détection de la fraude étaient l’objectif principal de l’audit des comptes
en 199518. Aujourd’hui, la finalité de l’audit légal comprend plusieurs objectifs
complémentaires (Carassus et Cormier, p.175) :
• « Donner une opinion sur la fidélité des états financiers au regard de la situation
financière des résultats des opérations de l’organisation, et ce conformément aux
principes comptables généralement admis,
• Fournir des contrôles sur les mentions des états financiers et sur le processus comptable,
• Ajouter de la crédibilité à l’information fondée sur la comptabilité en permettant aux
utilisateurs de faire confiance à l’information communiquée. »

Les scandales financiers du début du siècle ont contraint les régulateurs à mettre à jour leurs
approches d’audit afin de faire face à ces nouveaux enjeux. En effet, la loi Sarbanes-Oxley
(SOX) aux Etats-Unis s’est traduite par la mise à jour des normes SAS-82 et SAS-99 tandis que
la loi sur les nouvelles réglementations économiques (loi NRE) en France a donné lieu au
renforcement de la NEP-240 par la publication CNCC-2002 adoptée le 3 juillet 2003 ainsi que
l’article L225-L235 du code de commerce. Nous avons synthétisé ces normes qui insistent sur

15
Pratique frauduleuse consistant en un détournement de l'actif d'une société au profit d'un tiers, sans contrepartie
pour l'entreprise victime du détournement.
16
In Carassus et Cormier (2003).
17
Idem Carassus et Cormier (2003).
18
Ibid Carassus et Cormier (2003).

26
l’importance du contrôle interne dans la prévention et la détection de la fraude ainsi que le
renforcement du scepticisme professionnel chez les auditeurs dans le tableau suivant :

Tableau 1 : Cadre légal et réglementaire de la fraude en audit

Pays Cadre législatif Régulateur Normes


International N/A IAASB / IFAC ISA-240
USA Sarbanes-Oxley AICPA / PCAOB SAS-82 & SAS-99
France NRE CNCC / H3C NEP-240
Source : A partir de Carassus et Cormier (2003)

Etat des lieux des outils utilisés dans la détection de la fraude sur la base du FEC

La NEP-240 prévoit que l’auditeur doit déterminer le niveau risque de fraude dans sa
planification lorsqu’il se prononce sur l’évaluation du risque d’anomalies significatives. Cette
évaluation sera déterminante pour le reste de la mission d’audit en ce sens qu’elle conditionne
l’étendu des tests de préventions et de détection qui seront réalisés lors des interventions. Le
triangle de la fraude modélisé par Cressey en 1950 constitue un outil pertinent lors de la phase
de planification. Sur la base de plus de 200 entretiens avec des criminels incarcérés pour
escroquerie, il distingue les trois principales motivations à l’origine de la fraude (Wells, 2001) :
• La pression financière non réductible ;
• L’opportunité de réaliser l’action ;
• La conviction que l’auteur n’est pas en train de commettre un crime.

Ce modèle a été mis à jour par les travaux de Kranacher et al. (2011) et Dorminey (2012)
permettant de mieux comprendre les moyens mis en œuvre pour prévenir et identifier la fraude
plus facilement. La fraude est caractérisée de la manière suivante (Le Maux et al., 2013, p .5) :
• « L’acte frauduleux consiste à développer une méthodologie et la mettre en pratique ;
• La dissimulation représente l’acte ayant pour objectif de cacher la fraude ;
• La conversion est le processus de transformation des bénéfices mal-acquis en actifs
utilisables par le fraudeur. »

L’illustration 1 compare la version traditionnelle du triangle de fraude, tel que décrit pas
Cressey en 1950 (à droite) avec l’actualisation du modèle par suite des travaux de Kranacher et
al. en 2011 et ceux de Dorminey en 2012.

27
Illustration 1 : Triangle de Kranacher et al.(2011) et Dorminey (2012) comparé à celui de Cressey (1950)

Acte Frauduleux Pression

Dissimulation Conversion Opportunité Conviction


Sources : A partir de Wells (2001) et Le Maux et al. (2013)

Grâce au premier modèle, l’auditeur peut répondre à la question « Qui est susceptible d’être à
l’origine de la fraude ? » Le deuxième modèle permet de mieux identifier les mécanismes et les
processus au travers desquels la fraude a le plus de chance de se trouver. Par exemple, le journal
des opérations divers fait souvent l’objet d’une revue spécifique car les écritures sont
généralement passées et/ou approuvées par un membre de direction. Or, les membres de
direction sont parmi les plus concernés par le triangle de la fraude, d’autant plus lorsqu’il s’agit
d’anciens auditeurs19.

Dès lors que le CAC décide de mettre en place des tests spécifiques sur la comptabilité, il
dispose de différents outils pour identifier le fait « qu'une anomalie significative résultant d'une
fraude puisse exister ». Le premier outil dont dispose l’auditeur, avant même de solliciter des
supports analytiques, reste son jugement professionnel. Miledi et Pigé (2013) traduisent la
définition de l’IAASB (2001, 6) comme suit « L’atteinte des objectifs des ISA […] dépend d’un
déterminant essentiel – les personnes qui assurent l’audit. C’est leur connaissance, leur
expérience et leur compréhension du client qui fait une réelle différence dans la qualité de
l’audit. Il est indéniable que l’exécution efficace de la plupart des exigences des ISA dépend
d’une compétence personnelle essentielle – le jugement professionnel. Atteindre l’objectif d’un
audit de grande qualité dépend de la capacité des auditeurs à exercer un jugement
professionnel approprié et pertinent tout au long de leur mission. »

La capacité d’émettre un jugement professionnel repose sur la combinaison du savoir et celui


de l’adaptabilité aux contingences propres à une entité (Milédi et Pigé, 2013). Dans le cas de la
fraude, l’auditeur émet son jugement a priori grâce à la maitrise de connaissances en termes de
droits des affaires, mécanismes de fraude, normes d’exercices professionnels sciences de
gestion etc. C’est avec l’analyse de l’entité, notamment au travers de son environnement, de ses
forces, de ses faiblesses, de son organisation et de sa manière de produire de l’information que

19
In Carasus et Cormier (2003, p.187).

28
le CAC devra compléter son savoir-faire pour émettre un jugement professionnel et se
prononcer sur les travaux à mener dans l’identification et la prévention de la fraude.

Le jugement professionnel s’appuie principalement sur la standarisation des procédés de travail


(Mintzberg, 1982). En effet, dès lors que l’audit est « industrialisé », cela signifie que la partie
de reflexion du CAC répond en amont à un standard de travaux d’audit à appliquer selon le
contexte. C’est une fois que l’auditeur connait les travaux à appliquer, compte tenu de la
procédure, qu’il va s’adapter aux contingences de l’entité auditée. Ainsi, bien qu’une procédure
standard préconise d’appliquer seulement des tests sur les opérations diverses (OD) dans le
cadre de la fraude, le CAC doit faire preuve de jugement professionnel et peut décider d’orienter
ses travaux sur les opérations des cycles pour lesquels il considère que le risque de fraude y est
plus accru. A l’occasion du 64ème Congrès, l’Ordre des Experts-Comptables a présenté les
principaux points d’atention par cycle lorsque l’on teste la fraude (annexe 2, p.63). L’auditeur
peut également compléter avec les travaux de recherche de l’Association of Certified Fraud
Examiners (ACFE), de l’Autorité des Marchés Financiers (AMF), des revues professionnelles
et des articles d’enseignants chercheurs. Le tableau 2 poropose une synthèse des points
d’attention en matière d’investigation de fraude par l’auditeur, rencontrés dans nos lectures.

Tableau 2 : Etat des lieux des points d’attention en matière d’audit de fraude

Auteurs Démarches Points d’attentions


Feroz et Etude réalisée sur 224 cas de fraudes - Cycle client (50% des cas),
al. (1991)* recensés par la securities & - Stocks (25% des cas)
exchange commission (SEC).
Beneish Beneish se focalise sur les L’occurrence de la fraude est négativement liée au
(1997)* provisions (accruals) niveau des accruals discrétionnaires et la performance
discrétionnaires sur plus de 350 boursière passée et le délai de règlement client (DRC)
entités ayant faites l’objet est positivement lié à la fraude.
d’enquêtes par la SEC.
Green et Mise en place d’un modèle prédictif Leur système de prédiction neuronale est basé sur les
Choi neuronal. Le système proposé à ratios suivants : créances douteuses/chiffre d’affaires
(1997)* identifier 74,03% de cas de fraudes (CA), créances douteuses/créances totales, CA/créances
avérés parmi 86 cas différents. totales, marge brute/CA, créances totales/actif
comptable.
Summers Le taux de prédiction de leur modèle Score Altman20, rendement de l’actif, taux de croissance
& algorithmique atteint 72,2% sur 51 du CA, créances/stocks, changement d’auditeur ou non,
Sweeney cas de fraudes. variation de la participation des insiders21
(1998)*
Beneish Deux ans après ses travaux basés sur Taux de croissance du DRC, croissance de la marge
(1999)* les provisions, Beneish met en place brute, immobilisations corporelles/Actif total, croissance
du volume des ventes, accruals/CA.

20
Score financier qui permet de prédire la probabilité de faillite à 2ans d’une entreprise.
21
Personnel interne de l’entreprise possédant des actions de celle-ci.

29
un modèle prédictif efficace à 76%
sur la base de 74 firmes.
Johnson et A l’aide d’une méthode basée sur la Dès lors qu’il s’agit d’actions et non d’options d’achat,
al. régression logistique, identification plus l’intéressement des cadres au capital est élevé, plus
(2009) de 71 cas de fraudes sur 87. le risque de fraude l’est aussi.

Cecchini Méthode statistique d’apprentissage Charges administratives et commerciales/investissement


et al. basé sur des variables permettant de (relation négative avec la probabilité de fraude)
(2010)* déterminer les plus fortes CA/valeur comptable des actions préférentielles et actif
corrélations prédisant une fraude. comptable/investissement à court terme (relation
positive avec la probabilité de fraude).
Dechow et Dechow s’est intéressé aux éléments Nombre d’employée/variation de l’actif net entre N-1 et
al. (2011) hors bilan pour tester l’hypothèse N (plus l’actif est surévalué par rapport au nombre de
selon laquelle plus il y a d’éléments salarié, plus la fraude est probable).
hors bilan, plus la probabilité de Le nombre de contrats de locations simples sont
fraude est élevée. positivement liés au risque de fraude.
Ndofor et A partir d’un rapport de 2006 du Même la rémunération des cadres par attribution
al. (2013) Government Accountability Office, d’options accroit le risque de fraude.
mise en place d’un modèle de
régression logistique pour
probabiliser une force de corrélation.
Sources : d’après Le Maux et al. (2013), Johnson et al. (2009), Dechow et al. (2011) et Ndofor et al. (2013).
Les auteurs marqués d’un astérisque ont été appréhendés grâce aux travaux de Le Maux et al. (2013).

Assistance par outils analytiques

Lors de son enquête, Carassus et Cormier (2003) se sont adressés à la profession comptable
pour demander si la mise en place d’outils analytiques spécifiques à la fraude est nécessaire.
63% d’entre eux ont répondu être en faveur de cette approche. Le recours à outil analytique
consiste à faire appliquer un traitement informatique sur une base de données numérique. Dans
le cadre du FEC, l’auditeur peut s’appuyer sur des logiciels ou des tableurs capables d’effectuer
des calculs et des analyses de corrélations grâce aux statistiques. En ce qui concerne la fraude,
l’analytique permet d’intégrer la loi de Benford, d’effectuer un MUS (monetary unit sampling,
en français : sondage en unité monétaire) ou encore de réaliser des sélections aléatoires.

Pour qu’il soit utilisable par l’auditeur, le MUS doit répondre au triptyque suivant : un niveau
de confiance souhaitable, un taux de déviation acceptable et un taux d’écart attendu sur la
population (Messier, Glover et Prawitt, 2014). La loi de Benford22 donne la probabilité attendue
que le chiffre constituant le début d’un nombre (représenté par la lettre D dans la formule) ait
la plus forte occurrence d’apparition dans une base de données chiffrée. Dans la suite [14,0896 ;
(-0,140896) ; 14 089,6] le premier chiffre de la suite est à chaque fois 1 car la loi de Benford
fait abstraction des 0 et du sens (+/-) du nombre. Gomes da Silva et Carreira (2013) ont
expérimenté et modélisé une méthode d’audit dite « Silva method » qui base l’ensemble des

22
In Nigrini (2017).

30
sélections lors d’un audit de fraude sur la loi de Benford. L’idée sous-jacente est que la
fréquence de D liées à des données frauduleuses ou manipulées sera différente de la fréquence
de D dans un contexte hors fraude. La formulation avec m la valeur maximale de l’échantillon,
j une variable d’ajustement égale à 1 pour faire abstraction du 0 de la loi de Benford se fait
comme suit :

−1
𝑚

Prob(𝐷1 = 𝑑1 , 𝐷2 = 𝑑2 , . . . , 𝐷𝑚 = 𝑑𝑚 ) = log (1 + (∑ 10𝑚−𝑗 𝑑𝑗 ) )


𝑗=1

En prenant comme point de départ le scandale WorldCom, Lanza et Gilbert (2007) publient un
article dans la presse professionnelle sur la nécessité des outils analytiques dans les tests
d’audits sur la fraude. Ils précisent également la nécessité de coupler le contrôle interne avec
un test sur la base du general ledger (en français le grand livre général) que l’on peut assimiler
au FEC en comptabilité française. Aussi, les auteurs préconisent l’usage d’un journal entry
testing (JET, test sur les écritures comptables) assisté par ordinateur car l’outil analytique
permet de focaliser le temps et l’énergie de l’auditeur sur l’analyse des opérations ayant un fort
niveau de risque. C’est au travers du Practice Alert 2003-02 que les auteurs se reposent
principalement pour se prononcer sur la pertinence du JET, du fait, notamment, d’une meilleure
aisance des CAC face aux chiffres et la comptabilité par rapport au contrôle interne.

La fraude est un acte protéiforme et bien souvent dissimulé. Bien que le CAC dispose d’un
panel d’outils lui permettant d’identifier la personne et les mécanismes impliqués dans la
fraude, des scandales tels qu’Enron (2001), Vivendi (2002), Société Générale (2005) et, plus
récemment, William Saurin (2016) posent la question des limites des outils traditionnels.

I. 1. 2 - De la rationalité limitée à l’intelligence émotionnelle : une amorce à


l’intelligence artificielle

Les travaux menés en 1957 par Simon23 ont permis de synthétiser les trois facteurs à l'origine
des limites au processus décisionnel que sont : l'information disponible ou son coût, les
motivations du décideur (psychologie, valeurs, personnalité, freins…) et ses capacités
(notamment cognitives). En respect avec les NEP, l'auditeur met alors en place des mesures
permettant de tester la fraude de la manière la plus pertinente possible.

23
Herbert Simon, prix Nobel d’économie 1978 pour ses recherches en matière de processus décisionnels au sein
des organisations.

31
Cadre théorique de la rationalité limitée

Dans son étude sur la « self-compassion » (en français, l’auto-compassion) Neff a mené une
étude mettant en exergue les biais cognitifs dans la vie quotidienne24. A travers un sondage
adressé à différentes populations (âge, sexe, nationalité) elle posait des questions de type « Etes-
vous bon(ne) conducteur(trice) ? » avec 4 réponses possibles « A- dans les meilleurs 25% »,
« B- meilleur que la moyenne », « C- moins bien que la moyenne » ou « D- parmi les plus
mauvais ». Les taux de réponses A et B ont montré que 90% de l’échantillon se considère
comme meilleur que la moyenne. Ce phénomène a été vérifié chez les enseignants (90% d’entre
eux considèrent comme meilleur que la moyenne des enseignants), les entrepreneurs ou encore
les mariés dont le score atteint quasiment 100%.

Olivier Sibony, professeur à HEC et spécialiste de la « stratégie comportementale » définit les


biais cognitifs de la façon suivante : « Un biais cognitif est une manière que l’on a de se tromper
qui est universelle […], qui est prévisible […] et qui fausse notre raisonnement d’une manière
que l’on peut prévoir à l’avance. » Il existe une multitude de biais de confiance qui limitent la
rationalité décisionnelle, dont les trente plus connus sont référencés en annexe 3 (p.74). Les
principaux apports en psychologie comportementale appliqués à la stratégie décisionnelle sont
dus à Simon, Tversky et Kahneman25. Simon est à l’origine d’un paradigme selon lequel la
décision est systématiquement biaisée par l’information, la motivation du décideur et ses
capacités cognitives. Dans cette continuité, Tversky et Kahneman ont cherché à identifier les
principaux biais cognitifs qui limitent la rationalité (voir annexe 3, p.74). En 2009, Jean-
Philippe Denis (2009) propose une approche de la rationalité limitée reposant sur trois facteurs
exclusifs les uns des autres : le facteur calculatoire (capacité à se baser sur les sciences
mathématiques pour prendre des décisions), le mimétisme (tendance qu’ont les agents à s’imiter
sur le marché) et le facteur d’exemplarité (prise en compte des variables juridico-financières,
managériales ou de la gouvernance d’entreprise dans le processus décisionnel).

Facteurs de rationalité limité dans le métier de commissariat aux comptes

Dans le cadre d’une démarche empirique, Gonthier-Besacier et al. (2012) ont mis en évidence
une vingtaine de facteurs qui influencent de manière significative la qualité d’un audit. Ils ont
interrogé des professionnels en gestion ayant des audits externes dans les entités dans lesquelles

24
In Sibony (2014)
25
Bien que Kahneman et Tversky aient mené beaucoup de travaux ensemble, seul Kahneman reçu le prix Nobel
d’économie en 2002 pour leurs recherches en économie psychologique et expérimentale.

32
ils travaillent. Le groupe 1 correspond à des gestionnaires travaillant dans des entités générant
plus de 200 millions d’euros de CA et qui n’est pas accompagnée par un EC. Le second groupe
est constitué de répondants appartenant à une entreprise dont le CA est compris entre 100 et
200 millions d’euros et étant possiblement accompagnée par un EC.

Illustration 2 : Positionnement des groupes sur les facteurs appartenant Les répondants du groupe 1
aux thèmes mission, équipe/cabinet et réglementation
considèrent que les éléments
ayant un impact positif dans la
qualité de l’audit étaient
essentiellement lié à la mission
(implication du CAC signataire,
connaissance du dossier et la
gestion du temps et des
équipes). Par ailleurs, bien que
la taille du cabinet soit un gage
de qualité, les procédures de
travail, fortement standardisées
dans les grands cabinets, ont un
impact négatif sur la qualité
Source : Gonthier-Besacier et al. (2012), p.46 d’un audit. Concernant le
groupe 2, les facteurs de qualité d’un audit sont plus nombreux (13 contre 3 pour le groupe 1).
Les plus significatifs étant le changement de mandat (indépendance), la participation à des
instances professionnelles (gage de professionnalisme) et le respect des règles en dehors de la
mission (exemplarité).

Les limites de la rationalité intrinsèquement liées à l’organisation du cabinet

Les principaux scandales comptables et financiers révèlent une forte corrélation avec les
cabinets de type Big4. En effet, le tableau ci-dessous indique que 45 des 88 cas recensés étaient
sous mandat Big4. La question se pose alors de savoir si la taille du cabinet impacte la qualité
d’un audit ou bien si le type d’entité auditée par les Big4 sont plus susceptibles de frauder.

Tableau 3 : Quatre-vingt-huit plus grands scandales comptables

Cabinet d'Audit Nombre de scandales Pays


Alexander Grant & Company 1 Etats Unis (USA)
Arthur Andersen 12 Bermudes, Canada, France et USA

33
Arthur Andersen & KPMG 1 USA
Arthur Young & Co 1 USA
Coopers & Lybrand 1 USA
DTT 11 CA, USA
EY 14 Australie, CA, Chine, Irlande, Japon, USA
Fox & Company 1 USA
Friehling & Horowitz 1 USA
Grant Thornton 1 Italie
Homes and Davis 1 USA
Other Audit Firms 2 Iran
KPMG 8 Belgique, Canada, USA
Lybrand, Ross Brothers, & Montgomery 1 USA
Peat, Marwick, Mitchell & Co. 2 USA
PwC 12 Angleterre, Bermudes, Canada, Indes, USA
Touche, Niven & Co. 1 USA
Wagman, Fruitman & Lando 1 Canada
Wolfson Weiner; Ratoff & Lapin 1 USA
Non renseigné 15 Angleterre, Australie, Brésil, Canada, USA
Grand Total 88
Source : D’après https://en.wikipedia.org/wiki/Accounting_scandals

Sur la base d’une modélisation mathématique, un modèle propose de mesurer la qualité d’une
mission audit en fonction de la taille du cabinet (Sirois et al. 2016). Soit π la valeur de marché
de l’entité auditée en fonction du niveau contrôle qui s’exerce sur elle, AEi le volume d’heures
d’audit acheté par l’entité audité et y le niveau des autres mécanismes d’audit et de gouvernance
interne :

𝜋 = 𝑓(𝐴𝐸𝑖 , 𝑦) = 𝛼ln(𝛿𝑖 𝑥𝑖 ) + (1 − 𝛼)ln(𝑦)

Par extension, Sirois et al. (2016) définissent également la valeur de π au travers des variables :
• δixi : qualité de l’audit achetée à, et livrée par, un auditeur i (c’est-à-dire, capacité de
l’auditeur i à découvrir une ou des anomalies significatives dans les états financiers, en
excluant les problématiques liées à l’indépendance)
• 𝛼 : proportion du budget B alloué à l’audit externe
• y : tel que décrit précédemment.

Les conclusions de ces travaux mettent en avant le fait que les Big4 apportent plus de qualité à
leur travail, notamment grâce aux outils analytiques et aux investissements en innovations

34
technologiques. Cependant, si les non-Big4 existent sur le marché de l’audit c’est parce qu’ils
proposent des services d’audit légaux plus adaptés aux structures n’ayant soit pas les moyens
ou l’intérêt de mandater un Big4, soit des besoins ne nécessitant pas de faire appel aux outils
analytiques et technologiques que proposent ces grands cabinets. Par ailleurs, l’organisation de
type Big4 permet de pallier les biais cognitifs par la prise de décision collégiale. En effet, lors
de leur enquête sur le jugement professionnel en audit, Milédi et Pigé (2013) rapportent les
propos d’un CAC selon qui l’absence de comité technique en interne ne permet pas le partage
de connaissance, alourdissant le ressenti de la responsabilité dans la décision chez un CAC non-
Big426.

Indépendamment de la taille du cabinet, Olivier Herrbach propose une approche de limite à la


qualité de l’audit liée à la relation d’agence qui existe entre les collaborateurs et l’associé
signataire. Au travers de sa thèse, il explique notamment que cette situation crée un biais
décisionnel chez l’auditeur étant donné qu’il peut exister des asymétries d’informations pour
les différentes raisons citées en annexes 3 (p.74) et 4 (p.77).

La formation comptable : socle de la capacité cognitive

Au travers du tableau 3 (p.34) nous remarquons que les Etats-Unis (USA), apparaissent dans
quasiment toutes les lignes. Aussi, en 2008, Pearson et Singleton proposent à l’AICPA
(American Institute of Certified Public Accountants) un module de formation dit « Fraud &
Forensic Accounting » à intégrer dans le CPA (Certified Public Accountant) équivalent du
Diplôme d’Expert-Comptable (DEC) aux Etats-Unis.

La compétence des auditeurs repose sur « des connaissances, une formation, une qualification
et une expérience suffisantes pour mener à bien un audit financier »27. Partant d’un postulat
similaire, Pearson et Singleton (2008) ont fait état de la faiblesse des capacités cognitives lié à
une carence dans la formation comptable aux Etats-Unis. Reprenant l’exemple du scandale
WorldCom ils soulèvent les problématiques et les enjeux de la formation, notamment la
sensibilisation à l’environnement digital et aux techniques d’audits assistés par ordinateur.
C’est également l’exemple repris par Lanza et Gilbert (2007) pour sensibiliser à l’utilisation
des outils analytiques dans la détection de la fraude. Dans une étude de l’ACFE menée de 2002

26
Milédi et Pigé (2013, p.13)
27
In Gonthier-Besacier et al. (2012, p.36)

35
à 2006, il a été constaté que seulement 11% des cas de fraudes sont identifiés par le CAC, ce
qui souligne le manque de formation de la profession28. Deux carences sont distinguées :
• Les fondamentaux de la fraude (cycles risqués, domaines d’activités sensibles, schéma
comptables …)
• L’adéquation des formations à l’environnement technologique (cybersécurité, data
mining, internet …).

D’après nos recherches sur le cadre légal et les pratiques à disposition de l’auditeur dans l’audit
de la fraude, l’ensemble des forces et des biais agissant sur le CAC (voir annexes 3, p.74) et 4,
p.77), la qualité de sa mission d’audit et la pertinence des travaux menés, nous émettons
l’hypothèse de recherche (HR1) suivante :

HR 1 : La détection de la fraude au travers du « Journal Entry Testing » est biaisée par


les motivations de l’auditeur et son intelligence émotionnelle.

La responsabilité et les exigences du commissaire aux comptes à l’égard de la fraude ont


beaucoup évolué depuis la révolution industrielle. En parallèle, son approche et ses outils se
sont adaptés d’une part aux exigences des régulateurs et d’autre part à celles de ses clients.
Ainsi, à l’ère de l’intelligence artificielle il existe des opportunités à saisir pour les cabinets
d’audit et de conseil.

I. 2 - De récentes évolutions dans les pratiques d’audit grâce à l’intelligence


artificielle : la révolution du machine learning

Du concept général d’intelligence artificielle découle divers outils dont le machine learning,
apprécié pour sa neutralité et sa fiabilité (I.2.1). Dans les secteurs du marketing ou de la
médecine, il transforme les métiers d’aujourd’hui sans pour autant les remplacer, posant ainsi
la question des changements dans le milieu de l’audit (I.2.2).

I. 2. 1 - La neutralité et la fiabilité du machine learning soumise à une complexité


de mise en œuvre.

Bien que le concept de machine learning soit récent, les outils statistiques qui le composent
sont, eux, utilisés dans la détection de la fraude depuis plus longtemps. Aussi, l’apport de
l’intelligence artificielle se caractérise par la concaténation de ces divers modèles statistiques

28
Pearson et Singleton et al. (p.547)

36
et offre la mise en place d’un développement endogène qui s’auto entretient par l’expérience,
même si sa démocratisation reste bridée par différents facteurs.

Mise en œuvre d’outils machine learning

Le machine learning a pour finalité d’apprendre à la machine à faire ce que l’homme fait, pour
le moment, mieux qu’elle. A ses prémisses, l’IA à la fin du XXème consistaient à « singer » les
processus cognitifs, l’enjeux des data scientists au XXIème est de faire mieux que l’esprit
humain29. La notion de machine learning est systématiquement renvoyée à l’IA en tant qu’outil
qui découle de l’intelligence artificielle. Cependant, comme le rappelle Alexandre Gramfort 30,
l’apprentissage automatique peut exister indépendamment de la notion d’IA (illustration 3).

Illustration 3 : Le machine learning à la frontière entre deux concepts

INTELLIGENCE ARTIFICIELLE ANALYSE DE DONNEES

Apprentissage Automatique
Intelligence
artificielle à
système de
Deep
raisonnement Learning**
symbolique*

*Programme informatique capable de conclure et décider par déduction ou


induction
**Modèle d’apprentissage automatique à plusieurs « couches » de raisonnement.
Source : D’après O.Grisel (https://speakerdeck.com/ogrisel)

En effet, les prédispositions nécessaires au basculement du machine learning, à savoir


l’amélioration des algorithmes, l’explosion des données ainsi que l’accroissement des capacités
de calculs des ordinateurs n’ont convergé que récemment.

Cette technologie fonctionne selon deux approches différentes, schématisée dans l’illustration
3:
- L’approche dite « supervisée » consiste à prédire une donnée T appelée « target » sur la
base de données classifiée et connues a priori. Elle peut répondre à une question fermée
de type « Blanc ou noir ? » ou bien à une demande ouverte d’information « quelle serait
la valeur probable de cet immeuble ? »

29
C. Berthet, rapporteur de la commission Villani, lors de la conférence JUREM, 29/05/2018.
30
Data scientist à l’origine de Scikit Learn, une bibliothèque de codage informatique financée par l’INRIA, Paris-
Saclay, Telecom Paritech, Columbia University, University of Sydney, Sloan Fondation et Google.

37
- L’approche « non supervisé » est utilisée lorsque l’une des variables est manquante ou
qu’elles n’ont pas été étiquetées. Elle consiste, pour la fraude, à reconnaitre les situations
d’anomalies par une étape préalable d’apprentissage autonome de ce que sont des
situations « normales » à l’aide d’une multitude d’exemples différents.

Illustration 4 : Déclinaison des principaux usages du machine learning

Machine Learning

Non-supervisé Supervisé
(data non labélisée) (data labélisées)

Partitionnement de
Classification
données
(Classification)
(Clustering)

Détection
Hiérarchisation
d’anomalie
(Ranking)
(Anomaly detection)

Réduction de
dimensionnalité Régression
(Dimensionality (Regression)
reduction)

Source : D’après A.Gramfort (https://www.youtube.com/watch?v=ZD5lJGq1rvQ#t=6m31s)

En ce qui concerne le métier de commissaire aux comptes, ces méthodes peuvent permettent de
faire de l’évaluation de risque, de la planification, des sélections pour tests de détails ou encore
se substituer à des examens analytiques de validations (Perols, 2011). Dans le cadre de la
détection de la fraude, l’algorithme est entrainé à mettre en évidence les anomalies qu’il détecte
dans sa base de données. Par défaut, une approche non supervisée est mise en place avec comme
objectif d’identifier les outlier que détecte la machine31. La notion d’outlier désigne un cas isolé
ou déviant par rapport au reste du dataset, c’est-à-dire que l’algorithme déterminera un
« deviation standard » (en français, écart type) qui sera l’éloignement acceptable par rapport à
une valeur de référence. Les valeurs les plus éloignées sont alors diagnostiquées comme une
anomalie. Concernant l’approche supervisée, elle ne répond pas à la solution face à un cas de
fraudes étant donné que la fraude n’est a priori pas connue. Une telle approche n’est
envisageable qu’en amont pour la prédiction du risque de fraude ou en aval pour classifier les
schémas de fraudes une fois qu’ils ont été identifiés (Andrew Ng, MOOC, Standford
university).

31
Ng A., Semaine 9 - Anomaly Detection, Machine Learning, Standford University.

38
Les facteurs de fiabilité de l’apprentissage automatique

Feroz et al. (1991) ou encore Green et Choi (1997) que nous avons abordé précédemment au
travers de l’état des lieux des outils utilisés dans la détection de la fraude proposaient des
approches algorithmiques dans l’identification de la fraude. La différence significative avec les
travaux plus récents de Perols (2011), Zhang et Ling (2013) Song et al. (2014) ainsi que Hajek
et Henriques (2017) est la capacité de calcul des outils informatiques permettant la combinaison
d’algorithmes propre au machine learning comme outil d’intelligence artificiel.
L’apprentissage ensembliste consiste à utiliser au sein d’un même modèle une multitude
d’algorithmes d’apprentissages afin d’accroitre les performances de l’outil. Les différentes
méthodes utilisées par ces auteurs sont synthétisées dans le tableau ci-dessous :

Tableau 4 : Principales méthodes algorithmiques utilisées par les auteurs

Méthode Résumé
Permet d’exprimer la relation d’une variable en fonction d’une ou plusieurs
Régression Logistique autres (la probabilité X d’être malade au regard des symptômes Y1, Y2, … Yn).
Elle est utilisée pour déterminer ou non l’occurrence d’un évènement.
Machine à Vecteur de Support Procédé de discrimination par lequel l’algorithme classifie les prévisions
(Support Vector Machine, d’une variable de sorte à mettre en évidence plusieurs tendances parmi la base
SVM) de données.
Réseau de Neurones
Programme imitant le cheminement intellectuel humain. Il est basé sur le
Artificiels
principe d’inférence bayésien, c’est-à-dire qu’il se sert des éléments passés
(Artificial Neural Network,
pour conjecturer sur l’avenir par cohérence.
ANN)
Modèle d’apprentissage basé sur un arbre décisionnel qui permet d’effectuer
de la classification supervisée de la façon suivante :
Arbre de décision C4.5 - Décider si un nœud est terminal
- Si un nœud n’est pas terminal, sélectionner un test à lui associer
- Si un nœud est terminal, lui affecter une classe.
Méthode permettant d’accroitre l’exactitude et la stabilité d’un modèle grâce
Bootstrap aggregating
à la réduction de la variance (dispersion d’un échantillon) par créations de
(Bagging)
données supplémentaires qu’il juge pertinent.
Le stacking consiste à combiner des algorithmes afin d’accroitre l’efficacité
Stacking
de son modèle en tirant les avantages de chaque algorithme.
Source : Hajek et Henriques (2017), Perols (2011), Song et al. (2014) et Zhang et Ling (2013)

Le codage de ces modèles algorithmiques se font à l’aide de bibliothèques de code répondant à


des standards informatiques. Dans leurs recherches, Perols (2011) et Zhang et Ling (2013)
utilisent comme base de code Weka32, une bibliothèque open source (en français, code source
ouvert) de codage développé par les chercheurs de l’université de Waikato en Australie.
Margaret Rouse, directrice de Whalts.com définie l’open source comme « une méthode

32
https://www.cs.waikato.ac.nz/ml/weka/

39
d’ingénierie logicielle qui consiste à développer un logiciel, ou des composants logiciels, et de
laisser en libre accès le code source produit [pour qu’il puisse] être exploité par les
développeurs et les entreprises souhaitant soit l’adapter à leurs besoins métiers, soit affiner
son intégration avec leur système d’information.33» En plus d’être gratuit pour l’utilisateur, les
codes source ouverts sont alimentés en permanence par le savoir de la communauté utilisatrice,
garantissant toujours plus de fiabilité, comme le souligne Rouse dans sa présentation. Parmi les
principales bibliothèques open sources d’apprentissage automatique utilisées par les
professionnels TensorFlow (Google), Apache MXnet (Apache Software Foundation), FeaturFu
(LinkedIn), DMTK (Microsoft), Keras (Google, Microsoft, NVidia et Amazon) sont des
exemples d’outils développés par des entreprises privées. Il existe également des projets issus
de la recherche universitaire tel que Scikit-Learn ou Weka. Ainsi, l’usage de bases ouvertes
permet aux entreprises de rester en phase avec les évolutions numériques et technologiques
ainsi que de réaliser des économies de coûts sur la mise à jour de leurs outils.

Nous comprenons qu’il existe des facteurs de fiabilités qui font la renommée du machine
learning, notamment la possibilité de combiner des modèles mathématiques et statistiques entre
eux, la capacité de la communauté des data scientists à renforcer ces outils grâce à l’open
source. Ainsi, au regard de notre sujet, nous proposons l’hypothèses de recherche suivante :

HR 2 : L’intelligence artificielle, grâce au machine learning, pourrait tester le FEC de


manière pertinente, fiable et économique.

Des freins à l’investissement en machine learning

Dans sa présentation « Le machine learning de A à Z »34, Alexia Audevart décompose le


processus de mise en place du machine learning en quatre étapes. Contrairement aux idées
reçues, la phase de modélisation représente la plus courte de toutes. Selon elle, les data
scientists passent le plus de temps sur la récupération de données et le nettoyage de ces données
pour les rendre exploitable. Comme le souligne le rapport de la CNIL, « L’algorithme sans
données est aveugle. Les données sans algorithmes sont muettes » (p.20). L’enjeu pour les
équipes data science est de capter l’information, la traduire en variable exploitable et
l’incorporer de manière cohérente au dataset35. Ce processus porte le nom de data wrangling.

33
https://www.lemagit.fr/definition/Open-Source
34
Audevart A. (2017), Machine Learning de A à Z, Salon de la Data, Nantes, France. (Retranscription disponible
à l’adresse suivante : https://www.youtube.com/watch?v=BLZo9QLt0UY )
35
https://docs.microsoft.com/fr-fr/azure/machine-learning/team-data-science-process/prepare-data

40
Dans sa notice, Microsoft Azure rappelle que les principaux écueils rencontrés sont les bruits
(aberrations, erreurs), les incohérences (contradictions entre les données) et l’incomplétude de
l’information (manquement de valeur ou d’attributs). Déjà en 2016, la revue Forbes 36 publiait
des résultats selon lesquels la récupération de données occupe en moyenne 19% du temps de
l’équipe, le nettoyage et l’organisation mobilise 60% du temps et près de 9% du projet consiste
à identifier les patterns37.

Illustration 5 : Etapes clefs de la mise en place d’un projet de machine learning

Récupération des Nettoyage & Construction du Analyse /


données brutes retraitement de modèle Prédiction
données
𝑿 + 𝒀 = 𝒁

𝑨 + 𝑩 = 𝑪

?
𝑿 + 𝑨 = 𝒁
𝑩 + 𝒀 = ?

Source : D’après blog O.Klose (http://oliviaklose.azurewebsites.net/machine-learning-11-algorithms-explained/)

Dans la chronologie présentée ci-dessus, nous remarquons que la phase suivante celle de
récupération et traitement des données est la construction du modèle. Contrairement aux étapes
précédentes, celle-ci ne présente pas de caractère chronophage et occupe seulement 3% du
temps. Pendant cette étape, l’enjeux n’est pas la gestion du temps, mais la recherche de la
précision et la qualité de l’algorithme. Tandis que la plupart des services qualité tolère une
marge d’erreur de 10% à 25% pour lancer leur production, la précision d’une intelligence
destinée à assister ou à se substituer à l’homme peut parfois exiger une marge d’erreur de
seulement 108 d’écart (Charly Berthet, rapporteur de la commission Villani), c’est-à-dire que
la probabilité d’erreur acceptable est de 1/10 000 000.

De surcroit, dans la théorie de l’investissement d’Eugène Böhm-Bawerk38 intitulé le « détour


de production », il est essentiel de mettre en place des projets d’investissements si l’entreprise
souhaite bénéficier d’économies futures. En effet, en reprenant son exemple, un individu qui
souhaite avoir accès à l’eau potable effectuera un premier investissement dans un sceau afin de
limiter son nombre d’aller-retour jusqu’à la source. Puis, à terme, il fera installer un réseau de
plomberie de la source jusqu’à chez lui afin de ne plus avoir à marcher jusqu’au puit.

36
https://www.forbes.com/sites/gilpress/2016/03/23/data-preparation-most-time-consuming-least-enjoyable-data-
science-task-survey-says/#48b1b5ef6f63
37
Série ou séquence dde donnée qui se répète et constitue un modèle.
38
http://easynomie.com/le-detour-de-production-illustre/ (Esteban Giner, Professeur d’économie, Université Paris
Est)

41
L’investissement (le réseau de plomberie) lui permet in fine d’économiser du temps et de
l’énergie (les aller-retours jusqu’à la source d’eau potable) de sorte qu’il puisse se consacrer à
de nouveaux projets ou se focaliser sur des activités à plus forte valeur ajoutée, notamment
l’accroissement de son capital humain (Gary Becker, 1992). Dans ce processus, Böhm-Bawerk
souligne le phénomène paradoxal selon lequel l’agent économique va réduire sa productivité
pendant la phase de conception et de réalisation du sceau ou du réseau de plomberie. Cependant,
ce temps dédié au projet futur lui permet d’accroitre sa productivité future, une fois la mise en
place effectuée. Dans le cadre du machine learning, on comprend de l’étude de Forbes que le
projet peut prendre un temps considérable en termes de traitement des données et
d’entrainement du modèle algorithmique.

Bien qu’il existe des bases open source qui permettent de réduire les coûts de mise en œuvre,
la mobilisation d’équipes d’ingénieurs, de data scientists et d’auditeurs constitue un enjeu
stratégique et financier pour les cabinets d’audit en ce sens qu’ils ne s’agit pas d’heures de
travails affectées à la production de l’audit des comptes des entités clientes mais à de la
recherche et développement.

Force est de constater qu’il existe des barrières à l’entrée, principalement techniques et
financières. Nous formulons notre hypothèse de recherche HR3 qui découle de ce constat
comme suit :

HR 3 : Il existe des barrières à l’entrée pour mettre en place un outil de type machine
learning dans un cabinet d’audit.

I. 2. 2 - Vers une évolution du métier de l’auditeur

L’usage du machine learning amènera à des changements dans divers professions dont la data
n’est pas le cœur de métier. Il sera amené à changer l’approche et le rôle de l’auditeur dans sa
mission et conduira à de nouveaux enjeux dans l’exercice de ses fonctions.

Complémentarité Homme & machine et gestion du temps

99,5%, c’est le taux de réussite qu’obtiennent les chercheurs de la Harvard Medical School dans
la détection de cancer du sein lorsque le médecin s’associe au machine learning39, tandis que
la machine seule se trompe dans 8% des cas et le spécialiste seul dans 4% des cas. Ce genre de
recherches permet de statuer en faveur d’une complémentarité de l’Homme et de la machine.

39
In Rapport France Stratégie, p.56.

42
Yann LeCun, chercheur français considéré comme l’un des fondateurs du Deep Learning,
reconnait que l’apprentissage automatique est plus efficace que des ingénieurs dans certains
domaines, ce qui peut s’avérer « désespérant pour des gens qui ont passé leur carrière à essayer
de faire le design de ces [outils], mais c’est un fait »40. Yannick Meiller, met également en
garde quant à l’appréhension de la machine par l’homme. Il souligne l’existence d’un « risque
psychosocial » qu’il ne faut pas négliger car selon lui « c’est aussi un douloureux sentiment
d’inutilité qui peut dominer, un sentiment d’incapacité, d’inaptitude et d’échec permanent ».
En ce qui concerne la profession de CAC nous pouvons considérer qu’à l’instar des médecins,
il y aura moins de personnes impliquées dans la préparation et l’analyse des éléments
nécessaires au diagnostic. Nous assisterons à une revalorisation du diplôme et des compétences,
rendant le niveau d’expertise exigé d’autant plus important. Enfin, l’un des risques abordés par
le rapport de France Stratégie est celui de la surcharge de travail que peut amener
l’apprentissage automatique. Considérant en effet que les tâches simples et fastidieuses sont
traitées par l’outil numérique, l’expert se focalisera sur des opérations plus complexes
nécessitant plus d’attentions, des analyses plus fines et donc plus de connaissances.

Parmi les plus grands travaux de recherches menés par des institutions françaises tel que l’ordre
des médecins, la CNIL, France Stratégie et tant d’autres, la rapidité de traitement de
l’information par la machine est unanimement reconnue. La question que sous-tend ce constat
est celle de la gestion du temps de l’expert à l’ère du machine learning. En prenant comme
exemple le domaine de la santé, le rapport France Stratégie considère que l’usage de
l’apprentissage automatique permet à l’expert de se « recentrer son activité sur les cas les plus
complexes, sur la formation et bénéficier d’un apprentissage continu ». Le médecin « sera aussi
conduit à renforcer la relation et le dialogue médecin-patient, afin d’apporter l’information
nécessaire à la compréhension des diagnostics. » Dans les métiers de l’audit, et notamment
l’investigation de la fraude, nous avons vu au travers des précédentes sous-partie que l’analyse
des chiffres sur la base de différents ratios permettait d’identifier des cas de fraudes internes au
travers de la comptabilité (tableau 3). Tandis que l’outil d’apprentissage statistique détecte
rapidement les risques de fraudes au travers de la comptabilité, l’auditeur pourra privilégier
l’investigation au travers d’entretiens avec des interlocuteurs de l’entité auditée. Il pourra
étendre son analyse au-delà des chiffres et du fichier des écritures comptables de sorte à
percevoir ce que la machine ne peut percevoir au travers du comportement humain. Par ailleurs,
un tel outil permet également une meilleure allocation des ressources humaines sur une mission

40
https://www.youtube.com/watch?v=RgUcQceqC_Y&t=1338s

43
d’audit. C’est du moins ce que met en avant le Conseil National de l’Ordre des Médecins
(CNOM) dans son livre blanc dédié à l’intelligence artificielle lorsqu’il présente le quotidien
du Pr Francois et son assistante Galiena (voir annexe 5, p.78).

L’hypothèse de recherche qui découle de ce constat, principalement avéré en médecine, est


donc la suivante :

HR 4 : L'usage du machine learning dégagera du temps pour l'auditeur au profit de l'analyse et


l'entretien client.

L’audibilité des algorithmes

Si nous prenons le cas de l’industrie aéronautique, les chercheurs comme Clément Ader (1897)
se sont inspirés de la biologie pour mimer des animaux tel que la chauve-souris et s’inspirer de
leur façon de voler pour concevoir des avions41. Concernant l’IA, les ingénieurs, au travers de
techniques s’appuyant sur des réseaux de neurones artificiels, s’inspirent du cheminement
intellectuel humain pour mettre en place leurs outils. Or, même si nous sommes en mesures de
comprendre le fonctionnement du cerveau par le jeu des neurones et des synapses, le
raisonnement intellectuel d’un individu est quant à lui imperceptible. Cet aspect « boîte noire »
s’applique également aux algorithmes qui composent les outils d’apprentissages automatiques.
C’est-à-dire qu’il est impossible de comprendre comment la machine produit ses outputs,
qu’elle ait tort ou raison. Selon Eric Topol, cardiologue généticien et chercheur en médecine
numérique aux Etats-Unis, l’intelligence artificielle et les outils d’apprentissages automatiques
resteront complémentaires aux experts pour des raisons évidentes de capacité à expliquer le
résultat de leurs observations. Or, dans un rapport annuel sur les comptes d’une société, le
commissaire aux comptes doit justifier ses appréciations et ses commentaires. L’absence
d’explicabilité de l’algorithme remet en cause le fondement du jugement professionnel du CAC
ayant conduit à ses appréciations. Meiller rappelle aussi qu’un des enjeux pour l’utilisateur est
de ne pas accorder une confiance aveugle au machine learning car il peut mettre en évidence
des corrélations entre des éléments par l’identification de patterns, mais ces relations ne sont
pas systématiquement causales.

41
http://culture.cnam.fr/histoires-d-objets/aeroplane-de-clement-ader-659204.kjsp

44
Illustration 6 : Cadre et paramètres expérimentaux

Source : Hajek et Henriques (2017, p.144)


Prenons l’exemple ci-dessus, tiré de la recherche de Hajek et Henriques (2017). Au travers de
ce schéma, il est facile d’identifier sur quelles méthodes va s’appuyer le modèle
d’apprentissage. Les résultats sont plutôt probants car l’outil atteint jusqu’à 90% d’efficacité
sur certains lots de tests. Il sera néanmoins impossible de savoir comment l’outil a déterminé si
oui ou non l’état financier était frauduleux. Dans la synthèse du rapport Villani proposée par
Le Figaro42, le phénomène des « boites noires » soulève des questions juridiques de preuve et
d’explicabilité. Berthet, l’un des juristes de la commission Villani considère qu’au regard du
ratio auditabilité/efficacité (voir annexe 6, p.79), des régulateurs ou des experts publics devront
être en mesure de se prononcer sur la fiabilité de l’outil et retracer son raisonnement en cas de
besoin.

Qualité du dataset

Si l’apprentissage automatique présente de telles performances aujourd’hui, c’est également


grâce à la qualité et la force des apprentissages qu’ils ont subi. Or la base du training est
constituée par la base de données qui entrainera l’algorithme avant son lancement opérationnel.
Aussi, il est important de s’assurer de la qualité des données utilisées lors de la phase de data
wrangling que nous avons présentée précédemment. Un dataset inadapté peut avoir pour
conséquence un algorithme discriminant, un diagnostic obsolète, un taux de faux positifs trop
important ou encore l’omission de variables clefs. Le rapport de la CNIL rapporte les propos

42
Matsas P. (29/03/2018), Intelligence articille : Les propositions de Cédric Villani, Le Figaro, 20-21.

45
de Philippe Besse, professeur de mathématique et de statistique de Toulouse qui alerte sur le
problème de représentativité des échantillons et des populations utilisées en médecine
prédictive assisté par intelligence artificielle (voir annexe 7, p.79). Selon lui, « si vous êtes une
femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous
concerne ».

Par ailleurs, le paradoxe de Simpson rappelle la nécessité de nourrir les algorithmes de données
le plus brut possible afin d’éviter les biais de l’agrégation d’information. Ce phénomène
démontre qu’une donnée globale agrégée peut donner une information contradictoire par
rapport aux données détaillées qui la composent43. Dans l’exemple pris par Arthur Charpentier,
professeur de sciences actuarielles à l’université de Montréal, deux hôpitaux A et B sont
comparés sur la base du taux de survie de leurs patients « sains » versus le taux de survie des
patients « malades ». Dans l’analyse par découpage « sain » versus « malade », l’hôpital A
apparait comme le plus performant. Cependant, l’effet volume fait qu’au global, l’hôpital B
accorde plus de chance de survie au patient, quel que soit sa situation comme l’illustre le tableau
ci-dessous :

Tableau 5 : Exemple d’illustration du paradoxe de Simpson

Taux de Choix
Situation Hôpital Population Survivants Décès
survie rationnel

Personnes A 600 590 10 98% 


saines B 900 870 30 97% 

Personnes A 400 210 190 53% 


malades B 100 30 70 30% 
A 1000 800 200 80% 
TOTAL
B 1000 900 100 90% 
Source : A.Charpentier (https://freakonometrics.hypotheses.org/231)

Stockage de données : l’enjeux de la cybersécurité et de la réglementation

L’enjeux de la sauvegarde des données n’est pas nouveau pour les cabinets, le sujet de la
migration vers les services de cloud-coumputing avait relancé le débat il y a quelques années44.
La différence avec le Big Data c’est que la responsabilité est accrue du fait de la volumétrie de
donnée et la menace grandissante des cyberattaques. L’entreprise Cisco, dans son rapport de

43
https://freakonometrics.hypotheses.org/231
44
Bacchi M. et al. (2014), Guide pratique sur le bon usage du Cloud Computing par les cabinets d’expertise-
comptable, Collection des études Institutionnelles.

46
2017, faisait état des cas de cyberattaques connues touchant les entreprises. Aussi, il s’avère
que « 8% des attaques ont coûté 4 millions d'euros et plus aux entreprises et organisations
touchées en 2017 »45. Les données à caractère financier et stratégiques des entreprises que les
cabinets d’audit stockent pour les besoins de leur mission légale sont sensibles, voire
confidentielles. Aussi, si les cabinets décident les accumuler en masse pour les besoins de leur
technologie d’intelligence artificielle, ils s’exposent à des répercutions d’autant plus importante
en cas de faille dans leurs systèmes de cybersécurité.

Applicable à compter du 25 mai 2018, le règlement général de la protection des données


(RGPD) concerne l’ensemble des entreprises collectant des données en Europe, de personnes
résidant sur le territoire européen46. En principe, les données collectées lors de la mission
d’audit ne sont que des informations sur l’entreprise. Par conséquent, il n’est pas question que
les règlementations liées au RGPD soient applicables aux cabinets d’audit au regard de la
collecte de données. Toutefois, dès lors que les outils de type machine learning seront entrainés
ou traiteront des données comportant des informations rapportant à « une personne physique
identifiée ou identifiable »47, le cabinet entre dans le champ d’action du RGPD. Il sera tenu, à
l’égard de ses entités clientes concernées, de faire le nécessaire pour opérer sa mise en
conformité RGPD. Le FEC ne présentant en principe aucune données à caractère personnelle,
le RGPD ne s’applique pas. Cependant, c’est une contrainte à avoir à l’esprit, dès lors qu’une
investigation approfondie de la fraude nécessitera de récolter des données à caractère personnel.

En définitive, le machine learning permettrait à l’auditeur d’effectuer ses tests d’identifications


de fraudes plus rapidement, permettant une allocation optimale du temps de mission sur
l’analyse et l’investigation de la fraude. Bien que la confidentialité de l’information financière
ait conduit les auditeurs à se soucier de la sécurité de leurs données, le traitement des données
par machine learning implique des enjeux de conformité et de sécurité jusqu’alors propres aux
organisations de type GAFA qui vivent des données.

45
https://www.cisco.com/c/dam/global/fr_fr/solutions/security/pdfs/Cisco2017MidyearCybersecurityReportFR.p
df
46
http://www.lrqa.fr/RGPD-Reglement-General-sur-la-Protection-des-Donnees-Personnelles/
47
« Une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un
identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à
un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique,
économique, culturelle ou sociale »
(https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32016R0679&from=FR , page 33)

47
II. Enquête terrain, analyse des résultats et recommandations

Dans le cadre d'une méthode hypothético-déductive, nous avons déduit quatre hypothèses de
recherche de notre revue de littérature. Cette partie a pour objet de présenter la façon dont nous
allons approcher les différentes parties prenantes concernées par nos hypothèses afin de tester
celles-ci ; les résultats de l'enquête seront analysés en vue d’établir des recommandations et des
préconisations.

II. 1 - Méthodologie de l'enquête terrain

Préalablement à sa mise en place, nous déterminerons les méthodes et l'échantillon les plus
adaptés à notre démarche. Nous présenterons également les guides d'entretien à l'origine de nos
enquêtes.

II. 1. 1 - Les méthodes d'enquêtes et leur pertinence

Les travaux en matière de communications, marketing et sciences sociales ont permis de


diversifier et améliorer les différentes méthodes d’enquêtes. Aussi, la nomenclature actuelle
reconnait les enquêtes documentaires, qualitatives et quantitatives. De manière transverse, le
benchmarking ou étalonnage est une démarche qui peut reposer sur les trois méthodes précitées.

Les méthodes retenues

Une approche qualitative peut prendre la forme d’un entretien individuel ou collectif ou bien
d’une observation. Les observations sont davantage adaptées à des études sociologiques ou
managériales. C’est par exemple la méthode utilisée par Crozier entre 1959 et 1963 pour
démontrer l’importance de la structure informelle et les zones d’incertitudes dans l’organisation
et Emery et Trist dans l’analyse sociotechnique des mines de charbon en Angleterre dans les
années 1950. Dans notre enquête, les entretiens seront privilégiés aux observations étant donné
que nos besoins ne reposent pas sur l’analyse psychosociale des comportements humains. Ce
fut d’ailleurs l’expérience menée par Mayo au sein de Western Electric qui marqua le point de
départ de l’utilisation de l’entretien comme outil pertinent de l’enquête terrain selon Blanchet
et Gotman (2007). Dans ses travaux en 1985, Alain Blanchet conclue que l’entretien non
directif a pour avantage de ne comporter aucun biais généré par l’enquêteur lui-même car le
répondant se trouve totalement libre dans son expression et n’est limité qu’au thème imposé au
guide d’entretien48.

48
https://www.persee.fr/doc/rfsoc_0035-2969_1987_num_28_1_2380

48
A l’inverse, l’entretien directif est plus strict et s’apparente au questionnaire en ce sens que les
questions sont préalablement définies avec un ordre précis et la réponse attendue est
généralement fermée (oui/non) ou courte (mots clefs). Ainsi, le semi-directif apparait alors
comme le juste milieu entre ces deux méthodes. Il permet de rendre plus libre les réponses de
l’interviewé tout en gardant la possibilité de réorienter le dialogue à l’aide d’une liste de
questions préétablies. Le machine learning repose sur des procédés algorithmiques très
complexes et son usage est très varié. Aussi, de sorte à laisser libre cours aux réponses
spontanées des personnes interrogées, tout en gardant la possibilité de pouvoir recentrer nos
interrogations sur nos mots clefs tels que la fraude ou l’audit, nous faisons le choix d’utiliser la
méthode d’entretien semi-directive. En effet, il s’agit d’une démarche exploratoire et un
entretien directif induit le risque d’être fermés aux seuls éléments que nous connaissons de nos
lectures de recherche. Par ailleurs, un entretien non directif ne permet pas à l’intervieweur
d’avoir le contrôle sur l’entretien, ce qui l’empêche de potentiellement axer la discussion sur
des points particuliers. Concernant notre première hypothèse sur les facteurs de rationalité
limitée, cette méthode permet également de laisser le répondant libre, tout en adaptant
l’entretien selon les réponses apportées.

Le benchmarking, est une pratique dans le marketing qui consiste à se comparer par rapport
aux concurrents grâce à un étalonnage et un positionnement de l’entreprise ainsi qu’à imiter les
leaders sur le marché. Ainsi, le premier à se lancer détient un avantage concurrentiel,
particulièrement en termes d’adaptabilité à la demande. Dans le cas de l’enquête terrain, le
benchmarking est un processus par lequel l’enquêteur va comparer deux types de répondant
différents qui sont sujets au même objet d’étude de sorte à observer quelles ont été les
différences observées au sein de ces différentes catégories et ainsi déterminer un one best way49.
Les sources de l’étalonnage peuvent être secondaires, c’est-à-dire que l’analyse comparative
d’un sujet peut reposer sur des données recueillies dans la presse professionnelle et spécialisée
ou des instituts de sondages fiables. Il est alors important de croiser l’ensemble des ressources
secondaires de sorte à obtenir une analyse la plus exhaustive possible. Jacques Gautron,
représentant de la France à l’European Benchmarking Forum (EBF) de 1996 à 2002, souligne
le fait que dans le cadre d’un benchmarking, « il sera souvent utile de rechercher de bonnes
pratiques auprès de partenaires d’autres secteurs d’activité »50.

49
Dans la terminologie taylorienne (organisation scientifique du travail, OST), il s’agit de déterminer la façon
optimale d’exploiter les ressources au sein d’une organisation.
50
Gautron J. et al (2003), Le Guide du Benchmarking, Editions d’organisation, p.50.

49
En ce qui concerne notre étude, la réalisation d’un benchmarking s’avère être pertinent du fait
du nombre divers de secteurs d’activité qui exploitent le machine learning. Il ne s’agit pas de
comparer les cabinets d’audit entre eux, mais de s’immiscer dans des domaines voisins comme
la finance ou complètement étranger au commissariat aux comptes comme la cyberdéfense. Au
travers de nos entretiens, nous chercherons alors à identifier un one best way, c’est à dire les
« bonnes pratiques » du machine learning grâce aux retours d’expériences des personnes
interrogées.

Les méthodes exclues

Les démarches documentaires consistent à exploiter les recherches effectuées par une tierce
personne, une entreprise ou un institut de statistique. Ainsi, les sondages menés par l’Institut
national de la statistique et des études économiques (INSEE), les études d’entreprises privées
tel que le groupe Xerfi ou encore les enquêtes provenant d’articles de recherches sont des
sources documentaires fiables et exploitables dans ce genre de démarche. Bouzon et al. (1996)
soulèvent deux aspects de la recherche documentaire qui sont les ingrédients clefs de
l’efficience de cette méthode51. Le premier ingrédient est le travail de groupe. Ils constatent en
effet que le doctorant qui recherche seul en autonomie se noie dans l’information et peine à
prendre du recul. Il préconise la recherche de groupe pour diminuer le temps de recherche,
restreindre les biais de compréhension par le partage d’analyse et permettre l’échange de
méthode d’investigation. Le deuxième élément qui fait l’objet de leur préconisation est la
formation. Il est important que les chercheurs soient formés de sorte, notamment, à acquérir un
regard critique et objectif sur les conclusions et les analyses des auteurs qu’ils citent.

En termes d’outils, il est indéniable qu’internet reste le plus utilisé au XXIème siècle pour les
recherches documentaires et plus particulièrement le moteur de recherche Google (Lardellier
2016 et Ginouvès 2008). Afin d’exploiter les supports trouvés sur internet, il faut alors s’assurer
de leur fiabilité et leur véracité de manière raisonnable. De plus, afin de s’assurer que ces
recherches testent bien une hypothèse de recherche, il est indispensable de pouvoir accéder à
l’intégralité des paramètres de l’enquête (échantillon, nombre de répondants, zone
géographique couverte …). Compte tenu de nos hypothèses de recherche, nous n’avons pas
trouvé d’études satisfaisantes, d’autant plus que l’outil machine learning connait une
application récente dans l’environnement professionnel, notamment dans l’audit.

51
http://bbf.enssib.fr/consulter/bbf-1996-06-0054-008

50
L’enquête quantitative représente un outil d’aide à la décision stratégique pour les entreprises
mais aussi les associations et le gouvernement. Hervé Dumez écrit à propos de l’enquête
quantitative : « On y retrouve cette idée que l’analyse qualitative précède et prépare l’analyse
quantitative (qu’elle est « exploratoire ») en lui fournissant des phénomènes à étudier et des
concepts à tester statistiquement ou économétriquement »52. En effet, l’approche quantitative
permet de quantifier des phénomènes pour établir des statistiques et des analyses
mathématiques permettant de corroborer ou non les conclusions d’une enquête qualitative
préalable. Par ailleurs, Dumez ajoute que « dans les approches quantitatives, l’accent est mis
sur les variables, et les acteurs n’apparaissent vraiment que quand les variables ne parviennent
pas à expliquer un phénomène. Dans les approches qualitatives, l’accent doit être mis sur les
acteurs et non sur les variables ». Dans l’étude d’un sujet en phase d’émergence, il est essentiel
que les parties prenantes puissent s’exprimer sur leur retour d’expérience pour ensuite donner
des pistes d’enquêtes statistiques permettant de vérifier des tendances à plus grande échelle.

Etant donné que notre étude porte sur un outil dont l’utilisation par les professionnels est à ses
débuts, les travaux de recherche sont tournés vers l’expérimentation comme le montre les
expériences de Perols (2011), Zhang et Ling (2013) Song et al. (2014) ainsi que Hajek et
Henriques (2017). Aussi, l’étude quantitative ne serait pas significative car l’usage du machine
learning n’est pas démocratisé et ne fait qu’émerger dans les pratiques professionnelles. Aussi,
nous allons privilégier l’enquête qualitative (voir supra).

Tableau 6 : Synthèse des méthodes d’enquête

Intitulé Commentaire
- Liberté d’expression pour le répondant
Enquête qualitative –
- Entretien non figé
Entretien semi-directif
- L’enquêteur garde le contrôle de la discussion
Méthodes
Retenues - Elargir les connaissances grâce au point de vue d’autres
utilisateurs du machine learning
Etalonnage
- Identifier les bonnes pratiques dans des domaines différents
- Permet d’affiner les recommandations
- Faiblesse des ressources
Enquête documentaire
Méthodes - Inadéquats aux hypothèses de recherche
Exclues - Sujet d’étude encore à caractère exploratoire
Enquête quantitative
- Accent plus sur les variables que les acteurs
Source : D’après Blanchet et Gotman (2007), Bouzon et al. (1996), Dumez (2011) et Gautron et al (2003).

52
Dumez H. (2011), Qu’est-ce que la recherche qualitative ? Le Libellio d’Aegis, 7, 4, 47-58

51
II. 1. 2 - La détermination des répondants

Ingénieurs, mathématiciens, commissaires aux comptes, ou encore data scientist, sont autant
de professions concernées par l'arrivée du machine learning dans les cabinets d'audit et
d'expertise comptable. Pour le benchmarking, nous chercherons à comparer la mise en place de
l’outil machine learning dans d’autres secteurs professionnels. Compte tenu de nos hypothèses
de recherches, nous avons distingué quatre catégories de répondant pour nos entretiens.

Les commissaires aux comptes ont volontairement été séparés en deux groupes : ceux qui
exploitent l’intelligence artificielle dans leur processus de détection de la fraude et ceux qui ne
l’exploitent pas. En effet, le guide d’entretien se présentera différemment selon que le CAC
interrogé utilise le machine learning ou pas. Dans le cas où il ne l’exploiterait pas, nos questions
seront orientées vers l’expectative et ce qu’il pense sur cette technologie bien qu’il ne l’exploite
pas. C’est également un moyen de pouvoir identifier les raisons qui expliqueraient l’absence de
cet outil dans leurs processus métier. Nous appellerons AAM les « Auditeurs Avec Machine
learning », pour désigner les auditeurs, diplômés ou non, qui exploitent ou conçoivent des outils
algorithmiques. Les ASM seront les « Auditeurs Sans Machine learning » qui au contraire ne
disposent pas de ces outils.

Par ailleurs, nous chercherons à interroger des professionnels du machine learning qui le
mettent en place pour leur propre compte ou celui de clients. Diplômé d’écoles d’ingénieur, de
mathématiques ou d’informatiques et étant à l’origine des outils, ils sont plus à même d’aborder
les points pratiques et théoriques du machine learning. Nous testerons donc avec eux les
hypothèses de recherches HR2, HR3 et HR4. Comme nous l’avons spécifié précédemment,
l’entretien semi directif sera le moyen de faire parler les experts sur leur retour d’expérience et
non pas des variables (H.Dumez 2011). Ils seront nommés « DS » pour « Data Science ».

Enfin, dans le cadre du benchmarking, nous solliciterons des professionnels qui exploitent
également le machine learning dans des domaines similaires ou non. L’objectif de notre
approche sera de diversifier les domaines d’activités pour croiser les attentes de chacun mais
aussi les difficultés éventuelles qu’ils ont pu rencontrer lors de la mise en place de cet outil ainsi
que l’apport de l’intelligence artificielle dans l’accomplissement de leur tâche. Ils seront
identifiés par l’abréviation « Bench. » par la suite.

52
Tableau 7 : Liste des répondants démarchés (Modifié pour des raisons d’anonymat)

Qualité Secteur Catégorie


Auditeur – Data Scientist Audit AAM
Chief Strategy Officer Audit AAM
Data scientist – Diplômé du DEC Chercheur AAM
Responsable R&D Audit & conseil AAM
Associé Audit – Diplômé CAFCAC Audit ASM
Manager Audit Audit ASM
Senior Manager Audit – Diplômé CPA 53
Audit ASM
Manager – Direction Qualité & Risque Audit ASM
Associé Forensic – Diplômé DEC Forensic Bench.
Directeur Général – Juriste Droit Bench.
Presales director Ingénierie informatique Bench.
Responsable commercial Lutte anti-blanchiment Bench.
Chercheur associé en Cyberdéfense Cyberdéfense Bench.
Data scientist Science de la donnée Bench.
Cadre supérieur DGFIP Finances publiques Bench.
Data scientist Marketing digital Bench.
Data scientist Santé Bench.
Manager Forensic Bench.
Professeur en stratégie Enseignement supérieur Bench.
Associé Risk Advisory Conseil DS
Directeur Data Analytics Conseil DS
Chercheur en IA Défense et aérospatial DS
Député – Mathématicien Politique DS
Source : Moi-même

II. 1. 3 - Les guides d'entretien

Le guide d’entretien est un outil d’enquête qualitative qui synthétise l’ensemble des thèmes
abordés et des questions posées par catégorie de répondants. Il présente une certaine
chronologie qui peut être amenée à changer dès lors que l’entretien invite à modifier le plan de
l’interview par exemple. L’ensemble des questions posées proviennent des lectures dont nous
avons fait la synthèse dans la revue de littérature. Afin de s’assurer que ces questions soient
pertinentes lorsqu’elles seront posées aux professionnels, nous avons procédé à une démarche

53
Chartred Public Accountant (CPA), diplôme américain équivalent du DEC en France.

53
exploratoire. C’est-à-dire que le guide d’entretien a préalablement été soumis à des
professionnels et des étudiants de l’informatique et du marketing.

Ainsi, nous avons dégagé deux thèmes principaux de nos quatre hypothèses de recherche. Le
tableau 8 décrit la pertinence de chaque thème par rapport aux hypothèses de recherche. Les
tableaux suivants auront pour objet de présenter le guide d'entretien à destination des différentes
catégories de répondants que nous avons évoqué précédemment. Enfin, le dernier tableau
regroupe les questions adressées dans le cadre de notre benchmarking aux autres professionnels
utilisant le machine learning.

Tableau 8 : Dictionnaire des thèmes

Ref Hypothèses Thème Description

Du fait du volume considérable du nombre


La détection de la fraude au d'écriture dans le FEC, l'auditeur va mettre en
travers du « Journal Entry Test Jet & place des moyens pour "dépolluer" la population
HR1 Testing » est biaisée par les Rationalité et cibler des écritures de sortes à faires des tests
motivations de l’auditeur et limitée qu'il juge plus pertinents. La sélection se retrouve
son intelligence émotionnelle alors réduite d'une partie de la population initiale
susceptible de comporter de la fraude.
Le machine learning est une concaténation de
L’IA, grâce au machine Fiabilité et pleins de modèles différents qui reposent sur un
learning, pourrait tester le pertinence du procédé fiable basé sur le triptyque "Trainig,
HR2
FEC de manière pertinente, machine validation and application". Du fait de son aspect
fiable et économique. learning technique il permet de mettre en évidence des
corrélations que l'auditeur ne peut identifier.
Au regard de nos lectures, la mise en place semble
Il existe des barrières à
Conditions de présenter un certain nombre de conditions
l’entrée pour mettre en place
mise en œuvre notamment techniques. Qu'il s'agisse du choix des
HR3 un outil de type machine
du machine modèles statistiques ou de la base de données
learning dans un cabinet
learning dédiée à l'éducation du machine learning, sa mise
d’audit.
en place présente des barrières à l'entrée.
L’arrivée de l’IA dans les procédés de travail peut
venir se substituer à l’homme (assurance, conduite
autonome). Dans le cas présent, il s’agira
L'usage du machine learning Usage du
davantage d’un gain de temps pour l’auditeur qui
dégagera du temps pour machine
HR4 n’aura de sélection à faire ni de temps à consacrer
l'auditeur au profit de learning et
à justifier sa démarche. Il abandonnera les aspects
l'analyse et la relation client. profession
techniques et privilégiera les entretiens et la
relation client pour une meilleur analyse de la
fraude.
Source : Moi-même

54
Tableau 9 : Guide d’entretien à destination des CAC n’utilisant pas le machine learning

Hypothèse Thème Commissaire aux comptes n’utilisant pas le Machine Learning

Intro Q1 - D’après vous, qu'est ce qui fait la qualité d'un audit ?

Q2 - Selon vous, quels sont les critères à retenir lorsque l'on teste la fraude ?
Rationalité La détection de la fraude au travers du Q3 - Quels moyens utilisez-vous lorsque que vous auditez la fraude ?
limitée « Journal Entry Testing » est biaisée Test Jet & Rationalité Q4 - Quel est votre avis sur le JET ?
par les motivations de l’auditeur et son limitée Q5 - En quoi est-il pertinent pour tester la fraude ?
intelligence émotionnelle. Q6 - Pensez-vous qu'il existe des biais au test de la fraude par le JET ? Lesquels ?
Q7 - Comment réduire ces biais ?

L’IA, grâce au machine learning, Q8 - A votre avis, l'intelligence artificielle, grâce au machine learning, pourrait-elle tester le -
Fiabilité et pertinence
pourrait tester le FEC de manière -FEC de manière pertinente et fiable ?
du machine learning
pertinente, fiable et économique. Q9 - Pensez-vous que cela génère des économies pour le cabinet ?
Il existe des barrières à l’entrée pour
Conditions de mise en
mettre en place un outil de type Q10 - Pour quelle(s) raison(s) n'avez-vous pas mis en place cet outil dans votre cabinet ?
Machine œuvre du machine
Learning machine learning dans un cabinet Q11 - Si oui, à quelle(s) condition(s) ?
learning
d’audit.
L'usage du machine learning dégagera Q12 - Pensez-vous que l'implémentation de l'intelligence artificielle dans les cabinets d'audit
Usage du machine
du temps pour l'auditeur au profit de puisse dégager du temps pour l'auditeur ?
learning et profession
l'analyse et la relation client. Q13 - Selon vous, cela se fera-t-il au profit de la relation client ?
Source : Moi-même

55
Tableau 10 : Guide d’entretien à destination des CAC utilisant le machine learning

Hypothèse Thème Commissaire aux comptes utilisant le Machine Learning

Q1 - Depuis combien de temps le proposez-vous à vos clients ?


Intro
Q2 - Que représente l'intelligence artificielle pour vous (concept, outil, développement ...) ?
Q3 - Si je vous parle de machine learning, comment le définissez-vous ?
Q4 - Dans quel domaine le développez-vous ?
Q5 - Quels sont les avantages attendus d'un tel outil ?
L’IA, grâce au machine learning, Q6 - Sur quoi précisément repose la fiabilité du machine learning ?
Fiabilité et pertinence du
pourrait tester le FEC de manière Q7 - Que pensez-vous de son utilisation dans le cadre de la détection de la fraude en audit ?
machine learning
pertinente, fiable et économique.
Q8 - Concernant le fichier des écritures comptables (le FEC), est-il un dataset adapté au test
de la fraude par machine learning? Pourquoi ?
Q9 - Quel seraient les avantages de l'application du machine learning pour tester le FEC
(pertinence, fiabilité, économie ...) ?
Q10 - Aviez-vous envisagé des inconvénients de mise en place (cout, personnel qualifié,
matériel, financement, obsolescence ...) ?
Machine Il existe des barrières à l’entrée pour
Conditions de mise en Q11 - Quels ont été les principaux obstacles rencontrés lors de la mise en place de cet outil
Learning mettre en place un outil de type
œuvre du machine dans votre cabinet ?
machine learning dans un cabinet
learning Q12 - Selon vous, les avantages escomptés sont-ils suffisants au regard des contraintes de mise
d’audit.
en œuvre ? Lesquels ?
Q13 - Pensez-vous qu’il s’agisse d’un outil accessible aux cabinets d’audit ?
Q14 - Quels avantages avez-vous constaté depuis l'utilisation du machine learning ?
Q15 - Si vous deviez me citer le principal avantage, quel serait-il ?
L'usage du machine learning dégagera Q16 - L'usage du machine learning permet-il de se concentrer davantage sur d'autres aspect
Usage du machine
du temps pour l'auditeur au profit de d'un métier ? Pourquoi ?
learning et profession
l'analyse et la relation client. Q17 - Dans le cas de l'audit, que pensez-vous que cela puisse changer dans une mission ?
Q18 - Le recours au machine learning est-il un gage de qualité pour l'audit de la fraude ?
Pourquoi ?
Q19 - Quel est votre avis sur l'avenir du machine learning dans la sphère professionnelle ?
Conclusion
Q20 - Recommanderiez-vous cet outil à la profession comptable ? Pourquoi ?
Source : Moi-même

56
Tableau 11 : Guide d’entretien à destination des professionnels du machine learning

Hypothèse Thème Ingénieur Machine Learning

Q1 - Comment definissez-vous le machine learning ?


Intro
Q2 - Si je vous parle de machine learning, comment le définissez-vous ?
Q3 - Quels sont les avantages attendus de ce type d’outil ?
L’IA, grâce au machine learning,
Fiabilité et pertinence Q4 - Que pensez-vous de son utilisation dans le cadre de la détection de la fraude ?
pourrait tester le FEC de manière
du machine learning Q5 - Concernant le fichier des écritures comptables (le FEC), est-il un dataset adapté au test
pertinente, fiable et économique.
de la fraude par machine learning? Pourquoi ?

Machine Il existe des barrières à l’entrée pour


Conditions de mise en Q6 - Aviez-vous envisagé en amont des difficultés de mise en place ?
mettre en place un outil de type
Learning œuvre du machine
machine learning dans un cabinet Q7 - Quels ont finalement été les contraintes rencontrées ?
learning
d’audit.

L'usage du machine learning dégagera Q8 - Le ML a-t-il permis de dégager du temps pour vos collaborateurs ?
Usage du machine
du temps pour l'auditeur au profit de Q9 - Le cas échéant, au profit de quoi s’est fait ce gain de temps ?
learning et profession
l'analyse et la relation client. Q10 - En termes de pratiques professionnelles, cela change-t-il qqch pour l’auditeur ?

Conclusion Q11 - Si vous deviez conseiller cet outil à un confrère, quels conseils lui donneriez-vous ?

Source : Moi-même

Tableau 12 : Guide d’entretien relatif au benchmarking

Thème Benchmarking

Q1 - Dans quel domaine exercez-vous ?


Intro
Q2 - Depuis combien de temps pratiquez-vous dans ce domaine ?

Q3 - Que représente l'intelligence artificielle pour vous (concept, outil, développement ...) ?
Q4 - Comment s'est faite la mise en place de cet outil dans votre entreprise ? (Prestataire, décision, conseil...) ?
Q5 - Quels avantages attendiez-vous de la mise en place du machine leanring ?
Machine learning
Q6 - Avez-vous été confronté à des éléments bloquants ? Lesquels ?
Q7 - Considérez-vous que vous bénéficiiez d'un bon retour sur investissement ?
Q8 - Avez-vous constaté des changements dans vos pratiques professionnelles depuis sa mise en place ? Lesquels ?

Conclusion Q9 - Quels conseils donneriez-vous à un confrère qui souhaiterait le mettre en place ?

Source : Moi-même
57
II. 2 - Vérification des hypothèses de recherche : l'analyse des résultats d'enquête

La vérification des hypothèses s’est faite auprès d’une dizaine de répondants répartis en quatre
catégories différentes. Afin de vérifier nos hypothèses de recherche (II.2.2), nous mettons en
place une analyse de leur réponse par type de répondant (II.2.1).

Présentation et analyse des résultats de l'enquête terrain

La totalité de nos entretiens présente un cumul de 12h45min d’échanges, 2 nationalités


différentes (France et Etats Unis) et 14 personnes interrogées au travers de 4 entretiens
téléphoniques, 6 rencontres physiques et un retour par e-mail.

Présentation des différents entretiens

Le taux de retour des répondants démarchés a été de 18 sur 23, soit 78% de réponses. Finalement
nous avons pu concrétiser des entretiens physiques ou par téléphone avec 11 d’entre eux. Le
développement de cette technologie étant en plein essor, la crainte d’un « espionnage
industriel » a été avancée par certains interlocuteurs démarchés pour justifier leur abstention.
En ce qui concerne les data scientists et les personnes abordées dans le cadre du benchmarking,
certains ont préféré ne pas donner d’issue favorable à notre demande d’entretien car la fraude
et l’audit sont des sujets qu’ils n’approchent pas dans leurs métiers.

Concernant la représentativité de l’échantillon, la population des répondants se compose de


43% de salariés et associés travaillant chez Deloitte en audit et en conseil et de 21% de
personnes travaillant chez PwC. Les Big4 représentent donc 64% de la population totale. À la
suite du retour favorable du directeur général d’une Start-Up en justice prédictive pour un
entretien nous avons également saisi l’opportunité de faire intervenir Maitre L, représentante
de l’ordre, afin d’animer une rencontre entre un juriste dirigeant en LegalTech et un membre
représentant du Barreau de Paris, au fait des sujets et des enjeux qui touchent les avocats.

58
Tableau 13 : Liste des répondants interrogés dans le cadre de l’enquête terrain (Modifié pour des raisons d’anonymat)

Entreprise Secteur Poste Date Type Durée Anonymat


Big4 Audit & Conseil Director - Datat scientist 16/05/2018 Face à Face 2h AAM 1
Big4 Audit & Conseil Partner - CAC 24/05/2018 Face à Face 1h ASM 1
Big4 Audit & Conseil Manager 15/06/2018 Téléphonique 45min ASM 2
Big4 Audit & Conseil Senior Manager - CAC 14/06/2018 E-Mail N/A ASM 3
Director - Data & analytics
Big4 Audit & Conseil Consultant - Data scientist 14/06/2018 Face à Face 1h45 DS 1
Partner - Data & analytics
Big4 Audit & Conseil Partner 21/06/2018 Face à Face 1h DS 2
GE* Ingénierie informatique Presales director 28/05/2018 Téléphonique 1h Bench.1
Start-Up Lutte anti-blanchiment Sales director 08/06/2018 Téléphonique 1h15 Bench.2
CR** Cybersécurité Chercheurs Associés en cyber 14/06/2018 Téléphonique 1h Bench. 3
Big4 Forensic Partner - CAC 21/06/2018 Face à Face 1h15 Bench. 4
Start-Up Justice prédictive Directeur Général - Juriste
05/07/2018 Face à Face 1h45 Bench. 5
Barreau Paris Normalisateur Membre représentant
*Grande Entreprise (+5 000 salariés ; +2mrds€ de bilan ; +1,5mrds€ de CA) Source : Moi-même
** Centre de Recherche

59
Présentation des résultats par catégorie de répondants

A la demande des répondants, les annexes 8 à 11 de la version originale qui synthétisent


l’ensemble des retranscriptions d’entretiens que nous avons menés n’ont pas été conservées
dans cette version publique. L’annexe 8 (p.80) présente la méthodologie de retranscription des
entretiens sou forme de tableaux. Ceux-ci ne reprenant pas mot pour mot ce qui a été dit, mais
rapportent les idées essentielles évoquées par nos interlocuteurs. Afin de pouvoir les comparer,
nous avons fait le choix de présenter ces synthèses par catégorie de répondant (ASM, AAM,
DS et Bench.) telle que nous les avons définies (II.1.2, p.52).

Les auditeurs, diplômés ou non, qui n’utilisent pas le machine learning (catégorie ASM) ont
tous avancé des arguments allant dans sens des limites du test d’identification de la fraude sur
la base du FEC avec des outils analytiques. En effet, nous notons que les exigences du CAC
sont souples et que la NEP 240 n’implique pas un degré d’implication équivalent à celui des
services Forensic ou de l’Autorité des Marchés Financiers (AMF) comme le rappelle ASM 1,
confirmant ainsi les propos de Carassus et Cormier (2003). Par ailleurs, ASM 3, auditeur
d’origine américaine considère que les auditeurs manquent de scepticisme professionnel
(« professional skepticism ») lors de leurs audits et qu’ils ne posent pas assez de questions.
ASM 1 et ASM 2 soulignent tous les deux le manque de connaissance de l’environnement de
l’entreprise et de son mode de fonctionnement. Aussi, ce défaut peut résulter d’un manque de
temps auquel le machine learning pourrait remédier. De plus, bien que les outils analytiques
existant soient efficaces pour les dossiers type « middle market », il présente des défaillances
en cas d’un volume trop élevé d’écriture au FEC (ASM 2). Or, l’une des raisons d’être du
machine learning est la capacité à traiter des données en masse. Enfin, nous comprenons que le
FEC est une base de données, en principe exhaustive, qui mérite d’être complétée par
d’avantage de contrôle interne. Tandis que ASM 3 conseil de faire davantage de tests sur
procédures lors de la phase d’intérim, ASM 1 imagine l’intégration de paramètres
supplémentaires en complément du FEC dans le dataset traité par le machine learning, relevant
de procédure de contrôle interne (RIB, comptes auxiliaires etc).

Concernant l’auditeur utilisant l’apprentissage automatique pour les besoins de ses audits
(AAM), il reconnait l’efficacité du machine learning. Néanmoins, il nous met en garde
concernant le caractère « protéiforme de la fraude » et l’absence de prise en compte du contrôle
interne dans un test basé uniquement sur le fichier des écritures comptables. Il ajoute également
que l’investissement de base est conséquent et que ce n’est pas dans l’habitude des cabinets

60
d’audit de mobiliser des ressources financières et humaines pour des besoins de R&D. Par
ailleurs, l’open source ne suffit pas à réduire les couts, car les solutions ouvertes ne sont pas
clefs-en-main et requièrent un travail par une équipe de data scientists. Aussi, l’adoption de
l’apprentissage automatique doit répondre à un réel besoin stratégique pour le cabinet.
Cependant, s’il décide de le mettre en place, l’auditeur en tire plusieurs bénéfices dont la
délégation des tâches laborieuses à la machine. D’une part cela lui permet de se focaliser sur
l’analyse et la critique des résultats obtenus grâce à l’outil. D’autre part, dans une approche non
supervisée, l’apprentissage automatique peut apporter à l’auditeur une certaine ouverture
d’esprit en ce sens qu’il produira des résultats que l’auditeur n’attendait pas forcément. Par
ailleurs, AAM 1 pense que certains cabinets s’y mettront par la force des choses étant donné
que leurs clients utiliseront à terme ce genre d’outils pour produire de la donnée comptable et
financière.

L’interview d’équipes de data science (catégorie DS) a permis de mieux saisir les enjeux de
mises en place des algorithmes ainsi que leur potentiel au regard de l’investigation de la fraude
par un auditeur. En effet, nos deux entretiens ont mené à une conclusion commune autour des
données et de leur récolte. Le trio, nommé DS1, que nous avons rencontré chez un Big4 a insisté
sur le manque de maturité des clients qui rend difficile l’accès aux donnée et leur récupération
dans un format exploitable. DS 2 rajoute que le temps passé sur le traitement des données est
un gouffre qui occupe les équipes de data science à 80% de leur temps. Cette phase étant
cruciale pour l’entrainement de l’algorithme, les équipes passent le plus de temps possible à
maintenir l’information brute, voire l’enrichir. En ce qui concerne la fraude, nous comprenons
qu’il existe des limites liées à l’accessibilité des données par l’auditeur et l’entrainement des
algorithmes. Si la fraude a toujours existé dans les comptes, l’outil pourrait alors identifier la
fraude comme un standard ne répondant pas à une anomalie. De plus, la fraude évolue dans le
temps et dans l’espace. Or l’outil se base sur des éléments de comparaisons pour effectuer son
analyse. Etant donnée le nombre considérable de schéma différents de fraudes comptables qui
peuvent exister, l’outil risque de sortir un taux trop élevé de faux positifs. Par ailleurs, les
équipes de data sciences rencontrées nous ont mis en garde contre les enjeux de la sous-
traitance du traitement des données par les algorithmes avec toutes les problématiques liées à
l’infogérance. En tant qu’auditeur, il sera alors essentiel de garantir un maximum de
transparence avec les entités auditées et de s’entourer de juristes pour sécuriser les contrats de
sous-traitance et les lettres de missions d’audit. Enfin, les expérimentations qui ont déjà pu être
réalisées dans le cadre de l’audit et autres domaines ont confirmé que ces outils permettent un

61
gain de temps considérable permettant la réallocation des ressources sur une mission d’audit
(planification). Cependant, ce recentrage métier impliquera une formation nécessaire des
utilisateurs et des préparateurs au sein de la profession comptable comme le soulignent nos
répondants.

Au travers de notre benchmarking, nous avons pu découvrir les conditions de mises en place
de cet outil dans les domaines suivants : modèles de robots décisionnels, lutte contre la fraude
et le blanchiment, investigation d’infractions financières, cyberdéfense et justice prédictive.
Nous constatons que le recours à l’outil répond à un besoin des clients lié à un changement
d’environnement comme les banques face aux nouvelles techniques de fraudes ou l’évolution
des cyberattaques ainsi qu’à des initiatives de professionnels, cherchant à optimiser leurs
procédés de travail (analyser des décisions de justices en masse et rapidement). La rapidité,
l’efficacité et l’exhaustivité du traitement et un objectif recherché par l’ensemble de nos
interlocuteurs. C’est par exemple la capacité à traiter 5 000 décisions de justices par secondes,
décortiquer 60 000 contrats par jours ou encore nécessiter seulement 3 millisecondes pour
traiter une transaction financière là où le marché exige 5 secondes. Toutefois, 3 d’entre eux
nous ont mis en garde contre les faux positifs. Certains nous ont illustré des exemples
d’entreprises qui ont abandonné leur projet à cause de ça. Par ailleurs, deux répondants
rappellent que grâce aux bibliothèques de codes open source, il est possible aujourd’hui d’avoir
des algorithmes efficaces avec les dernières mises à jour faites par la communauté d’utilisateurs.
En termes d’enjeux, tous nous ont fait part des problématiques inhérentes à la collecte de
donnée, à savoir leur retraitement (data wrangling), leur mise en conformité (RGPD) et leur
sécurité. La rentabilité est également un sujet préoccupant car les couts fixes sont composés des
serveurs et des machines utilisés pour le stockage et la programmation des modèles. Certains
les ont rapidement rentabilisés avec leurs premiers contrats. Cependant, les couts variables sont
eux très élevés car ils correspondent à des heures humaines de personnels hautement qualifiés.
Bench. 2 souligne que la question à se poser est de savoir si « l’économie de temps et d’argent
future vaut l’investissement initial ». Le bilan reste néanmoins positif étant donné que chacun
le recommande avec ses conseils différents bien précis selon le secteur allant de la remise en
cause de l’algorithme de manière aléatoire à l’écoute attentif des besoins du client et des
exigences éthiques et déontologique en passant par la nécessité d’avoir une équipe compétente
et capable de travailler ensemble.

62
En définitive, nous distinguons trois approches différentes par rapport à l’apprentissage
automatique : les technico-commerciaux, les entrepreneurs et les équipes de data scientists&
machine learning engineer En effet, les technico-commerciaux, du fait de leur poste, ont des
discours qui tendent vers « l’over expectation »54. C’est-à-dire qu’ils savent mettre en avant les
avantages de leurs outils, les perspectives d’évolutions et leurs atouts par rapport à la
concurrence. La rencontre avec des équipes de data science nous a permis de nuancer leurs
propos. Etant concepteur de ces outils, ils ont pleinement conscience des enjeux et des limites
du machines learning et reconnaissent plus facilement avoir des visions sceptiques non pas
quant au potentiel de ces outils mais quant à la faisabilité technique de ce qu’en attendent les
entreprises. Enfin, l’entrepreneur et dirigeant que nous avons rencontré à l’incubateur de start-
up du Crédit Agricole55 parvient à nuancer son propos naturellement étant donné qu’il a connu
les contraintes de mise en place lors du suivi de projet mais qu’il connait aussi tout le potentiel
de l’outil que son équipe a élaboré et qu’il vend aux juristes.

Vérification des hypothèses de recherche

A titre de synthèse de notre enquête terrain, nous avons rappelé dans le tableau 14 les
hypothèses de recherche qui ont orienté nos entretiens et nous nous sommes prononcés sur les
résultats de leur vérification. Nous constatons que toutes les hypothèses sont validées ou
partiellement validées.

Tableau 14 : Vérification des hypothèses de recherche

Hypothèse de recherche Résultat Conclusion


HR1 : La détection de la
fraude au travers du « Journal
L’ensemble des auditeurs interrogés considèrent qu’il
Entry Testing » est biaisée par
Validée existe des limites dans l’identification de la fraude par la
les motivations de l’auditeur
méthode dite du « JET ».
et son intelligence
émotionnelle.
Bien que l’outil soit très performant et efficace dans
HR2 : L’intelligence certains domaines, la fraude reste complexe et
artificielle, grâce au machine protéiforme, ce qui laisse les experts dubitatifs. Pour cette
Partiellement
learning, pourrait tester le raison, le FEC ne peut pas suffire à identifier les patterns
validée
FEC de manière pertinente, frauduleux au sein d’une entreprise, il est à compléter avec
fiable et économique. une multitude d’informations émanant du contrôle interne
notamment.
HR3 : Il existe des barrières à
Les cabinets d’audit sont des structures qui vendent du
l’entrée pour mettre en place Validée
savoir-faire. L’investissement matériel et la mobilisation
un outil de type machine

54
DS 2, associé risk advisory, lors de notre entretien en face à face du 21/06/2018.
55
https://www.levillagebyca.com/fr

63
learning dans un cabinet de ressources humaines non dédiée à l’audit ne sont pas
d’audit. dans les schémas de financement classique des cabinets.
Par ailleurs, recourir à ce genre d’outil implique une
maitrise parfaite de la collecte de donnée afin de répondre
au besoin de l’audit.
Cependant, ces barrières peuvent être contournée grâce à
la sous-traitance auprès des GAFA ou des start-ups, ce qui
peut poser des problèmes d’infogérance.
Les discours sont unanimes, le machine learning est à
l’origine d’un gain de temps qui permet de recentrer le
métier des experts. Le CAC sera amené à mettre ce temps
à profit d’une investigation auprès d’interlocuteurs
HR4 : L'usage du machine privilégiés, apportant des informations comportementales,
learning dégagera du temps Partiellement psychologiques et sociales dont la machine ne tiend pas
pour l'auditeur au profit de validée compte.
l'analyse et l'entretien client.
Toutefois, le temps gagné par l’auditeur sera également à
partager avec les nouvelles responsabilités qui incombent
au cabinet lorsqu’il récolte en masse des données à
caractère confidentiel, financier, personnel et sensible.
Source : Moi-même

II. 3 - Recommandations et préconisations

Compte tenu des résultats de notre enquête, nous constatons qu’il existe des points d’attentions
en matière de gestion de projet de mise en place d’outils de type machine learning appliqué à
la détection de la fraude dans les travaux du commissaire aux comptes sur le FEC.

Recommandations

La migration vers des outils de type machine learning doivent répondre à des besoins
stratégiques pour le cabinet. En effet, s’il souhaite bénéficier d’un avantage concurrentiel, il
peut d’ores et déjà investir dans cette technologie de sorte à se spécialiser dans ce domaine. Or,
les data scientists rencontrés lors de nos entretiens nous ont révélé que les projets de mise en
place de machine learning peuvent s’avérer coûteux à cause du temps passé sur le nettoyage et
la récupération de données, la mise en place des modèles et l’entrainement des algorithmes par
une main d’œuvre hautement qualifiée (donc onéreuse). De plus, si les traitements de données
doivent se faire en interne, l’entité sera contrainte d’acquérir du matériel informatique
performant dont elle n’a pas la nécessité pour ses missions d’audit classique. Il est recommandé
de n’investir que si cela est adapté au type de client du cabinet et qu’il sera possible d’en tirer
des avantages économiques futurs permettant d’amortir les coûts de recherches et
développement. Les méthodes traditionnelles d’audit de la fraude, si elles sont accompagnées
de contrôle interne et d’une meilleure connaissance de l’entité et de son environnement,
suffisent sur des entités dont le volume d’écriture reste faible. L’apprentissage automatique sera

64
plus pertinent sur des entités cotées, des fonds d’investissements, ou des structures générant des
volumes de données considérable.

R1 : Le choix de la migration vers des outils d’apprentissage automatique doit répondre


à un réel besoin stratégique du cabinet.

De surcroit, notre enquête a montré que dans tous les cas, il était recommandé de se détacher
des aspects purement chiffrés de la comptabilité et qu’une étude approfondie de l’entité, de son
environnement et de ses processus sera nécessaire de sorte à mieux appréhender les sources
d’erreurs et le niveau de risque lié à la fraude. Si un cabinet décide de mettre en place des outils
d’intelligence artificielles, nous lui conseillons d’aller au-delà du FEC et de parvenir à intégrer
dans sa base de données le maximum d’informations de sorte à accroitre l’exactitude de
l’analyse des algorithmes. Il faudra notamment chercher à récupérer le maximum de données
provenant des modules du PGI de l’entité, apportant des informations sur les stocks, les
immobilisations, les données de paie et ainsi donner une source d’informations différentes à
l’apprentissage statistique que celle procurée par le FEC. Par ailleurs, le CAC récoltant des
données pour ses tests devra en avoir une parfaite maitrise tout au long de son mandat. Ce point
est d’avantage détaillé dans la préconisation P2 (voir infra). Nous proposons au travers de
l’annexe 9 (p.81) des pistes de bases de données à exploiter en plus du FEC dans la détection
de fraudes.

R2 : L’investigation de la fraude par le CAC doit se baser sur des variables qui vont au-
delà du FEC en privilégiant notamment le contrôle interne et la prise de connaissance de
l’entité et de son environnement.

La CNIL pose la question suivante : « Quid du risque que les préconisations de la machine
soient appréhendées comme une vérité absolue, non soumise à la discussion quant à ses
conséquences pratiques ? »56 Aussi, il semble important que des professionnels indépendants
puissent se prononcer sur l’algorithme mis en place par un cabinet d’audit. En qualité de
réviseur, le commissaire aux comptes doit avoir conscience qu’il existe un dilemme entre
l’explicabilité de l’algorithme et son efficacité. Plus le schéma algorithmique sera complexe,
moins il sera possible d’identifier quel a été le « cheminement intellectuel » de la machine.
Aussi, nous suggérons la mise en place d’audits d’algorithmes par des entités tierces comme

56
Rapport CNIL, p.27

65
des auditeurs IT ou bien le H3C, régulateur de la profession. Nous recommandons donc la mise
en place de système de boîte blanche, permettant l’auditabilité des algorithmes.

R3 : Pour être discuté, les algorithmes doivent être le plus explicable possible par un
réviseur.

Préconisations

Nos préconisations à destination de la profession comptable sont matérialisées par un plan de


formation interne à destination des cabinets d’audit et par un guide pratique sur le bon usage du
machine learning par l’auditeur. Tandis que le plan de formation est d’avantage destiné aux
collaborateurs, le guide pratique, à l’instar de celui qu’a publié l’OEC pour le Cloud Computing
en 2013, s’adresse principalement aux CAC associés.

Le plan de formation proposé est présenté en annexe 10 (p.82) et se décline en trois modules :
• Module à destination des juniors : Initiation au machine learning
• Module à destination des seniors : Collecte et nettoyage des données
• Module à destination des managers : Pilotage de la mission

Pr1 : Plan de formations selon 3 niveaux d’aguerrissements

Illustration 7 : Guide pratique en 10 points sur le bon usage du machine learning par les cabinets d’audit

Data:
- RGPD & Sécurité
- Qualité du dataset

Cabinet:
Algorithme: - Stratégie
- Explicabilité - Informer ses clients
- Non discrimination - Sensibiliser ses équipes

Profession:
- Exigence du régulateur
- Rester proactif
- Renouvellement de la profession

Source : Moi-même

66
 Se poser les bonnes questions

Le machine learning doit répondre à des besoins stratégiques pour l’entreprise et ne doit pas
être un effet de mode. Sa mise en place peut être couteuse en temps et en argent. L’entrainement
des modèles, la récupération de données, leur nettoyage et la gestion des faux positifs sont les
principaux motifs d’abandon de projet. La recherche et développement n’étant pas une
composante de la structure financière « type » des cabinets d’audit et de conseil, les dirigeants
de cabinets doivent se poser les bonnes questions de faisabilité techniques et de rentabilité
financière.

 RGPD et sécurité des données

En réponse au phénomène de Big Data, les législateurs européens ont mis en place la
réglementation générale de la protection des données (RGPD). Destinée à protéger les
consommateurs et les utilisateurs de réseau sociaux, cette norme s’applique aux entreprises
collectant des données à caractère personnel en Europe et/ou de résidents européens. L’auditeur
doit en avoir conscience et se plier aux exigences des législateurs pour assurer toujours plus de
transparence. Le CAC doit également prendre conscience qu’il a la garde des données et qu’il
doit assurer leur sécurité face aux menaces des cyberattaques.

 Prendre connaissance des exigences du régulateur de la profession

Etant donné les changements profonds que peuvent apporter le machine learning l’IA, des
institutions prennent des positions et accompagnent les professionnels. La CNCC sera amenée
elle aussi à se prononcer au travers d’un rapport ou d’une charte de bonnes pratiques. Nous
invitons les auditeurs à prendre connaissance des publications de l’ordre pour agir en
conformité avec les exigences de la CNCC.

 Informer le client

Pour des raisons de coûts ou de savoir-faire, un cabinet pourra décider de sous-traiter le


traitement algorithmique de ses données à un GAFA. Aussi, la sous-traitance implique transfère
de donnée vers un tiers pour un traitement spécifique. Le cas échéant, il s’agit d’éléments
important qui devront être clairement établit dans les termes du contrat de prestations entre le
cabinet et l’entité auditée. La transparence avec le client est primordiale pour des questions
juridiques de consentement contractuel et de confiance entre les parties, garantissant le bon
déroulé des missions d’audit.

67
 Être soucieux de la qualité de son dataset

La comptabilité reflète l’information financière qu’une entreprise laisse transparaitre


volontairement au travers de données chiffrée structurée. Cependant, les investigations les plus
efficaces sont basées sur des données non structurées permettant d’identifier l’anomalie (erreur
ou fraude) là où il n’est pas possible de masquer l’information tant la donnée est brute. En
matière de collecte de données, le commissaire aux comptes et ses équipes devront toujours se
demander si les informations qu’ils récupèrent permettent de bien répondre au besoin du test
d’audit et inversement, si au regard du test d’audit, les équipes ont bien récolté toutes les
données disponibles permettant la réalisation des travaux d’audit. Il doit également faire preuve
d’esprit critique et toujours se soucier de la véracité et de l’exhaustivité de l’échantillon de
données récupérées.

 Explicabilité des algorithmes et boites blanches

L’auditeur, dans sa démarche, documente et justifie l’ensemble de ses travaux. Les règles
déontologiques d’exercices invitent l’auditeur à appuyer son audit sur des éléments probants,
de chercher la vérité en toute chose et ne pas se contenter d’à peu près. Il n’est donc pas
concevable que l’opinion du CAC soit basée sur l’analyse d’un algorithme dont on ne sait pas
le raisonnement. Il faudra continuer à faire preuve de scepticisme professionnel, challenger les
analyses de l’outil et si possible, mettre en place des systèmes de boites blanches.

 Remettre en cause l’algorithme et s’assurer de la non-discrimination

Lorsque l’algorithme est en phase d’entrainement, Les équipes de data science s’assurent
qu’elles mettent en service un outil efficace. Aussi, elles contrôlent le taux de retour des faux
positifs par la machine. Etant donné que le risque 0 n’existe pas, il ne faut pas hésiter à
challenger les résultats de l’outil de temps à autres (de manière statistique ou aléatoire) de sorte
à s’assurer de son efficacité permanente. Par ailleurs, avec l’entrainement, l’apprentissage
automatique finira par connaitre de patterns de plus en plus spécifiques de fraudes. Aussi, si sur
l’ensemble de ses bases de données l’algorithme a pu identifier que des flux issus d’un pays
spécifique étaient frauduleux, il peut à terme cataloguer ce pays comme systématiquement
synonyme de fraude. Autrement dit, l’outil peut être à l’origine de discrimination. Il faut
pouvoir garder la main sur son évolution et s’assurer de la non-discrimination de l’outil.

68
 Rester proactif

Les innovations technologiques posent la question de la complémentarité et de la substitution


du facteur travail (l’Homme) par le facteur capital (la machine). Dans le cas de l’audit, les
perspectives sont multiples. Les modèles algorithmiques permettent d’assister l’auditeur dans
sa planification, l’estimation des provisions, l’investigation de la fraude, les examens
analytiques de validation, le contrôle interne, l’édition des rapports, la valorisation d’actifs, les
tests de dépréciations et les inventaires. Avec un tel niveau de présence dans les travaux d’audit,
le CAC doit rester proactif dans sa mission et veiller à ne pas se laisser dépasser par les capacités
de la machine.

 Former et sensibiliser les équipes d’audit

Au travers des publications et des événements organisés par l’OEC, la CNCC et les CRCC, les
auditeurs titulaires du DEC et du CAFCAC bénéficient de formations et d’informations sur les
changements dans les pratiques professionnelles. Il en va de sa responsabilité de retransmettre
ses connaissances acquises à ses équipes d’audit en matière de machine leanring. C’est d’autant
plus important que les collaborateurs assistant participeront à la récupération des données, la
préparation des bases de données et le lancement du traitement de l’algorithme. Aussi, il est
nécessaire que les collaborateurs aient à l’esprit l’ensemble des enjeux liée à l’utilisation du
machine learning pour les besoins de l’audit.

 Penser au renouvellement des compétences au sein de la profession

Nous pouvons légitimement considérer que les collaborateurs auditeur diplômés de master
(DSCG, ingénieur, école de commerce, CCA ...) seront les premiers touchés par l’arrivée du
machine learning. En effet, tandis qu’il ne se substituera pas à l’esprit critique du CAC, il pourra
néanmoins effectuer le travail des assistants auditeurs. Toutefois, s’il doit acquérir un meilleur
niveau d’expertise, l’auditeur qui se destine à la profession de CAC aura besoin de se former
sur le terrain et développer son jugement professionnel. Afin de préserver un savoir-faire,
développer son scepticisme professionnel apprendre à lire l’information cachée derrière les
chiffres de la comptabilité, l’auditeur doit être encadré par un CAC. Ainsi, il ne faudra pas
négliger l’embauche d’assistant au profit de l’usage d’outils de type machine learning.

Pr2 : Guide pratique en 10 points sur le bon usage du machine learning par les cabinets
d’audit.

69
Conclusion

Rappelons que notre étude s’est structurée autour de la question suivante : « En quoi le machine
learning peut-il améliorer la détection de la fraude dans les travaux du commissaire aux
comptes sur le FEC ? »

En définitive, le machine learning « permet de réaliser des tâches autrefois impossibles à


réaliser car trop fastidieuses ou économiquement peu rentables »57. Dans le cas précis de
l’investigation du fichier des écritures comptables, il est inconcevable de passer au peigne fin
les millions de lignes qui le composent. En effet, le CAC n’est tenu qu’à une obligation de
moyens et son approche par les risques l’autorise à concentrer ses travaux là où la fraude lui
semble être le plus probable. Or, l’efficacité de l’apprentissage automatique change le
paradigme du fait de sa capacité à analyser plus finement les états financiers grâce à des
concaténations de modèles algorithmiques. Il permettrait de remédier aux limites cognitives et
émotionnelles du commissaire aux comptes et de l’assister dans l’identification de la fraude.

Tandis que les assistants et collaborateurs auraient un rôle de collecteur et de préparateur de


données, le commissaire aux comptes profitera du gain de temps que lui apporte la machine
pour recentrer son activité et allouer son temps de travail sur les analyses qui en nécessitent le
plus. Avec l’adoption de ces outils, de nouvelles responsabilités incomberont aux auditeurs,
notamment en termes de formation, de jugement professionnel et de gouvernance des données.
Cependant, cet outil, au regard des contraintes de mise en œuvre qu’il présente, devra répondre
avant tout à un intérêt stratégique pour le cabinet.

L’exigence du CAC « “ liée à la fraude est analogue à celle du policier pour trouver des
criminels ” disent Winters et Sullivan (1994). Ce dernier ne peut la refuser, mais il serait
absurde de penser que les policiers doivent trouver tous les criminels » 58. Le rapport de 2012
de l’ACFE59 chiffre à 14% le taux de détection moyen de la fraude par l’audit interne et
seulement 3,3% par l’audit externe cette année-là. Avec une efficacité se rapprochant plus des
100%, nous pourrions nous demander si l’introduction de ces outils, s’ils s’avèrent aussi
efficaces, amènerait à un renforcement de la responsabilité du CAC à l’égard de la fraude et,
ainsi, renouer avec les exigences passées telles que décrites par Dicksee en 1905.

57
Rapport France Stratégie (2018, p.66)
58
Carassus et Cormier (2003, p.186)
59
Rapport ACFE (2012, p.34)

70
Table des annexes :
Annexe 1 : Présentation des paramètres du cas Jet X……………………….……….……….72

Annexe 2 : Slides du 64è congrès de l’OEC – Détection de fraudes, quels indices pour le
reviseur ?................................................................................................................73

Annexe 3 : 30 principaux biais décisionnels………………………………………………….74

Annexe 4 : Prise en compte de l’incertitude et la réintroduction du jugement……………….77

Annexe 5 : Fiction – Journal de bord du docteur François…………….………….………….78

Annexe 6 : Entre explicabilité et efficacité des algorithmes………………………………….79

Annexe 7 : Rapport CNIL – La discrimination par les data……………………….…...….…79

Annexe 8 : Tableau de retranscription d’entretien (exemple du Benchmarking)…………….80

Annexe 9 : Proposition de base de données à exploiter en complément du FEC…………….81

Annexe 10 : Préconisation – Proposition de plan de formation interne….…….……….…….82

71
Annexes
Annexe 1 : Présentation des paramètres du cas Jet X
Annexe 1.1 : Liste des 14 tests pris en charge par le JET et leur intérêt dans le dans le cas Jet X

Source : Deloitte

Annexe 1.2 : Population de Jet X

Source : Deloitte

Annexe 1.3 : Sélection effectuée par l’outil JET dans le cas du JetX

Source : Deloitte

72
Annexe 2 : Slides du 64è congrès de l’OEC – Détection de fraudes, quels indices pour le
reviseur ?

Source : OEC, 64è congrès (disponible à l’adresse suivante :


https://fr.scribd.com/document/209817428/Detection-des-fraudes-Quels-indices-pour-le-reviseur )
73
Annexe 3 : 30 principaux biais décisionnels

Les auteurs et les dates qui s’y rattachent correspondent aux publications fondatrices de ces principes. Il peut exister des publications plus
anciennes sur le sujet ou des mises à jour plus récentes par les auteurs eux-mêmes ou par d’autres chercheurs

Biais Auteurs Année Résumé


Actualisation Lorsqu’il a un choix à faire, l’individu peut prendre 2 décisions différentes d’une journée à l’autre compte tenu du fait
Frederick et al. 2002
hyperbolique que la maximisation de sa satisfaction repose sur des combinaisons de décisions qui varie dans le temps.
Ancrage & Tversky & Dans un contexte donné, la décision sera conditionnée par une valeur-ancre prédominante au sein d’un groupe. Le
1974
ajustement Kahneman décideur agit en fonction de sa connaissance de la volatilité de cette valeur-ancre (phase d’ajustement).
Aversion à Au travers d’un paradoxe, Ellsberg démontre que la majorité des décisions sont prises lorsque la probabilité de
Ellsberg 1961
l’incertitude réalisation est connue.
Tversky & Un individu portera beaucoup plus d’importance à une perte qu’à un gain de même montant. Cette aversion n’incitera
Aversion à la perte 1991
Kahneman pas la prise de risque.
Biais de Une personne « tire la vérité » à elle à partir du moment où elle sélectionne l’information de sorte à privilégier les
Watson 1960
confirmation données qui confirme son raisonnement a priori et inversement pour celle qui infirme son raisonnement.
Biais de Tversky & On parle de biais de disponibilité lorsque les décisions sont prises sur la base de la surestimation des informations
1974
disponibilité Kahneman immédiatement disponibles. C’est par exemple le cas des situations de crise, de stress ou de pression hiérarchiques.
Biais de Tversky & Biais cognitif selon lequel des « éléments personnalisant » parasitent l’essentiel de l’information permettent un
1983
représentativité Kahneman jugement rationnel (charisme, stéréotypes, tenue vestimentaire …)
Fréquent dans les enquêtes et les sondages, un billet de sélection se traduit par le fait que le résultat d’analyse obtenu
Biais de sélection Heckman 1979
ne soit pas représentatif de l’ensemble de la population pour des raisons d’omissions ou d’erreurs lors de la sélection.
Samuelson & Il s’agit d’une situation dans laquelle les décisions ne sont pas prises car la situation après changement présente un
Biais de statu quo 1988
Zeckhauser risque bien supérieur aux avantages attendus. La situation est alors figée.
Le sophisme de Thompson décrit la situation où une personne déduit des liens de causalités à partir de scénarios
Biais du tireur texan Thompson 2009
possédant des caractéristiques similaires. Il s’agit d’un raisonnement insidieux.
Tajfel & Situation dans laquelle les individus membre d’un groupe privilégieront le partage intra-groupe de sorte qu’ils soient
Biais intra-groupe 1986
Turner mieux rémunérés ou qu’ils se surestiment par rapport à d’autres groupes.

74
Limite liée à la présentation de l’information. Face à un taux, le taux de réussite peut être plus encourageant qu’un taux
Cadrage Kahneman 1981
d’échec qui apporte la même information, mais de manière inverse.
Amable & A l’échelle du temps, les choix qui sont pris fait de sorte à privilégier les effets à court-terme plutôt qu’à long terme
Court-termisme 1995
Chatelain sont le fruit de l’incertitude face au futur et d’un arbitrage en faveur de l’immédiat.
C’est le fait, pour une personne, de se baser sur un trait particulier de la personnalité d’un individu pour se former une
Effet de halo Thorndike 1920
impression globale de sa personnalité.
1927- À la suite de l’enquête de la Western Electric, Elton Mayo conclu sur le fait que lorsque des individus savent ou ont le
Effet Hawthorn Mayo
1932 sentiment de participer à une étude, alors les rendements sont meilleurs et cela génère un gain de motivation.
Aussi appelé « effet d’isolation », ce phénomène démontre qu’il existe un effet de focalisation parmi une population
Effet von Restorff Restorff 1933
d’éléments similaires sur ce qui est inhabituel.
L’organisation est vue comme un nœud de contrats (internes et externes) avec des relations d’agence entre un principal
Jensen &
Effets d’Agence 1976 qui engage un agent. Dans ces relations, il y a une asymétrie d’information où l’agent a en général une information
Meckling
plus grande, que celle détenue par le principal.
Dans un jeu, la solution sans qu’il y ait coopération entre les « joueurs » peut aboutir à une stratégie « dominante »
Equilibre de Nash Nash 1994 pour chaque joueur de sorte qu’il minimise son risque. J.Nash remarque sue cette stratégie aboutit à un équilibre sous-
optimal en l’absence de coopération.
Erreur fondamentale L'erreur fondamentale d'attribution est la tendance à surestimer les causes internes (personnalité, intentions, efforts), ce
Jones & Harris 1967
d’attribution qui revient à attribuer systématiquement à l'individu la responsabilité de sa conduite.
Erreur de Tversky & Phénomène qui viole le paradigme selon lequel la probabilité que deux événements surviennent en même temps est
1983
conjonction Kahneman toujours plus petite que la probabilité que chacun de ces événements arrivent séparément.
Erreur du « sunk Arkes & Les sunk costs ou « coûts irrécupérables » sont des dépenses qui ne seront jamais récupérées quel que soit
1985
cost » Blumer l’investissement. Un choix est alors biaisé dès lors qu’ils sont pris en compte dans le jugement.
Lorsqu’un individu prend une première décision, nous risquons de prendre toutes les décisions suivantes qui
Escalade de
Staw 1976 permettraient d’aboutira but de la première. Un sentiment de dénie peut ou non accompagner cette escalade de
l’engagement
l’engagement.
Biais par lequel une personne surestime les probabilités de succès en passant outre les éventuels écueils, ce qui peut
Excès d’optimisme Dejoy 1989
amener à prendre plus de risque que ce que l’individu ou son organisation ne peut en assumer.
Johnson & Situation où l’individu pense maitriser l’incontrôlable et ne se sent pas sujet à des situations à risque. Il estime pouvoir
Excès de confiance 2009
Fowler maximiser sa satisfaction en faisant abstraction de l’incertitude.

75
Force du Stratégie issue du marketing et de la communication qui consiste à créer ou à mystifier une histoire dans le but de
Denning 2005
storytelling séduire une cible bien définie et de créer un lien.
« Un mode de pensée dont les gens usent lorsqu'ils sont profondément impliqués dans un groupe uni, quand le désir
Groupthink Janis 1982
d'unanimité des membres outrepasse leur motivation à concevoir d'autres solutions de façon réaliste. » (Janis)
On parle d’illusion de contrôle lorsqu’une personne ou une organisation pense agir positivement sur des évènements au
Illusion de contrôle Langer 1975
point d’avoir le contrôle sur ces derniers.
Tandis que le comportement rationnel des agents vise à optimiser sa consommation compte tenu de la limite de ses
Malédiction du Capen, Clapp ressources, le cas de la malédiction du gagnant (winner’s curse) va à l’encontre de ce principe. Basé sur le modèle
1971
gagnant & Campbell d’enchère, le prix payé par le « gagnant » sera considéré comme surestimé car au-dessus de ce qu’était prêt à payer la
majorité des individus.
Mode de management non participatif où les décisions sont prises par le leader et sans contestation, empêchant la prise
Management en Lovallo &
2006 de décision de type collégial. Les employés se tournent constamment vers le manager comme le tournesol vers le
tournesol Sibony
soleil.
Théorie de Alexandre & La théorie de l’enracinement énonce que les décisions des dirigeants sont parfois irrationnelles étant donné qu’elles
2000
l’enracinement Paquerot peuvent être prise dans leur intérêt qui est de préserver leur poste de direction.
Sources : D’après la série Youtube « Crétin de cerveau », « Management et contrôle de gestion » éditions Corroy, Sibony (2014), Chanut et al. (2011) et
https://fr.wikipedia.org/wiki/Biais_cognitif

76
Annexe 4 : Prise en compte de l’incertitude et la réintroduction du jugement

Source : Milédi et Pigé (2013, p.11)

77
Annexe 5 : Fiction – Journal de bord du docteur François

Source : Rapport CNOM (2018, p.19)

78
Annexe 6 : Entre explicabilité et efficacité des algorithmes

Source : http://internetactu.blog.lemonde.fr/2016/10/30/lintelligence-artificielle-va-t-elle-rester-impenetrable/

Annexe 7 : Rapport CNIL – La discrimination par les data

Source : Rapport CNIL (2017, p.33)

79
Annexe 8 : Tableau de retranscription d’entretien (exemple du Benchmarking)

Bench. Bench. Bench. Bench. Bench. 5


1 2 3 4
Q1 Justice prédictive. L’outil développé par X a pour objet d’aider
[…] […] […] […] les juristes dans leur défense et de fournir des analyses
statistiques aux entreprises pour leurs prises de décisions.
Q2 X s’adresse aux professionnels depuis 1an et demi, en
[…] […] […] […] particulier les avocats (80%), les services juridiques
d’entreprises, les assurances et les banques.
Q3 […] […] […] […] Non posée
Q4 Au début de ma carrière professionnelle, je travaillais dans une
très grande structure de juriste. Un soir à 20h on m’a demandé
de relire 200 décisions de justices et faire une synthèse sur
Excel des montants d’indemnités potentiellement exigibles.
[…] […] […] […] Ainsi, je me suis posé la question de la mise en place d’un outil
d’analyse de décisions en masse.
Notre outil repose sur les méthodes de type NLP qui traite 5000
décisions de justices à la seconde. L’outil obtient une moyenne
de 97% d’acuité. Cet outil est une règle qui mesure la justice.
Q5 L’avantage principal c’est la capacité à calculer des indemnités
compensatoires de manière précise et rapide. L’outil effectue
ses calculs sur 4,1 millions de décisions de justices disponibles
aujourd’hui. Avec la mise à jour de la loi open source en 2019,
5,2 millions de décisions justices seront publiées par an.
[…] […] […] […]
[…]
Aussi, cela pourrait permettre de désengorger les tribunaux car
les avocats peuvent prendre conscience qu’il est plus
raisonnable de recourir à un arrangement par MARC plutôt que
de persister dans les procédures judiciaires.
Q6 En ce qui concerne la base de données il existe des tentatives et
des vols avérés de données confidentielles d’affaire non
accessible au public. Il existe un réel enjeu éthique de savoir
d’où proviennent les données que nous exploitons
[…]
[…] […] […] […]
L’un des inconvénients c’est l’ambiguïté des mots et les
tournures de phrases des greffiers. La polysémie des mots ou
les styles de double négation expliquent en grande partie les
3% d’échec de la machine.
[…]
Q7 C’est un modèle économique très intéressant, même pour les
petits cabinets, car les couts fixes ont été amorti rapidement par
[…] […] […] […] les premiers clients.
[…]
Q8 […] En ce qui concerne le droit de la famille, il existe une
dimension humaine très importante. Les victimes ont besoin
[…] […] […] […]
d’un accompagnement psychologique que ne ferait pas la
machine.
Q9 Réunir une bonne équipe qui est prête à s’impliquer et qui
réunit les talents nécessaires. Il vaut mieux un mauvais projet
[…] […] […] […]
bien amené plutôt qu’un excellent projet basé sur de mauvaises
fondations d’actionnariat.

80
Annexe 9 : Proposition de base de données à exploiter en complément du FEC

Source : Moi-même

81
Annexe 10 : Préconisation – Proposition de plan de formation interne

82
83
84
85
86
87
88
89
90
Bibliographie
Articles de recherche

Bouzon A., Couzinet V. et Normand R. (1996), Les Doctorants livrés à la recherche


documentaire, Bulletin des bibliothèques de France (BBF), 6, 54-59.

Carassus D. et Cormier D. (2003), Normes et pratiques de l'audit externe légal en matière de


prévention et de détection de la fraude, Comptabilité Contrôle Audit, 1, 171-188.

Chanut V., Guibert N., Rojot J. et Dubois P. (2011), Les limites de la rationalité limitée ? Un
essai de réflexion en sciences de gestion, Revue management & avenir, 48, 97-117.

Chanut V., Guibert N. et Rojot J. (2011), La rationalité limitée en gestion : état des lieux et
perspectives, Revue management & avenir, 48, 94-96.

Collins J. C. (2017), Using Excel and Benford's Law to detect fraud, Journal of accountancy,
223, 4, 45-50.

Dagorn N., Biot-Paquerot G. et Didierjean A. (2013), Peut-on faire mentir les chiffres?
L'embellissement des informations financières par la comptabilité d'intention, Revue française
de gestion, 231, 88-101.

Debreceny R. S. et Gray G. L. (2010), Data mining journal entries for fraud detection: An
exploratory study, International Journal of Accounting Information Systems, 11, 3, 157-181.

Denis J-P. (2009), Entre finance et stratégie : Calcul, mimétisme… exemplarité?, Revue
française de gestion, 8, 198-199, 95-123.

Durtschi C., Hillison W. et Pacini C. (2004), The effective use of benford's law to assist in
detecting fraud in accounting data, Journal of forensic accounting, 5, 1, 17-34.

Dumez H. (2011), Qu’est-ce que la recherche qualitative?, Le Libellio d’Aegis, 7, 4, 47-58

Fay R. et Negangard E. M. (2017), Manual journal entry testing: Data analytics and the risk of
fraud, Journal of Accounting Education, 38, 37-49.

Gonthier-Besacier N., Hottegindre G. et Fin-Falcy S. (2012), Les facteurs d’influence dans la


qualité de l’audit : Perception des préparateurs de l’information financière, Comptabilité
Contrôle Audit, 18, 33-72.

91
Hajek P. et Henriques R. (2017), Mining Corporate Annual Reports for Intelligent Detection of
Financial Statement Fraud – A Comparative Study of Machine Learning Methods, Knowledge-
Based Systems, 128, 139-152.

Johnson S., Ryan H. et Tian Y. (2009), Managerial incentives and corporate fraude: The sources
of incentives matter, Review of finance, 13, 115-145.

Lanza R. B. et Gilbert Scott (2007), A risk-based approach to journal entry testing, Journal of
accountancy, 204, 1, 32-35.

Le Maux J., Smaili N. et Ben Amar W. (2013), De la fraude en gestion à la gestion de la fraude
: Une revue de la littérature, Revue française de gestion, 231, 2, 73-85.

Ndofor H., Wesley C. et Priem R. (2015), Providing CEOs with opportunities to cheat: The
effects of complexity-based information asymmetries on financial reporting fraud, Journal of
Management, 41, 6, 1774-1797.

Meiller Y. (2017), Intelligence artificielle, sécurité & sûreté, Sécurité & stratégie, 28, 4, 75-84.

Monin M. et Dablin G. (2018), L’Intelligence Artificielle pour répondre aux exigences


réglementaires, Revue Banque, 819, 93-95.

Nigrini M. J. (2017), Audit Sampling Using Benford's Law: A Review of the Literature with
Some New Perspectives, Journal of Emerging Technologies in Accounting, 14, 2, 29-46.

Pearson T. A. et Singleton T. W. (2008), Fraud and Forensic Accounting in the Digital


Environment, Issues in accounting education, 23, 4, 545-559.

Perols J. (2011), Financial statement fraud detection: an analysis of statistical and machine
learning algorithms, Auditing: A Journal of Practice & Theory, 30, 2, 19-50.

Sirois L-P, Marmousez S. et Simunic D. A. (2016), Proposition d’une nouvelle approche de la


relation entre la taille de l’auditeur et la qualité de l’audit : l’importance de la technologie
d’audit, Comptabilité Contrôle Audit, 3, 111-144.

Song X-P., Hu Z-H., Du J-G. et Sheng Z-H (2014), Application of machine learning methods
to risk assessment of financial statement fraud: evidence from china, Journal of Forecasting,
33, 611-626.

92
Warren J. D. Jr., Moffitt K. C. et Byrnes P. (2015), How big data will change accounting,
Accounting Horizons, 29, 2, 397-407.

Wells J. T. (2001), Why Employees Commit Fraud. It’s either greed or need, Journal of
Accountancy, 191, 2, 89-91.

Zhang M. et Ling H. (2013), Distinguishing fraud from error in restatement data using machine
learning techniques, Academy of Business Journal, 2, 1-8.

Conférences

Audevart A. (2017), Machine Learning de A à Z, Salon de la Data, Nantes, France (disponible


à l’adresse suivante : https://www.youtube.com/watch?v=BLZo9QLt0UY ).

Berthet C. (2018), L’intelligence artificielle et le droit, JUREM, Paris, France.

Ginouvès V. (2008, MàJ 2009), Recherche documentaire sur l’internet en SHS, Aldébaran,
(disponible à l’adresse suivante : https://journals.openedition.org/aldebaran/5822?file=1).

Gramfort A. (2017), Scikit-learn : From Zero to Hero, BlendWebMix, Paris, France (disponible
à l’adresse suivante : https://www.youtube.com/watch?v=ZD5lJGq1rvQ&t=6s ).

LeCun Y. (2015), Deep Learning, Unexpected Sources of Inspiration, Paris, France (disponible
à l’adresse suivante : https://www.youtube.com/watch?v=RgUcQceqC_Y&t=1338s ).

Rodriguez C. (2018), Learn & Lunch, MLab, Paris, France.

Sibony O. (2014), Comment éviter les biais cognitifs pour prendre la bonne décision ?,
L'Échappée Volée, Paris, France (disponible à l’adresse suivante :
https://www.youtube.com/watch?v=FZJwRRsmeyY ).

Communications dans un congrès

Delasalle F. (2011), Réalités de la comptabilité créative « à la française », 22ème Congrès de


l'AFC, Metz, France.

93
Gallet O., Callede J-C. et Jaffé J-L. (2009), Détection de fraudes : quels indices pour le
réviseur ?, 64ème congrès de l’Ordre des Experts-Comptables, Nantes, France.

Lahbari H. (2009), La qualité de l’audit externe et la notion de significativité : étude


exploratoire, La place de la dimension européenne dans la Comptabilité Contrôle Audit,
Strasbourg, France.

Miledi A. et Pigé B. (2013), Le jugement professionnel en audit : enquête auprès des associes
signataires. Comptabilité sans Frontières, The French Connection, Canada.

Massive Open Online Course (MOOC)

Ng A., Semaine 9 - Anomaly Detection, Machine Learning, Standford University. Disponible


à l’adresse suivante : https://www.coursera.org/learn/machine-learning

Rapports d’institutions

Association of Certified Fraud Examiners (2012), L’étude 2012 sur la fraude (Report of the
Nations), Sommaire de l’enquête mondiale par l’ACFE sur la fraude en entreprise.

CNIL (2017), Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des
algorithmes et de l’intelligence artificielle, Synthèse du débat public animé par la CNIL dans
le cadre de la mission de réflexion éthique confiée par la loi pour une république numérique.

Conseil National de l’Ordre des Médecins (2018), Médecins et patients dans le monde des data,
des algorithmes et de l’intelligence artificielle, Analyses et recommandations du Cnom.

France Stratégie (2018), Intelligence artificielle et travail, Rapport à la ministre du Travail et


au secrétaire d’Etat auprès du Premier ministre, chargé du Numérique.

#FranceIA (2017), France Intelligence Artificielle, Rapport de synthèse des groupes de travail
du gouvernement, (p209-260).

Office Parlementaire d’Evaluation des Choix Scientifiques et Technologiques (2017), Pour une
IA maîtrisée, utile et démystifiée, synthèse du rapport proposée par C.Ganay (député) et
D.Gilliot (sénatrice).

94
Thèse

Herrbach O. (2000), Le comportement au travail des collaborateurs de cabinets d’audit


financier: une approche par le contrat psychologique, Thèse de doctorat en Sciences de gestion,
Laboratoire Interdisciplinaire de recherche sur les Ressources Humaines et l’Emploi, université
des sciences sociales -Toulouse 1, Toulouse.

Bibliographie secondaire

Benford F. (1938), The Law of Anomalous Numbers, Proceedings of the American


Philosophical Society, 78, 4, 551-572.

Blanchet A. et Gotman A. (2007), L'entretien : L'enquête et ses méthodes, Armand Collin, 2ème
édition.

Discksee L.R (1905), Auditing, New York, Editions Robert H. Montgoméry.

Flint D. (1988), Philosophy and principles of auditing, Macmillan Education, Université de


Californie, p.48

Montgoméry R.H (1913), Auditing: Theory and Practice, New York, Ronald Press Company.

Neff K. D. (2003), Development and validation of a scale to measure self-compassion,


Psychology press Taylor & Francis group, 2, 223-250.

Nobes C. (1995), L’objectif du rapport annuel et de l’audit externe, Revue française de


comptabilité, 263, 11-13.

Shelton S. W., Whittington O., et Landsittel D. (2001), Auditing Firms' Fraud Risk Assessment
Practices, Accounting Horizon, 15, 1, 19-33.

Wang D., Khosla A., Gargeya R., Irshad H. et Beck A. H. (2016), Deep Learning for identifying
metastatic breast cancer, Beth Israel Deaconess Medical Center (BIDMC) et Harvard
MEDICAL School.

95
Webographie

https://fr.wikipedia.org/wiki/Techniques_d%27audit_assist%C3%A9es_par_ordinateur (visité
le 21/03/2018)

https://www.quantmetry.com/single-post/2015/10/28/Une-petite-histoire-du-Machine-
Learning (visité le 21/03/2018)

https://www.cpajournal.com/2017/06/19/deep-learning-future-auditing/ (visité le 21/03/2018)

https://www.efl.fr/pratique/avis-experts/comptable/details.html?ref=r-98c612fd-1cb7-455b-
874f-aad6b3a05ed8 (visité le 23/03/2018)

https://www.economie.gouv.fr/dgfip/outil-test-des-fichiers-des-ecritures-comptables-fec
(visité le 23/03/2018)

https://www.xlstat.com/fr/solutions/fonctionnalites/regression-logistique-pour-reponse-
binaires-et-multinomiales-logit-probit (visité le 25/03/2018)

https://www.futura-sciences.com/tech/definitions/informatique-reseau-neuronal-601/ (visité le
25/03/2018)

https://www.cs.waikato.ac.nz/ml/weka/ (visité le 25/03/2018)

https://en.wikipedia.org/wiki/Training,_test,_and_validation_sets (visité le 25/03/2018)

https://www.linkedin.com/feed/update/urn:li:activity:6383976822597652480/ (visité le
27/03/2018)

https://l.facebook.com/l.php?u=http%3A%2F%2Fnews.mit.edu%2F2017%2Fartificial-data-
give-same-results-as-real-data-0303&h=ATP2Lc-
kAEjonsiaHh6ESKLluKe27NBEDh8WaOXTmBox0OsfD55Cbz5oFSe7VYOylqxDIFJwHC
cR_FsaBieoDbs4XtNB7edixEauuRhnato7Pl1Tgw (visité le 27/03/2018)

https://www.helloopenworld.com/lintelligence-artificielle-change-lexpertise-comptable-4075
(visité le 29/03/2018)

96
Résumé :

Ce mémoire propose une approche exploratoire autour de l’audit de la fraude et de son


amélioration par le machine learning. Mettant en perspective les approches traditionnelles de
l’audit et notamment de l’investigation de la fraude avec le potentiel de l’apprentissage
automatique, cette recherche se conclut par trois recommandations auprès de la profession
comptable ainsi qu’une proposition d’un plan de formation au machine learning adressé aux
auditeurs, accompagné d’un guide pratique de l’usage de ces outils.

Abstract:

This master thesis is an exploratory approach about fraud auditing using machine learning. It
contrasts traditional approach of performing audit fraud with machine learning potential.
Eventually this dissertation concludes with three recommendations addressed to accounting
profession, a proposition of a training plan of machine learning for auditors and a practical
guide of machine learning use.

97
C

Vous aimerez peut-être aussi