Vous êtes sur la page 1sur 26

Quand l’intelligence artificielle théorisera les organisations

Philippe Baumard
Dans Revue française de gestion 2019/8 (N° 285), pages 135 à 159
Éditions Lavoisier
ISSN 0338-4551
ISBN 9782746249158
DOI 10.3166/rfg.2020.00409
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

Article disponible en ligne à l’adresse


https://www.cairn.info/revue-francaise-de-gestion-2019-8-page-135.htm

Découvrir le sommaire de ce numéro, suivre la revue par email, s’abonner...


Flashez ce QR Code pour accéder à la page de ce numéro sur Cairn.info.

Distribution électronique Cairn.info pour Lavoisier.


La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le
cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque
forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est
précisé que son stockage dans une base de données est également interdit.
PHILIPPE BAUMARD
Conservatoire national des arts et métiers, Paris

Quand l’intelligence
artificielle théorisera
les organisations
Cet article1 explore la possibilité qu’une intelligence machine
puisse théoriser des organisations ; et qu’elle le fasse mieux
qu’une intelligence humaine dans un proche futur. La plupart
des modèles d’apprentissage des machines sont des processus
statistiques automatisés qui sont à peine capables d’une
induction formelle et ne génèrent pas de nouvelles théories,
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


mais reconnaissent plutôt un ordre préexistant. Les théories
humaines sont incarnées ; elles naissent d’un lien organique
avec le monde, auquel les théoriciens ne peuvent échapper. Cet
article envisage de surmonter cet obstacle pour accueillir une
révolution théorique apportée par l’IA.

DOI: 10.3166/rfg.2020.00409 © 2019 Lavoisier

1. L’auteur tient à remercier William H. Starbuck, Wojciech Czakon et Michel Béra pour leurs commentaires et
suggestions.
136 Revue française de gestion – N°285/2019

L
e jeudi 10 mars 2016, AlphaGo, le Nous parlons souvent, dans notre jargon
logiciel créé par les ingénieurs de scientifique, de « corpus de connaissan-
Google Deepmind pour défier Lee ces », comme si le caractère désincarné et
Sedol, maître de go, fit un mouvement autonome de la connaissance allait de soi. Il
inattendu. AlphaGo jouait sa seconde partie va de soi que l’on peut distinguer une
dans ce qui deviendra sa victoire historique connaissance à laquelle on a supprimé tout
contre un des meilleurs maîtres de go caractère particulier pour lui attribuer le
humains. Alors que tous les regards sont statut de règle. Ainsi, l’episteme s’oppose
concentrés sur deux espaces au sud du dans la Grèce antique aux savoirs pratiques,
goban, AlphaGo place une pierre à l’inter- techniques, à la sagesse ou à la sagacité
section la plus incongrue qu’il soit : isolée, particulière d’un individu (techne, phrone-
ouvrant un autre front ; un mouvement si sis, eustochia, etc.). Le savoir abstrait est
étrange que tous les commentateurs de go se avant tout un savoir d’emprise ; sa généra-
figèrent dans une absolue perplexité. À ce lisation implique un statut désincarné : en
moment précis, Lee Sedol observa le goban retirant sa signature, le nom de son porteur,
attentivement, se leva et quitta la salle. en le rendant distant, le savoir gagne en
Quand il revint, il était clair que ce instrumentalité, en unilatéralité et en ef-
mouvement étrange, singulier et inattendu ficience. Nous avions déjà discuté comment
était un trait de génie. Lee Sedol ne reprit les théories des organisations se sont
jamais le dessus2. construites dans une longue vassalité et
Ce mouvement fut largement commenté par servilité à ses donneurs d’ordre (Starbuck et
les amateurs de go et les chercheurs en Baumard, 2009). Nos théories servent
intelligence artificielle (McFarland, 2016). toujours leurs pouvoirs contemporains,
Mais il ne reçut que très peu d’attention de la même, et parfois surtout, quand elles en
part des théoriciens de l’organisation. Il font la critique. Aussi agaçant que cela
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


constitue pourtant le signe distinctif d’un puisse être, la théorie des organisations n’a
changement profond dans le futur de jamais réussi à inverser le rôle du principal
l’intelligence artificielle (ou IA), et comme et de l’agent ; de l’institution et de ses
nous le verrons dans cet article, annonce un membres ; du propriétaire et du manager ;
changement profond dans l’activité du capital et de l’entrepreneur. À parler vrai,
humaine de la recherche en général, et de il n’existe aucune théorie de l’organisation
la recherche en management en particulier. qui ait réussi à démontrer une quelconque
AlphaGo avait-elle été programmée pour capacité d’auto-conception dans un fait
être surprenante afin de déstabiliser son organisé ; et cela même si la théorie
adversaire humain, sans perdre ses chances du self-designing organization, introduite
de gagner ? Ou, au contraire, cette stratégie par Hedberg et al. (1976), fut tant de fois
« créative » était-elle l’unique résultat imitée.
de son algorithmique, sans supervision Nous réinventons le contenant sans jamais
humaine ? révolutionner le contenu, parce que nous

2. https://www.washingtonpost.com/news/innovations/wp/2016/03/15/what-alphagos-sly-move-says-about-
machine-creativity/?utm_term=.3ead89a16705
Quand l’IA théorisera les organisations 137

sommes profondément malléables et obéis- modèle utilisé pour gérer le programme du


sants. Nos théorisations sont faites de missile Polaris. « Étant donné que le PERT
tellement d’emprunts qu’à l’instar de avait renforcé l’image de compétence de
L’oreille cassée d’Hergé, nous sommes l’équipe de gestion, les comités d’examen
condamnés à briser l’oreille de toute externes se sont moins immiscés dans leurs
nouvelle théorisation pour la faire entrer affaires. Derrière cette façade, l’équipe n’a
dans le réel tolérable de cette soumission jamais réellement utilisé la technique pour
(voir Rosset, 1977). En d’autres termes, gérer les échéanciers et les coûts. PERT n’a
nous radotons. Nous sommes, en tant que pas construit le Polaris, mais il a été
communauté scientifique, celle qui excelle extrêmement utile pour ceux qui ont
dans l’art de réinventer un corpus théorique construit le système d’armes de faire croire
qui dit toujours la même chose, remettant au à de nombreuses personnes qu’il l’avait
goût du jour « un vieux vin dans une fait. » (Sapolsky, 1972, p. 125). Ainsi, le
nouvelle bouteille » (Kimberly, 1981), mais PERT et les innovations managériales
n’en changeant jamais les mécanismes associées ont fourni un « placage protec-
fondateurs ou la téléologie. teur » (Sapolsky, 1972, p. 246).
Le fait qu’une théorie soit « ancrée », ou Une théorisation de l’organisation ne peut
qu’elle ait pu être éprouvée par le test de la jamais être complètement éprouvée par le
réplication de ses résultats, a souvent peu test de la réalité. Les hommes aiment suivre
d’importance dans cette téléologie. Prenons des modèles, des « abrégés du vrai » aussi
l’exemple des organisations matricielles. À bien que des « abrégés du bon » comme
l’origine, il s’agit de commandes de très aimait le dire Claude Riveline. Tant que ces
grandes entreprises (DEC, HP, puis ABB) abrégés fournissent une certaine commu-
qui cherchent un modèle managérial pour nauté, tant qu’ils permettent de « faire
pouvoir justifier des réorganisations impli- sens » collectivement, comme l’exprimait
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


quant de sérieuses réductions du nombre de Weick, d’assurer le maintien d’une sub-
cadres dirigeants dans la gestion de leurs ordination, ils confèrent une structure
marchés globaux. Aucune recherche n’est à suffisante à l’action organisée. Peu importe
l’origine du concept d’organisation matri- qu’elle soit soutenue, ou pas, par un
cielle. Un article dans la Harvard Business précepte scientifiquement établi. Peu
Review rendit le concept populaire auprès de importe que le subordonné soit plus ou
dirigeants luttant avec les difficultés de la moins dupe du manque de sincérité du
naissante globalisation. Quelle autre fable modèle invoqué.
avait le pouvoir de convaincre un cadre Cet « à peu près », cette tolérance à
dirigeant d’assumer un double labeur de l’approximation, est ce qui motiva Jim
supervision de sa zone géographique et d’un March, Richard Cyert et Herbert Simon à
produit sur le plan mondial ? Les exemples poursuivre une théorisation du management
abondent. Nystrom et Starbuck (1984), dans qui accepte que les êtres humains puissent
leur classique « Façades organisationnel- créer et maintenir des systèmes complexes,
les », expliquent comment les diagrammes réaliser des prouesses techniques, en se
PERT (Program Evaluation and Review gérant eux-mêmes avec des niveaux de
Technique) n’ont jamais réellement été un « satisfaction minimale » (satisficing).
138 Revue française de gestion – N°285/2019

L’organisation humaine possède une mal- autonome conduit par une machine. L’ob-
léabilité cognitive et comportementale qui jectif est d’ici d’évaluer la faisabilité d’une
lui permet d’inventer ex post les théories qui substitution de l’homme par la machine
expliquent ses actes, de créer des idéologies pour produire une recherche.
pour justifier des solutions, et de tolérer des Dans une troisième et dernière partie, nous
écarts indéfendables entre ses théories proposons quatre modes d’exploration
professées et ses théories d’usage. théorique qui sont déjà l’œuvre de machi-
La victoire d’AlphaGo sur Lee Sedol peut nes, ou qui pourraient voir, dans le futur,
très bien s’expliquer ainsi. AlphaGo a une substitution complète de l’homme par la
maximisé l’effet de perturbation sur son machine. Nous concluons cet article en
opposant en recherchant statistiquement les partageant plusieurs interrogations sur
combinaisons les plus improbables, tout en l’avenir de la recherche en théorie des
maintenant une probabilité de succès organisations, et son utilité, homme ou
acceptable. Pourtant, si nous faisons l’effort machine, pour les organisations et la société.
de croire qu’une machine pourrait être
réellement capable d’invention, sans passer
I – À QUOI RÊVENT LES
par un mécanisme de leurre, cela pourrait-il
MOUTONS ÉLECTRIQUES ?
constituer une lueur d’espoir pour les
sciences de gestion, et peut-être, pour la Une machine ou un programme ne sont pas
recherche scientifique en général ? Car forcément condamnés à exécuter une série
quelle hypothèse serait-elle plus optimiste d’instructions pour reproduire ou imiter un
que celle de pouvoir se débarrasser de cette comportement humain. Elles sont, pour la
épouvantable vassalité humaine ; du goût plupart, construites dans ce but. La première
humain pour l’approximation, le plagiat et étape de notre réflexion est donc d’opposer,
la répétition ; et des perversions institu- d’une part, la programmation dont l’objectif
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


tionnelles de la publication scientifique ? est de faire mieux et moins coûteux que la
C’est cet espoir qu’offre les timides travail ou la cognition humaines ; et d’autre
avancées de l’intelligence artificielle part, la programmation dont l’objectif est
contemporaine que cet article se propose d’extraire une capacité heuristique humaine
d’explorer. pour la transformer en capacité heuristique
Cet article est organisé en trois parties. Dans machine (Baumard, 2008).
un premier temps, nous étudions l’histoire Nous appellons, par facilité, cette première
de l’intelligence artificielle, depuis sa forme de raisonnement artificiel « l’intelli-
fondation au XIXe siècle, jusqu’à ses gence de production ». Elle a pour racine les
évolutions récentes, pour comprendre ce deux premières révolutions industrielles, le
qu’une intelligence artificielle serait capable management scientifique et la cybernétique
de faire en matière de théorisation… Ce qui pour sa forme contemporaine. Mais on la
nous amène, dans un second temps, à retrouve dans toute formulation mathéma-
interroger l’acte de production scientifique tique dont l’objectif est de permettre à un
afin d’identifier ce qui peut relever d’un ensemble humain de pouvoir accomplir des
acte humain, et ce qui peut faire l’objet tâches répétitives tout en améliorant conti-
d’une modélisation et d’un apprentissage nuellement leur performance. Le code
Quand l’IA théorisera les organisations 139

d’Hammourabi est sans doute l’une des propos ; ce qui pouvait simplement se tester
premières expressions de cette intelligence par la capacité d’une machine à « accomplir
de production. Il permet par de simples des tâches d’une difficulté grandissante ».
équations à des êtres humains de systéma- Deux problèmes se posaient alors : chez
tiser les récoltes, de régler des différends sur l’être humain, le feedback intègre la pro-
du bétail, de calculer le partage de l’impôt. Il blématisation aussi bien que la réponse ; le
s’agit bien d’un code, d’un ensemble propos impliquait la notion anthropocen-
d’instructions, gravé dans la pierre, per- trique de conscience, dont les machines sont
mettant une intelligence de production bien sûr dépourvues en 1950.
répétée et continuellement améliorée (par Miller et al. (1960, p. 26) proposèrent de
l’adjonction de nouvelles instructions ou substituer la notion d’incongruité à celle de
règles dans le code d’Hammourabi). feed-back. Dans leur célèbre exemple
Une règle est en soi une forme d’intelligence d’apprentissage expérimental, c’est l’incon-
désincarnée. Toute forme arithmétique géné- gruité d’une réponse reçue qui motive
ralisée, tout système d’équation, depuis et l’homme à s’acharner à trouver une
avant l’invention de l’algèbre par réponse : le « propos » est donc bien
Khwârismî au début du IXe siècle, sont des encapsulé dans la forme du feedback (Jones,
expressions d’une intelligence désincarnée, 1975). Ils en déduisent que la réaction d’un
autonome, qui peut être répliquée et reprise à effecteur à un événement dépend de la
son compte par n’importe quel être humain. réalisation d’essais, puis d’un nouveau test
Newell (Newell et Simon, 1972, 1976 ; des procédures opérationnelles tout en
Newell, 1983) ne dément pas cette perspective observant comment ces itérations « modi-
en affirmant que l’histoire de l’intelligence fient le résultat de l’essai » (p. 25) :
artificielle débute au moment où l’on « L’action est initiée par une “incongruité”
commence à séparer des fonctions de repré- entre l’état de l’organisme et l’état testé, et
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


sentation, de résolution, de reconnaissance et l’action persiste jusqu’à ce que l’incongruité
d’acquisition de connaissances ; ce qui (c’est-à-dire le stimulus proximal) soit
l’amène à considérer la naissance de l’intel- éliminée. » (op. cit., p. 26).
ligence artificielle, en tant que discipline, dans Ils ont appelé ce modèle initial « l’hypothèse
l’opposition entre l’idée de mécanisme arti- cybernétique », mieux connu aujourd’hui
ficiel et de téléologie dans la période 1640- sous le nom du principe de « TOTE » (Test-
1945. Il s’agit bien sûr de l’opposition Operate-Test-Exit). L’approche TOTE est un
cartésienne entre l’esprit et la matière, qui algorithme commun pour résoudre des
pour Newell aboutit aux interrogations de la problèmes non déterministes au sein d’une
cybernétique à la fin des années 1940. L’idée conception complexe, suivant les étapes de
de la cybernétique est de proposer qu’une test afin d’obtenir une représentation du
machine capable d’une réponse autonome, problème, opérant pour créer un changement
un feedback, était de facto incarnée d’un qui peut être caractérisé, testant à nouveau
propos (Rosenbleuth et al., 1943 ; McCulloch afin d’observer le comportement du résultat,
et Pitts, 1943). et sortant lorsque le problème est résolu.
Une des idées fondatrices de la cybernétique Miller et al. s’intéressaient à « l’utilisation de
était donc que l’intelligence présuppose un l’ordinateur comme automate pour illustrer le
140 Revue française de gestion – N°285/2019

fonctionnement de diverses théories psy- problèmes humains puisse être résolu par
chologiques » (op. cit, p. 50). un traitement logique et symbolique. Boole,
Comme le soulignait Newell (1982), pos- bien sûr, est un enfant de son siècle,
séder un propos artificiel ne résout pas le fortement influencé par le rayonnement
problème de l’existence d’une intelligence des théorèmes de Thomas Bayes, de
artificielle. Cette perception anthropocen- Richard Price ou de Pierre-Simon de la
trique de l’intelligence artificielle comme Laplace, qui dès la fin du XVIIIe siècle
une abstraction désincarnée de fonctions avaient construit la théorie des probabilités.
cognitives (l’apprentissage et la résolution Mais la différence est que Boole offre une
de problèmes) est dominante pendant la réflexion synoptique, où il pose, dès le IIe
seconde moitié du XIXe siècle (dans la chapitre, le problème du langage et de la
science-fiction et la littérature fantastique) représentation (p. 25-28) où il définit les
jusqu’aux premières tentatives de modélisa- signes comme des « marques arbitraires » ;
tion de la psychologie humaine au début du pour s’intéresser ensuite à un découpage
XXe siècle. systématique des fonctions cognitives
Les lois de la pensée de Boole (1854) sont humaines (« les principes du raisonnement
sans doute l’œuvre la plus sous-estimée symbolique »). Bien que son vingt-deu-
pour l’anticipation de l’intelligence artifi- xième chapitre soit une reddition (« C’est
cielle contemporaine ; c’est-à-dire celle une capacité inhérente de notre nature que
dominée par le paradigme connexionniste d’apprécier l’Ordre (..) » (op. cit, p. 403), ou
du début du XXIe siècle. Boole écrit : « Les peut-être simplement un acte de prudence,
lois générales de la Nature ne sont pas, pour Boole, le premier, fait de la logique un
la plupart, des objets immédiats de percep- système d’investigation du réel qui pré-
tion. Elles sont soit des inférences inducti- figure l’informatique heuristique des années
ves à partir d’un large corps de faits, la vérité 1950 (notamment avec ses principes d’in-
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


commune dans laquelle elles s’expriment ; terprétation, d’élimination et de réduction).
soit, dans leur origine au moins, des Newell (1982, p. 8) identifie dès lors une des
hypothèses physiques d’une nature causale caractéristiques dysfonctionnelles de l’in-
permettant d’expliquer des phénomènes telligence artificielle : « La logique est
avec une précision sans faille, nous per- devenue la technologie sous-jacente qui
mettant ainsi de prédire de nouvelles permettait à des mécanismes d’accomplir
combinaisons de celle-ci. » (Boole, 1954, des choses. De fait, c’est précisément la
p. 4). Boole exprime dans les lois de la séparation entre la logique et la pensée qui a
pensée les futurs fondements de l’appren- permis à la logique de devenir une science
tissage profond. Il considère qu’il n’existe de jetons insignifiants manipulés selon des
qu’une seule loi naturelle, celle de « conclu- règles formelles, qui à son tour a généré la
sions probables » (l’italique est de l’auteur) pleine mécanisation de la logique. » Newell
qui s’approchent de la certitude au fur et à identifie la fin de cette séparation entre
mesure où elles reçoivent une confirmation pensée et logique quand McCulloch et Pitts
par l’expérience. (1943), s’inspirant des travaux de Turing,
L’intuition booléenne s’étend, dès 1854, suggèrent que les liaisons synaptiques du
dans la conviction que l’ensemble des cerveau pourraient fonctionner à l’image
Quand l’IA théorisera les organisations 141

Figure 1 – Représentation des connexions nerveuses (nerve-net)


par McCulloch et Pitts (1943, p. 130)

d’un réseau de probabilités causales selon (computing machine dans le texte original ;
un anneau de Boole (cf. figure 1). le « mouvement » renvoyant figurative-
Deux perspectives s’affrontent déjà dans ces ment à l’idée du cylindre de Leibniz de
préfigurations : d’une part, celle d’une 1673). Turing essaye bien sûr de répondre
« mécanisation de la pensée », c’est-à-dire au challenge de Hilbert et Ackermann de
la capacité à reproduire un raisonnement au 1928, connu sous le nom du « Entschei-
sein d’une machine ; et d’autre part, celle dungsproblem » (le « problème de la déci-
d’une intelligence du dépassement des sion » en allemand) qui consiste à
limites inhérentes à la pensée humaine. déterminer de manière algorithmique s’il
Cette seconde perspective va être accélérée peut être dérivé par un système de déduction
par les défis posés par le Seconde Guerre sans autres axiomes que ceux de l’égalité.
mondiale. Le premier défi est celui de casser Afin de démontrer l’indécidabilité arithmé-
le chiffrement allemand, défi relevé par tique de la proposition de Hilbert et
Alan Turing avec succès ; mais c’est sa Ackermann, Turing crée une machine (un
publication de 1936 sur la notion de algorithme) qui prend en entrée un énoncé
« calculabilité » (inspirée d’A. Church), d’une logique du premier ordre et répond
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


pour laquelle Turing utilisa le terme de « Oui » ou « Non » selon que l’énoncé est
« computability » qui sera décisive ; c’est- universellement valide, c’est-à-dire valide
à-dire le problème des nombres dont les dans chaque structure satisfaisant les
décimales sont calculables par des moyens axiomes.
finis. Loin d’être une réflexion philoso- La machine de Turing (qu’il appelle l’a-
phique, l’article de Turing était le descriptif machine, pour « machine automatique »)
d’une machine (un algorithme, ce que sont inverse astucieusement la question posée.
in fine les machines de Turing) dont le On ne cherche pas directement à prouver
mouvement était partiellement déterminé (par la négative) Hilbert et Ackermann, mais
par une configuration initiale (l’ensemble on génère, de manière continue, autant de
des possibles). Ainsi l’écrit Turing : « Si machines possibles jusqu’à ce que la preuve
une a-machine imprime deux sortes de soit apportée ; c’est-à-dire des machines
symboles, dont le premier (appelé formes) capables de produire des calculs arbitraires.
consiste entièrement de 0 et de 1 (les autres Ce n’est pas, bien sûr, réellement une
étant appelés symboles de second ordre), machine, et le « calculateur », en 1936, est
alors cette machine peut être appelée une Alan Turing lui-même ; mais Turing ouvre
machine de calcul » (Turing, 1936, p. 232) la voie à la naissance de l’informatique de
142 Revue française de gestion – N°285/2019

l’après-guerre, même si un ordinateur n’est demande est qu’on lui donne accès aux
fondamentalement pas capable de créer une quarante cartons de données…. qui sont des
infinité de machines, l’article de 1936 cartes perforées. Les « ordinateurs » ser-
contient à la fois la conception initiale vent l’effort scientifique en réalisant des
d’une architecture de calculateur, ainsi calculs qui auraient été fastidieux, voire
que la base logique d’un langage de incommensurables, s’ils étaient réalisés à la
programmation. main. Comme l’écrit Simon : « Bien sûr, ce
Quand les premiers ordinateurs apparurent n’est pas de l’heuristique parce qu’il y a un
dans les années 1940, ils étaient lourds, lents théorème qui prouve que vous arriverez tôt
et à la précision fortement douteuse. Les ou tard au résultat, et peut-être est-ce pour
premières machines, héritières de Turing, cela que l’on ne peut pas le considérer
étaient analogues ; ce qui leur donnaient comme de l’intelligence artificielle. »
une vitesse bien supérieure aux premières (Simon, 1991, p. 128). Quelque part, la
machines numériques. Ce changement fut si machine de Turing est capable de se
rapide, que dès le début des années 1950, le multiplier pour résoudre un problème, ce
monde scientifique devient littéralement que la logique dominante de l’informatique,
fasciné par l’exploration des possibilités créée pour faire du calcul servile et auto-
qu’offraient de telles puissances de calcul matiser des tâches, est à mille lieues
(nous parlons bien sûr ici de « puissances » conceptuelles.
qu’une simple calculatrice peut aujourd’hui Ainsi, les premières expressions de l’intel-
égaler et dépasser… par un facteur 1000). ligence artificielle sont essentiellement per-
Jusqu’alors, ce qu’on appelait des « ordi- formatives. La philosophie du XIXe siècle
nateurs » étaient de larges feuilles de calcul établit le caractère associatif de la pensée
automatisées dont la seule fonction était de humaine ; un des premiers langages de
résoudre des équations différentielles par- programmation logique, le LISP, repose sur
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


tielles. Il n’y avait pas de demande une structure associative. Si nous avions eu
spécifique dans la société pour une autre une philosophie occidentale dominée par
forme de calcul. Après tout, le code l’idée d’imprégnation organique, et non pas
Hammourabi avait bien géré la société d’association cartésienne, les tentatives
mésopotamienne avec des règles de trois, et allégoriques des années 1950 auraient pu
l’Empire Byzantin s’était bien répandu sur être intéressantes ! L’abstraction des pre-
la terre avec une algèbre assez sommaire. mières machines capables de « résoudre des
Aucune des formes de calcul consommée problèmes » ne s’éloigne jamais de ces
par la société d’après-guerre ne peut allégories, inspirées de la biologie, de la
recevoir le qualificatif « d’intelligence arti- psychologie ou de la philosophie. Ces
ficielle », et encore moins ce qui est fait à premières abstractions, comme le note
l’époque dans les laboratoires universitaires Simon (ibid.) sont plus rhétoriques qu’heu-
(Simon, 1991). ristiques. La structure des langages de
Quand William H. Starbuck (1981) défie le programmation comme LISP, mais égale-
groupe de chercheurs réunis autour de Pugh ment les premières expérimentations
dans l’école (naissante) de la théorie de la comme le perceptron (Rosenblatt, 1956,
contingence, la première chose qu’il 1957a, 1957b ; Minsky et Papert, 1969),
Quand l’IA théorisera les organisations 143

reposent toujours sur le même principe que artificielle, n’ont pas de propos particulier
les êtres humains partent de problèmes et pour leur usage. Dans la même logique que
vont vers des solutions. C’est comme si le celle de Turing (1936), ces apprentissages
trait de génie de Turing (générer autant de profonds permettent d’entrer dans des
machines que possible jusqu’à ce qu’une logiques abductives, au sens de Blaug
trouve capable de générer le problème qui (1982), où il n’existe qu’une limite énergé-
satisfasse la solution) ou l’intuition fabu- tique et financière à la recherche de
leuse de Boole (le monde est fait de combinaisons du réel pouvant expliquer
conclusions probables) soient passés à l’as les combinaisons probabilistes qui émergent
par ce que la population mondiale comptait des apprentissages successifs des couches
de génies au XXe siècle. neuronales. L’apprentissage profond n’est
La structure dominante (de la conception de en somme qu’une formidable computation
machines à résoudre des problèmes) devint capable de reconnaître les éléments d’un
rapidement la séparation systématique entre réel préexistant ; c’est-à-dire qu’il peut,
« tout ce que l’on sait » (propositions, grâce aux capacités de calcul contempo-
base de données, entrées) et tous les raine, trouver ces « conclusions probables »
opérateurs logiques pouvant s’y appliquer. (Boole, 1854), ces modèles combinatoires
En d’autres termes, un paradigme de l’ap- sous-jacents qui expliquent le mieux, pro-
prentissage « stationnaire » s’installe dès la bablement, les éléments épars et saillants
conception initiale des premiers apprentissa- isolés par les filtres successifs des appren-
ges artificiels. tissages bruts.
Essayons d’en détailler les principes. Trois La deuxième « poussée » de l’après-guerre
impulsions décisives façonnent, autour est celle initiée par la Rand et le Carnegie
d’Herbert Simon, la naissance de l’intel- Institute of Technology, dont le nom
ligence artificielle après-guerre (1945- original était Groupe d’étude du « complex
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


1958). La première répond à une fascination information processing » (Simon, 1995,
de la montée en échelle de la puissance de p. 96). L’objectif était, sur le plan national
calcul, et l’objectif est de construire des américain, de produire avant le reste du
programmes informatiques capables de monde une théorie des systèmes intelli-
démontrer n’importe quelle forme d’intel- gents. Un des effets collatéraux de ce
ligence. Ce mouvement est assez similaire à programme de la Rand fut la conduite des
l’engouement des années 1990-2020 pour travaux menés sur la décision humaine par
les réseaux de neurones et l’apprentissage Jim March et Herbert Simon, qui aboutirent
profond. Il n’y a aucune révolution archi- à la publication Des organisations (1958), et
tecturale ou paradigmatique ; mais on peut créèrent les pierres fondatrices des sciences
soudainement repousser les limites physi- administratives (que l’on appelle aujourd’-
ques du brassage de données. En d’autres hui sciences de gestion).
termes, la révolution de l’apprentissage La troisième impulsion, toujours dans la
profond (deep learning) est celle d’enfants périphérie des financements nationaux de la
à qui l’on vient de confier des jouets à la RAND, de la Défense américaine et du
puissance démesurée (littéralement) ; mais programme présidentiel de reconstruction
qui, à l’instar des pionniers de l’intelligence (où Herbert Simon siégeait) était de pouvoir
144 Revue française de gestion – N°285/2019

« désincarner » cette intelligence, c’est-à- Par exemple, si je souhaite étudier la marée


dire d’en faire des systèmes-experts pouvant bretonne, et que je souhaite modéliser les
accomplir des tâches humaines, ou conduire vagues de la Côte d’Armor, qui sont
des véhicules, assurer un système de évidemment les plus belles de France, je
défense, protéger la stabilité d’un système peux supposer qu’il n’existe pas une infinité
de décision. d’expressions d’une vague ; c’est-à-dire
Pour Simon (1995, p. 97), ces trois agendas qu’au bout d’un moment d’observation, je
(comprendre l’intelligence, comprendre la pourrai très bien anticiper la forme de la
cognition humaine, extraire dans un système prochaine vague, ou l’apparition d’un
l’intelligence humaine) créèrent trois ressac. On assume ici que la « moyenne
communautés scientifiques très distinctes. temporelle » est à peu près identique à la
La première se consacrait au développement moyenne d’ensemble. On parle alors d’un
d’une théorie de l’intelligence ; la seconde processus stationnaire ; l’adjectif expri-
inventa les sciences cognitives (une vision mant ici que, dans son ensemble, le
fonctionnelle et mécaniste de la perception phénomène est considéré « stationnaire »,
humaine, qui réunissait psychologues, et se reproduira à l’identique. En d’autres
anthropologues et informaticiens) ; et une termes, on isole le modèle de la variable
troisième se consacra à explorer les capacités temps (akheros en grec moderne ; littérale-
de vérification et de preuves théoriques que ment, « en dehors du temps »).
pouvait apporter l’IA aux mathématiques, à D’un point de vue purement technique, un
la cryptographie, à la science du code. ordinateur est une machine stationnaire,
telle qu’imaginée par ses concepteurs, et
nous parlons ici autant d’un point de vue
II – L’ENFERMEMENT
philosophique qu’ingénierique, soit Leib-
STATIONNAIRE OU QUAND
niz, Babbage, Lovelace, Boole, etc. La
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


LES MACHINES ÉCHOUENT
structure sous-jacente du modèle n’évolue
À DÉSAPPRENDRE
pas avec le temps. Un ordinateur ne change
Mais une chose fut commune à ces trois pas de modèles quand il reçoit un signe
groupes sociaux : leur usage des ordinateurs. d’échec d’une opération. Il informe l’uti-
Ce que Turing en 1936 conçoit comme une lisateur que l’opération a échoué. Et c’est
« machine » abstraite est désormais rendu fort heureux : il serait bien difficile de gérer
possible par la programmation. La recherche un ordinateur dont les propriétés change-
devient fortement consommatrice d’échan- raient dès que l’on change son « repère
tillons aléatoires, de simulations et séries temporel ». Le comportement d’un sys-
stochastiques. Lorsque l’on veut étudier un tème d’information doit être déterminé, et
phénomène, il est utile de le considérer globalement, déterministe. « I am sorry,
comme le produit d’un processus ou d’une Dave, I’m afraid I can’t do that », la
distribution aléatoire ; et il est critique de réponse perverse de HAL dans A Space
pouvoir « isoler » le modèle, lorsqu’il Odyssey de Kubrick (1968), ne fait pas
émerge, ou lorsqu’il est postulé, en rendant partie, en dehors des films de science-
ses espérances mathématiques indépendan- fiction, de la population des comportements
tes du temps. attendus d’un système.
Quand l’IA théorisera les organisations 145

On retrouve différents degrés de stationna- l’extension du périmètre d’action d’un


rité dans de nombreux développements des dirigeant), l’existence de cette catégorie
probabilités et de l’intelligence artificielle. ne dépend pas de n.
La stationnarité « absolue » serait l’obser- Le raisonnement est tout aussi valide pour
vation d’un comportement toujours iden- une méthodologie quantitative. Nous modé-
tique quel que soit le point temporel t ou lisons à partir d’abrégés et de réductions, qui
t + n auquel est faite cette observation sont soit les théories existantes, soit des
(Widrow et al., 1976)3. relations que nous découvrons par une étude
Le qualificatif de « stationnaire » signifie qualitative, ou éventuellement, en procédant
qu’il existe une grande probabilité de à différentes triangulations (Jick, 1979).
retrouver un état donné qui soit une Un apprentissage « stationnaire » est donc
constante au cours de temps (la forme de un apprentissage qui, par facilité ou
la vague bretonne), même s’il existe de commodité de calcul, va « figer » un
nombreuses transitions entre les différents échantillon pertinent (former une ten-
états, plus ou moins imprévisibles (« des dance) ; c’est-à-dire se concentrer sur
sauts d’état »). Un état stationnaire est donc l’extrait du phénomène dont le motif semble
une loi d’équilibre dynamique, postulée, se répéter dans le temps. Par extension, on
promulguée (par échantillonnage) ou peut considérer que tout apprentissage qui, à
observée. partir d’un modèle antécédent, ou d’un
La plupart des activités de recherche se modèle « cible » ex post (en pensant à
conduisent par la médiation de modèles l’apprentissage profond), apprend l’évolu-
stationnaires ; notamment parce que nous tion des variables attachées à ce modèle,
recherchons la régularité d’un phénomène, sans questionner la permanence ou l’inva-
pour exprimer son caractère reproductible. riance du modèle sous-jacent, est un
Lorsqu’un chercheur mène une recherche apprentissage stationnaire4.
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


qualitative, il va émettre, depuis l’état de Un phénomène non stationnaire, dans une
l’art, ou les faisant émerger, tabula rasa, à série temporelle, n’affichera pas de tendance
partir d’une observation ethnographique, reconnaissable (moyenne et variance ne
des « catégories d’observation ». L’idée sont pas constantes dans le temps). Un
même de « catégories d’observation » dont apprentissage non stationnaire ne cherchera
on recherche la régularité appartient à une pas à maintenir une tendance, un schéma ou
conception stationnaire de la modélisation. un modèle sous-jacent invariant du temps.
Il ne s’agit pas d’un principe d’invariance. Il Par exemple, lorsque l’on veut détecter une
s’agit d’exprimer que, quelle que soit la anomalie comportementale dans un sys-
forme particulière n que peut prendre tème, on peut supposer que « n’importe
l’observation de ma catégorie (par exemple, quel programme ou application peut

3. C’est une notion importante lorsque l’on traite de séries temporelles. Si l’on utilise des séries temporelles non
stationnaires, on peut générer des régressions linéaires dont les résultats sont artificiels et erronés. On parle alors de
« régression fallacieuse » (« spurious regression », cf. Granger et Newbold, 1974).
4. Nous incluons donc ici des familles d’apprentissage qui ne répondent pas à la définition mathématique stricte de la
stationnarité, c’est-à-dire des processus stochastiques dont la distribution inconditionnelle des probabilités communes
ne change pas dans le temps.
146 Revue française de gestion – N°285/2019

accepter un large éventail d’entrées, imagination est capable de générer des


communiquer avec d’autres programmes, modèles superflus, placebos, réellement
et les chemins d’exécution choisis (où le distants de la réalité observée, mais qui
processus est localisé et ce qu’il y fait) sont nous permettent de maintenir notre flux
souvent au moins dépendant des entrées » d’action, ou notre ancrage dans la société (si
(Hourbracq et al., 2018, p. 3). Il n’y a pas de on choisit une perspective plus institution-
comportement « moyen » a priori, et le but nelle). Bref, nous changeons la « vague »
n’est donc pas de tester ou de prouver des selon les circonstances, nous « gelons » une
modèles émis à l’avance, mais de découvrir idéologie parce qu’elle nous permet de
ces modèles de façon automatique. Avec un poursuivre une théorie déjà démise par les
certain abus de langage, on peut estimer faits. Nous construisons des modèles qui
qu’un apprentissage non stationnaire peuvent expliquer nos données ; parce qu’il
découvre et apprend des modèles, pas des y a peu que nous puissions faire à propos de
variables. ces données.
La cognition humaine est profondément non Du point de vue l’intelligence artificielle, un
stationnaire. Starbuck (1963) douta très tel apprentissage serait non stationnaire,
rapidement des modèles qui supposaient autonome et non supervisé.5 Nous passons
une séquence figée entre la découverte d’un nos journées à théoriser en générant des
problème et la recherche, plus ou moins explications et des modèles très approxi-
optimale d’une solution. Dès 1963, il matifs de ce que nous observons. En
questionne à la fois la notion de « satisfic- d’autres termes, nous sommes des machines
ing » de Simon, les mesures de Siegel et la à produire des lois normales fantasques à
théorie des aspirations (attentes) de Festin- propos de n’importe quoi, et n’importe
ger. Ce que dit Starbuck est très simple : les quand. Dire que la rationalité humaine est
êtres humains ne maximisent pas leurs « limitée », à cet égard, fait preuve d’un
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


attentes d’une manière rationnelle (Festin- solide optimisme.
ger), pas plus qu’ils ne se contentent Il est intéressant de remarquer, à ce stade,
systématiquement d’un niveau satisfaisant que nos actes de théorisation scientifique
(Simon). Dans le choix de nos alternatives, ont peu en commun avec le fonctionnement
c’est-à-dire essayer d’atteindre nos buts au commun de notre cognition. Si ces
maximum, réduire nos ambitions, ou « approximations fainéantes » ne sont pas
inventer un but de substitution, nous à proprement parler des théories robustes
procédons par inférences ; nous ne per- (Weick, 1995), elles sont néanmoins l’arc
cevons pas toutes les conséquences de nos sous-jacent de toute théorisation : un dia-
choix ; cette perception n’est pas séquen- gramme, un schéma griffonné sur un coin de
tielle ; nos définitions subjectives du succès table, sont autant de quasi-théories, que
deviennent de plus en plus malléables au fur nous éprouvons ensuite par la méthode
et à mesure que ce succès s’éloigne. Notre scientifique. Une chose que, en tant qu’êtres

5. Le paradoxe humain est que nos comportements, de leur côté, sont profondément « stationnaires », au sens où la
programmation comportementale que nous nous imposons en tant qu’êtres humains est un élément vital de notre survie
individuelle et collective. Les routines, les saisons, les rituels, les institutions, les habitus, offrent un réceptacle
comportemental stable au foisonnement erratique de notre cognition.
Quand l’IA théorisera les organisations 147

humains, nous sommes incapables de faire d’une image, pour la deviner ou la


est d’apprendre des modèles sans les « désigner » par induction formelle.
connaître. Nous pouvons générer des
combinaisons de modèles qui peuvent
III – L’ACTE DE
expliquer un phénomène ; c’est-à-dire
DÉCOUVERTE SCIENTIFIQUE :
effectuer des sauts inductifs informels,
DE L’HUMAIN VERS LA MACHINE
imaginatifs, créatifs, entre des preuves
éparses et une théorie explicative inventée Peut-on, pour autant, parler de « machines
à la volée (la fameuse « abduction » de intelligentes » ? Chez Ivakhnenko (1968),
Blaug, 1982) ; Mais contrairement à une il y avait le désir de créer une nouvelle
machine (ici au sens d’algorithme), nous ne philosophie de la recherche scientifique.
pouvons être complètement « non station- Alexei Ivakhnenko cherche une solution à la
naires » : nous recherchons toujours à modélisation mathématique de processus
imposer une micro-explication stationnaire, dont on n’a aucune connaissance a priori. Il
une loi normale temporaire (une intuition), propose une approche, qu’il appelle l’ap-
puis une seconde, puis la combinaison de préhension des données par le groupement
plusieurs de ces lois temporaires. Nous (Group Method of Data Handling ou
sommes tellement « durcis » par ces micro- GMDH), qui consiste à assumer que le
théories professées que le seul moyen de résultat comportemental y d’un système
réellement s’en séparer est de désappren- inconnu, se comportera comme la fonction
dre ; en se débarrassant d’abord des mythes de ses m valeurs d’entrée. La proposition
rationnels, pour finalement se débarrasser théorique d’Ivakhnenko était elle-même
du « modèle » (Hedberg, 1981). inspirée des premières recherches sur les
La plupart des apprentissages machine ne perceptrons et le principe d’auto-organisa-
sont pas très différents des apprentissages tion (Madala et Ivakhnenko, 1994).
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


humains, parce qu’ils en sont tout sim- L’objectif était de formaliser une méthode
plement inspirés. L’inspiration derrière inductive permettant de résoudre des pro-
l’invention de l’apprentissage profond blèmes de reconnaissance, de modélisation
repose sur l’idée que le cerveau animal ou et de prédictions de processus aléatoires.
humain dispose d’architectures profondes, Mais l’idée d’Ivakhnenko était surtout de
constituées de réseaux de synapses qui créer une nouvelle « science » de la
réalisent le travail d’essai-erreur-apprentis- résolution de problèmes complexes, « uni-
sage de production de « théories qui fiant les théories de la reconnaissance de
fonctionnent ». L’idée fut dès lors, notam- formes et le contrôle automatique dans une
ment sous l’impulsion de Yann LeCun et de nouvelle métascience » (ibid., p. III). L’idée
Françoise Fogelman-Soulié (1987), mais du GMDH était de construire des modèles
grâce aux travaux d’Alexey Ivakhnenko mathématiques offrant une approximation
(1982) sur l’apprentissage statistique induc- des formes (patterns) inconnues de l’objet
tif ; de recréer cette capacité cognitive ou du processus étudié. Les composantes de
humaine en reproduisant ces différentes cette approche sont la génération auto-
couches de filtres synaptiques, capables de matique de modèles, l’utilisation dans la
reconnaître des caractéristiques éparses modélisation de décisions non conclusives
148 Revue française de gestion – N°285/2019

(à l’instar du fonctionnement réel d’une dans une production scientifique. Pour


cognition humaine), accompagné d’une Reichenbach, le « contexte de la décou-
sélection par paires des critères (prémices) verte » est l’ensemble des activités de
permettant une explication externe finale recherche conduites en milieu naturel,
optimale du système complexe inconnu. opposant ainsi l’expérience à la prédiction ;
Cette procédure est celle qui est utilisée la connaissance naturelle, empirique et
aujourd’hui, en 2020, dans les modèles de positive, à son test et à sa mise à l’épreuve
deep learning (apprentissage profond). (le « contexte de justification »).
Utilisant son approche GMDH, Ivakhnenko Le bon sens de ce postulat ne tarda pas à
construisit le premier réseau de neurones faire de Reichenbach un auteur légitime
profond à huit couches en 1971 ; faisant de (Schiemann, 2006, p. 24), et d’installer
lui le créateur du premier apprentissage durablement l’idée d’une opposition, dans
profond. l’acte scientifique, entre une phase empi-
L’opportunité qu’Ivakhnenko essayait de rique de recueil de données, et une phase
saisir était la formidable capacité des logique de tests et de validation. C’est ce
machines (calculateurs, ordinateurs) à sys- que nous appellons « la part humaine »
tématiser l’exploration de modélisations par dans la découverte scientifique : notre
l’extraction directe de connaissance à partir questionnement, nos problématisations,
d’un dispositif expérimental ; ce qu’il qui peuvent ressembler à une génération
appela tour à tour des « mécanismes de automatique de modèles approximatifs
prédiction cybernétique » ou encore des (Weick, 1995 ; Ivakhnenko, 1968) sont
modèles d’auto-organisation. À la diffé- toujours les dérivés d’une implication
rence d’un être humain, une machine peut sociale : dans une communauté scientifique,
« épuiser » les tests de possibilités de qui nous juge, nous paye, nous promeut ou
relations (causales, de covariance, de nous dégrade ; dans une société, préoccupée
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


mutualité d’information, etc.). N’y avait-il par des questions triviales, comme par
pas là un moyen de faire de la « science » exemple, le remplacement « machine-
différemment ? (Mitroff et Kilman, 1977) homme ».
Nous englobons communément dans le Une critique évidente de la proposition de
terme de « science » tout autant l’idée de Reichenbach est qu’il est difficile de séparer
corpus de connaissances, l’activité humaine ce qui appartient au contexte et ce qui
produite par des scientifiques que l’institu- appartient à une modélisation abstraite.
tion sociale émettant et contrôlant sa Notre recueil de données, notre apparte-
légitimité et son statut. Ce faisant, nous nance au monde naturel, n’est pas un
créons un amalgame entre l’activité de ensemble mécanique. Si bien que la
découverte scientifique et son mécanisme « reconstruction rationnelle », qu’il
sociétal de validation (Ziman, 1968, p. 11). emprunte à Rudolf Carnap (1928), ne peut
Cette distinction entre le contexte de la réellement atteindre cet « ordre optimal »
découverte et le contexte de justification, où les observations et leurs conséquences
introduite par Reichenbach (1938), prend sont rangées dans un système cohérent
une dimension nouvelle dans la perspective (Reichenbach, 1938, p. 5). En imposant une
d’une intelligence artificielle impliquée dichotomie entre un acte « neutre » de
Quand l’IA théorisera les organisations 149

recueil, fondé uniquement sur l’ordonnan- traduction de langage, de recueil de


cement logique de ses étapes, et un activité renseignement militaire et capables de
d’abstraction lui étant ultérieure, Reichen- résoudre des problèmes par l’induction
bach installe un paradigme qui deviendra logique » (Rosenblatt, 1957b, p. 1).
dominant dans les sciences contemporai- Mais dès les années 1980, le propos de
nes : celui de la modélisation stationnaire et l’apprentissage machine se sépare en deux
du cycle « modélisation – tests – approba- voies très distinctes. La voie de « l’heu-
tion », qui précepte l’idée de modèles à ristique augmentée » ou de la découverte
celui de données. automatique de modèles (Turing à l’origine
Un réseau de neurones est familier de la en 1936, puis Ivakhnenko en 1965) aban-
conception séparatiste présentée par donne clairement la partie au profit de
Reichenbach. Le « contexte de la décou- l’école de la reconnaissance (audio, vidéo,
verte » y est un processus de recueil images). Deux éléments peuvent peut-être
ordonné et logique. Une capture de données expliquer cette scission. Le premier est la
recueille les plus infimes parties du réel disponibilité de la donnée. L’extraction
observé, et essaye ensuite, dans un d’images, telle qu’elle est préfigurée par
« contexte de justification », et par induc- Fukushima et son « neocognitron » (1980)
tion formelle, de rapprocher de manière permet une production infinie de dispositifs
probabiliste chacun de ces éléments à une expérimentaux ; la donnée pouvant être un
forme déterministe appartenant à un autre enregistrement audio, une banque d’images.
ensemble de probabilités conduisant, par Le second tient à la transformation de nos
tests successifs, à la reconnaissance pro- sociétés contemporaines et des pratiques de
babiliste d’une forme ou d’une réponse la recherche scientifique.
vraisemblable. Le réseau de neurones est La disponibilité de la donnée est accompa-
respectueux du dogme fondateur de l’em- gnée d’une forte demande des financeurs,
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


pirisme logique : les données brutes ne font notamment les agences de recherche de la
pas l’objet d’une interprétation singulière. défense américaine, qui entrent dans l’ère
L’outlier (l’élément discordant dans le d’une écologie martiale numérique où la
nuage de points) ne fait pas l’objet d’une dominance stratégique s’affiche déjà, dès
exploration ex ante. 1980, comme une vectorielle de la maîtrise
L’ancêtre des algorithmes d’apprentissage de l’interprétation de données (satellitaires,
profond contemporains, le perceptron de militaires, communication). Toutes les
Frank Rosenblatt (1957) fut le premier à applications de reconnaissance, poussées
proposer une substitution machine à l’ap- par ces financements, s’épanouissent forte-
prentissage humain. Il était fondé sur un ment dans la décennie 1980-1990, que ce
principe de séparabilité statistique, permet- soit dans la reconnaissance de formes, la
tant, d’après Rosenblatt, « la reconnais- synthèse vocale ou la prédiction verbale.
sance de patterns complexes avec une C’est d’ailleurs un financement du Bureau
efficacité bien plus grande que les ordina- pour la recherche navale (Office of Naval
teurs courants ». Ceci est écrit le 3 avril Research – ONR) qui permit à Rumelhart
1957 : « Les dispositifs de ce type sont et al. (1986) de proposer leur modèle de
appelés à être capable de formalisation, de rétro-propagation (« back-propagation »)
150 Revue française de gestion – N°285/2019

qui montre qu’un réseau de neurones peut de reconnaître de façon non supervisée un
apprendre à filtrer son apprentissage. chat à 16 000 processeurs et 20 millions de
Les premières applications sociétales advin- vidéos YouTube.
rent rapidement : les réseaux convolutio-
nistes de Yann LeCun (1987) permettaient
IV – L’INDUCTION EST-ELLE
la reconnaissance de l’écriture manuscrite
RÉELLEMENT MON AMIE ?
de près de 20 % du volume des chèques
traités aux États-Unis au début des années Mark Blaug (1982, p. 12-25) offrait en 1982
1990 ; jusqu’à ce que l’on réussisse, une réflexion pertinente sur le « problème de
notamment avec les travaux de Schmidhu- l’induction », qui peut se résumer ainsi :
ber, de Cortes ou de Vapnik à étendre à un nous sommes limités par le nombre d’ob-
très grand nombre (1 000 +) la possibilité de servations que nous pouvons humainement
couches successives d’apprentissage. Ce conduire ; ce nombre est si restreint que cette
qui était une communauté scientifique poignée de faits bruts constitue déjà des
devint très rapidement un paradigme indus- théories ; et ainsi, « il n’y a pas de logique de
triel ; avec la naissance du cyberespace à la la découverte et il n’y a pas d’avantage de
fin des années 1990 ; et la transformation logique démonstrative de la justification » (p.
numérique de la plupart des économies 25). Blaug proposa dès lors une forme de
occidentales (1998-2020) qui permet de positivisme aménagé (Koenig, 1993) consis-
monétiser l’apprentissage profond en réali- tant à accepter l’idée qu’il existe une réalité
sant une segmentation marketing inverse objective testable ; et que celle-ci pouvait
(rapprocher un client d’un segment pré- être atteinte par abduction, c’est-à-dire par
existant que l’on vise). Google, Facebook, ces fameux sauts inductifs réalisés, aujourd’-
Amazon firent de ces sauts inductifs par hui, par les réseaux de neurones d’un
deep learning le levier de leur croissance apprentissage profond, qu’il soit en rétro-
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


mondiale. propagation ou en apprentissage adverse
La recherche en « intelligence artificielle » (apprenant contre lui-même).
devint obsessionnelle autour de trois L’apprentissage profond est supposé résou-
concepts : les modules d’entraînement des dre les limites inhérentes à la limitation
réseaux de neurones (« Trainable classifier cognitive individuelle ; incluant le risque de
modules ») ; les modules d’extraction de « pré-théoriser » puisqu’un réseau de neu-
données ; et l’accumulation de données rones cherche aveuglément toute combinai-
exploitables. Un régime stratégique de la son possible. Le premier écueil est que le
donnée (« Data drives learning ») s’installa sous-espace vectoriel de la pensée est très
brutalement et durablement, en préparant des limité par rapport à la pensée elle-même.
sets de données gigantesques pré-indexés Quelle soit prise dans un sens hypothético-
permettant d’accélérer l’entraînement, mais déductif ou dans le sens inverse (inductif ou
surtout de vérifier sa pertinence (l’ImageNet abductif), la pensée humaine ne peut être
de Fei-Fei Li à Stanford avec ses 14 millions réduite à un problème connexionniste. Si
d’images indexées) ; jusqu’à l’expérimenta- l’apprentissage profond devait aboutir à une
tion du « chat » en 2012, de J. Dean et A. Ng reproduction du sens commun, il aboutirait
(Stanford/Google) consistant à être capable à une émulation parfaite de l’esprit grégaire.
Quand l’IA théorisera les organisations 151

On pourrait imaginer que l’intelligence d’appréciation de l’audience. Une machine


artificielle pourrait intervenir en amont de qui n’est pas intelligente peut ainsi générer
ces sauts imprévisibles entre intuition et un effet le plus proche de l’aspiration
découverte ; c’est-à-dire en aidant le cher- humaine à reconnaître ou vouloir croire ;
cheur à trouver les combinaisons les plus les concurrents des épreuves annuelles des
contre-intuitives (au sens de Davis, 1971) ; tests de Turing, consistant à prouver qu’une
c’est-à-dire à lutter justement contre le biais machine peut faire croire à un humain
institutionnel qui fait que les chercheurs qu’elle est humaine, sont habitués de ce
citent plus souvent les chercheurs réputés et genre de stratagèmes. Elle fait, ou elle dit, ce
notoires, en comprenant très rarement le qui est le plus proche de l’attente de la cible.
sens de la paternité scientifique, et en Le deep learning procède de la même
essayant de maximiser le ratio d’impact manière. Sa performance d’imitation
de leurs citations. Mais une telle hypothèse devient une asymptote à la réalité au fur
ne serait efficiente que si nous séparons et à mesure qu’on sature son apprentissage.
l’égo de la création scientifique ; c’est-à- Par exemple, les moteurs de traduction
dire « désindividualiser » les processus de fondés sur l’apprentissage profond excellent
découverte où l’égo du scientifique (ou la dans l’imitation d’un style d’écriture6 ; si
bataille d’égos) peut devenir toxique, bien que l’on peut facilement imaginer que
comme une revue de la littérature (qui est les machines intelligentes de proof-reading
avant tout une sélection politique et un et les agents conversationnels arriveront
calcul de positionnement), l’établissement sans doute à produire automatiquement des
d’un argumentaire pour ou contre un état de textes au plus près des attentes de la
l’art ; les choix « opportuns » d’oublier la communauté éditoriale, du peer-review
paternité d’un concept, en le reprenant à son d’Administrative Science Quarterly (ASQ)
compte pour ensuite invoquer qu’une pure ou du Journal of Management Studies
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


coïncidence ait généré un plagiat involon- (JMS) avant 2030.
taire. Le seul moyen serait de créer des L’apprentissage adverse (generative adver-
« magmas connexionnistes » permanents, sarial learning), qui consiste à forcer des
vivants, non supervisés et non stationnaires : réseaux de neurones convolutionistes à
des états de l’art en devenir permanent, apprendre contre eux-mêmes, peut sans
défaits des institutions et des égos, qui doute offrir une substitution pertinente à
conduiraient en permanence des argumenta- l’intuition ; si au lieu d’entreprendre un
tions et contre-argumentations logiques pour apprentissage stationnaire, on force cet
transformer un état de l’art en un commons apprentissage sur une introspection non
scientifique. Mais quel serait dès lors la stationnaire (c’est-à-dire dans la recherche
source d’énergie d’une telle infrastructure ? d’un modèle en dehors des tendances
Les chercheurs essayent d’être convain- reconnaissables ou apprises qui expliquent
cants. On peut réussir un test de Turing en mieux les données). En bref, on peut
réalisant une projection convaincante ; ou apprendre à un réseau, à un modèle, à ne
en « sapant », en « sabotant », la capacité s’intéresser qu’à ce qui le surprend ; et lui

6. Pour une démonstration d’un moteur de traduction fondé sur de l’apprentissage profond : www.deepl.com
152 Revue française de gestion – N°285/2019

offrir une opposition dialectique, avec tout dans cet article. Le premier quadrant (nord-
ce qui reçoit le plus grand score d’agrément ouest) est celui du paradigme historique :
scientifique. des démarches stationnaires ; des révolu-
Le problème est qu’il n’existe pas réellement tions scientifiques fondées sur des remises
de ground truth (de mesure étalon réelle) en cause des agréments considérés comme
pour cette forme de théorisation automa- acquis ; une logique dominante hypothé-
tique ; c’est-à-dire que l’établissement de la tico-déductive. Sans surprise, l’intelligence
preuve passera toujours par une dimension artificielle y joue un rôle de productivité de
politique : par la traduction d’une connais- la donnée (« data drives learning »). Ce
sance métier, par l’établissement et le quadrant pourrait s’intituler « le nouveau
contrôle de puits de données. On peut management scientifique » tant il en épouse
argumenter que l’aléa soit plus performant l’idéologie et la téléologie. Sur le plan des
que le travail de la communauté scientifique : implications managériales, le seul effet
un apprentissage profond et non stationnaire prévisible est la disparition – définitive –
cherchera tout modèle théorique, à partir des middle managers dont le rôle contem-
d’un existant de modèles pouvant être porain n’a été que d’exercer une coercition
combinés, permettant au mieux d’expliquer servile à partir d’indicateurs clés de per-
un phénomène. Il est à parier que cela sera formance. N’importe quel apprentissage
sans doute moins caricatural que les pro- profond non supervisé peut en effet faire
ductions qui s’enrobent de contre-intuitions mieux qu’un humain en la matière.
pour se rendre intéressantes (Davis, 1971) ; Le quadrant sud-ouest est celui de l’appren-
ou qui sont produites par de véritables tissage artificiel inductif formel ; ce qui est
conglomérats du proof-reading et de vas- réalisé aujourd’hui par les réseaux convolu-
salités éditoriales, cherchant à plaire à tionistes ou l’apprentissage adverse. Ces
l’éditeur d’ASQ, du SMJ, ou de JMS, plus approches permettent de dépasser non pas
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


qu’à créer une révolution théorique. nos limites cognitives individuelles (le
L’autre problème d’une théorisation non cerveau humain restant un calculateur à forte
stationnaire, non supervisée et autonome ; performance) ; mais la faiblesse de notre
c’est-à-dire générée uniquement par des capacité individuelle ou collective d’impré-
machines, est qu’elle risque de systématiser gnation. Un chercheur confirmé maîtrise
un effet « ELIZA » dans la production entre 500 et 1 000 références théoriques
scientifique. L’effet « ELIZA » renvoie au (articles qu’il ou elle a lu et est capable
nom de l’agent conversationnel de Joseph d’articuler aux 500/1 000 autres). Plus il ou
Weizenbaum (1966) qui était programmé elle vieillit, plus il ou elle va se réfugier dans
pour imiter un psychothérapeute rogérien, des répertoires de réponses figées, ou
mais qui abusait de techniques de relance possédera-t-il d’une plus grande capacité
placebo (« Qu’est-ce que X te suggère ? » ; personnelle à tordre la réalité pour la faire
« Je ne suis pas sûr de bien comprendre ») ; entrer dans l’étroite fenêtre de sa culture
mais cela est déjà le cas sans apprentissage scientifique personnelle. L’exploration
artificiel. machine inductive offre ici un réel espoir
Le tableau 1 résume les quatre formes pour le renouvellement de toutes les sciences
d’usage de l’IA pour la recherche identifiées sociales ou sciences exactes à moyen terme ;
Quand l’IA théorisera les organisations 153

Tableau 1 – Formes d’apprentissages machine et théorisation

Apprentissage stationnaire Apprentissage non stationnaire


(explorer les variations (apprendre des modèles,
de modèles connus) pas des variables)

Exploration – Améliorer l’efficacité du traitement – Amélioration des échantillonnages


déductive de très larges données (Orion Spur, par le contrôle ex ante ou ex post de
découverte d’exoplanètes, leur non-stationnarité (extraction de
classification de galaxies, séquences caractéristiques)
ADN d’AlphaFold de DeepMind). – Modélisation de phénomènes dont la
– IA passive ou productive, non-stationnarité est intrinsèque (sujets
homomorphique aux corpus de aux dérives, systèmes complexes non
connaissances établis, y compris dans déterministes, dont les propriétés
l’institutionnalisation de la diffusion. probabilistes changent avec le temps :
– Le nouveau management sciences cognitives, marchés
scientifique financiers, biologie moléculaire,
séquençage ADN, etc.)

Exploration – L’apprentissage profond et/ou – Découverte de relations inconnues


inductive adverse permet de rendre possible entre des séries de variables ;
des sauts inductifs irréalisables avec production autonome et non
la seule intuition humaine ; mais la supervisée de modèles à partir de
pertinence de l’espace vectoriel données brutes
sélectionné par la machine est – Détection des faux positifs et des
aléatoire (et peu précis) faux négatifs, en essayant de générer
– Détection d’anomalies ou une infinité de modèles pouvant
d’événements rares et inhabituels expliquer un phénomène. Le
dans de larges sets de données. phénomène restant inexpliqué est un
– « Agents conversationnels » faux positif.
permettant de conduire une – Apprentissage adverse de machine
discussion scientifique (verbale), de peer review (l’algorithme fait la
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


la rédiger, et de dialoguer avec le recension en cherchant à générer un
chercheur (lève les barrières modèle qui explique mieux que les
disciplinaires) modèles soumis)

dans la mesure où – dans une perspective scientifiques, soumis à des évaluations


stationnaire – un ensemble algorithmique quantitatives de la performance, forcent les
peut sublimer une communauté scientifique, chercheurs à sacrifier le labeur de l’abstrac-
en corrigeant les travers et les limites de ses tion et de la créativité, par celui de la
processus d’évaluation et d’adoption des conformation et de la maximisation de
nouvelles idées scientifiques. l’espérance de publication (le fameux publish
Les deux derniers quadrants sont les plus or perish, qui est asymptotiquement littéral).
passionnants (nord-est et sud-est) car ils sont Le premier quadrant (nord-est) est déjà à
à même de révolutionner la recherche l’œuvre. Les modèles d’apprentissages
scientifique en général, et le management artificiels les plus récents sont tout à fait
en particulier. La plupart des champs capables, dans un paradigme déductif, de
154 Revue française de gestion – N°285/2019

faire émerger des modèles (des abstractions, temps), et quelques inconvénients (il faudra
des découvertes de relations insoupçonnées) modéliser la persévérance dans l’échec ;
à partir de corpus non stationnaires (au sein une grande qualité humaine).
desquels il est impossible d’établir une
tendance ou de figer un modèle a priori).
CONCLUSION
Ces développements qui concernent l’as-
tronomie, la physique quantique, le séquen- Nous passons beaucoup de temps à tâton-
çage de l’ADN, n’ont pas, pour l’instant, de ner, accrochés à l’espoir que nous avons
monétisations évidentes, et n’ont pas encore trouvé une question intéressante (Davis,
réussi à modifier les habitus de la recherche 1971) ; qui puisse susciter l’intérêt d’un
scientifique. comité de lecture ; devenir une publication ;
Le dernier quadrant (sud-est) est celui d’une avoir ensuite une réelle existence : être citée
intelligence artificielle apprenant des modè- ou être discutée. La façon dont nous
les, pas des données. Il combine une produisons nos recherches demande des
exploration inductive qui reprend littérale- efforts titanesques et constitue une forme
ment à son compte les intuitions de Boole, archaïque de labeur humain. Nous navi-
Turing, Ivakhnenko et Blaug (ou encore de guons dans des quantités exponentielles de
Starbuck, 1983) : les êtres humains recher- références, avec pour seul outil d’excava-
chent généralement des problèmes qui tion un moteur sémantique très primaire,
peuvent expliquer leurs solutions, et rare- composé de nos yeux, de notre heuristique
ment l’inverse ; si bien que la cognition biaisée et imparfaite et d’un clavier. Nous
machine, pour se rapprocher de l’excep- nous épuisons à lire des quantités d’articles
tionnelle versatilité et performance de la qui ne répondent pas à nos questions ; qui
cognition humaine, devrait s’inspirer d’une ne sont pas reproductibles; dont les résultats
conception qui découvre de manière auto- sont laissés « à notre libre interprétation ».
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


nome l’ensemble des modèles pouvant Nous composons des hypothèses qui nous
expliquer une donnée ; la vérification se semblent prometteuses ; nous instrumen-
réalisant par l’existence d’un modèle expli- tons ; nous échouons ; nous soumettons,
catif, plus ou moins proche en termes de resoumettons.
probabilités (Boole) de la conclusion la plus Ce processus est doublement stationnaire ;
vraisemblable (Weick). À l’instar du cer- d’une part, dans la méthodologie indivi-
veau humain, et telle fut l’intuition de la dualiste de production (it’s all about us),
cybernétique à sa fondation, une machine parce que nous assumons que nous devons
doit être motivée non pas par le systéma- trouver un modèle (une récurrence, un
tisme de ses requêtes mais par sa capacité à motif, un schéma) que nous soumettons à
se surprendre elle-même, à savoir ce qui est l’épreuve des tests empiriques ; et d’autre
incongru, à se passionner pour les événe- part, parce que le moteur d’acceptation de
ments qui résistent à son pouvoir explicatif. nos propositions théoriques (nos modèles,
Dès lors, les machines pourront sans doute nos articles) est une hybridation de coopta-
théoriser à l’égal des hommes, avec tion institutionnelle et de recensions en
quelques avantages (l’institutionnalisation double aveugle dont la fiabilité et la capacité
et la cooptation algorithmiques prendront du réelle d’exploration sont douteuses.
Quand l’IA théorisera les organisations 155

Les premiers rituels d’évaluation en double (Alvesson et Sandberg, 2013 ; Ioannidis,


aveugle furent créés en Grande Bretagne au 2005). La recherche scientifique humaine
XIXe siècle ; mais le rôle des évaluateurs n’a jamais été aussi abondante. Le seuil des
n’était pas de sanctionner les articles, mais 50 millions d’articles scientifiques publiés
d’accompagner leur amélioration (Csiszar, dans le monde fut franchi en 2010. Depuis la
2016). Les rapports rédigés par les acadé- création du Journal des savants en France
miciens étaient destinés à être débattus en en 1665, la production humaine d’articles de
public ; un système qui perdura jusqu’à la recherche n’a cessé de croître pour atteindre
moitié du XIXe siècle, avant, que peu à peu, un niveau de production annuelle de 2,5
le secret soit réclamé sur les rapports, puis millions de publications scientifiques (à
les débats eux-mêmes. L’anonymat et le comité de lecture), à un taux de croissance
formalisme de ces rapports ne virent dépassant les 10 % depuis 2010, soit
finalement le jour qu’au début du XXe l’équivalent d’un doublement du volume
siècle. La plupart des journaux scientifiques de publications scientifiques mondiales tous
n’avaient ainsi aucun processus d’évalua- les neuf ans (Bornmann et Mutz, 2015).
tion formel avant l’après Seconde Guerre L’intelligence artificielle n’est pas une
mondiale. Zyman (1968) suggère que cette révolution de la donnée ; et les données
formalisation n’avait pas beaucoup avoir ne seront jamais des théories. Les appren-
avec la matière scientifique, mais résultait tissages profonds sont incapables de décou-
d’une solidification du métier de « scienti- verte. Qu’ils soient convolutionistes, ou
fique » dans la société. Si un employé de qu’ils soient adverses, ils ne font que
bureau devait répondre à ses supérieurs, construire le chemin inductif entre des
comment pouvait-on s’assurer du même éléments épars qui sont peut-être inconnus
égard envers un scientifique ? Les budgets à l’observateur, mais qui – toujours – sont
qui furent engagés dans le cadre de la eux-mêmes issus d’une réalité préexistante.
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


reconstruction, du Plan Marshall et de la La seule intelligence artificielle est celle qui
création du bureau présidentiel pour la est capable d’inventer un modèle explicatif,
science aux États-Unis, dont Herbert Simon inconnu de l’homme, ignoré de l’état de
était un membre, jouèrent également un rôle l’art, pouvant expliquer une donnée ou une
décisif dans la formalisation des processus conclusion, sans le recours à la reconnais-
de peer review. sance combinatoire.
La recherche contemporaine en sciences Pour les sciences de l’organisation, cela
sociales est l’objet de trois formes de implique de former à la recherche diffé-
critiques récurrentes : son incapacité à remment. Il ne faut plus enseigner les
proposer des questions intéressantes (Davis, canons méthodologiques, et attendre une
1971 ; Bartunek et al., 2006) ; son déclin soumission dévote à des dogmes quantitatifs
dans la production de théorisations concep- ou qualitatifs, mais enseigner au contraire la
tuelles transformatives (Grandy et Mills, modélisation non stationnaire, non super-
2004 ; Hillman, 2011 ; Baumard, 2017 ; visée ; en somme, se libérer de l’incarcéra-
Starbuck et Baumard, 2009) ; et sa produc- tion disciplinaire, et refaire des sciences de
tion exponentielle d’articles scientifiques l’organisation une discipline cybernétique,
dont les résultats ne peuvent être reproduits comme l’avait désiré un de ses fondateurs,
156 Revue française de gestion – N°285/2019

Herbert Simon. L’intelligence artificielle est avec des agents conversationnels, qui porte-
chez elle dans ces sciences de l’organisation ront en eux aussi bien la vivacité d’esprit
emprunteuses, fouineuses, indisciplinées, d’un Turing, le mysticisme mécaniste d’un
voleuses, qui ont réussi depuis le groupe Ivakhnenko (1970), tout en étant capable de
RAND du Carnegie Institute of Technologie produire des modèles qu’une pensée
à emprunter à toutes les disciplines possi- humaine courante n’aurait jamais su conce-
bles et imaginables. Que peut-on dès lors voir. La vraie question reste, et a toujours
espérer de plus enivrant que ces débats vifs été : What’s next ?

BIBLIOGRAPHIE
Alvesson M. et Sandberg J. (2013). Constructing Research Questions: Doing Interesting
Research, Sage Publications.
Bartunek J.M., Rynes S.L. et Ireland R.D. (2006). “What makes management research
intereting, and why does it matter?”, Academy of Management Journal, vol. 49, no 1,
p. 9-15.
Baumard P. (2008). “Using Machine Foreknowledge To Enhance Human Cognition”,
Bayesian Belief Networks: A Practical Guide to Applications, Naim O., Pourret et Marcot B.
G. (Eds), Wiley, New York, p. 365-375
Baumard P. (2017). « Enquête sur la disparition de la théorisation en stratégie », Le Libellio
d’Aegis, vol. 13, no 2, p. 31-49.
Blaug M. (1982). La méthodologie économique, Economica, Paris (traduction de).
Boole G. (1854). An Investigation of the laws of thought, on which are founded the
Mathematical Theories of Logic and Probabilities, McMillan, London.
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


Bornmann L. et Ruediger Mutz. (2015). “Growth rates of modern science: A bibliometric
analysis based on the number of publications and cited references”, Journal of the
Association ofr Information Science and Technology, vol. 66, no 11, p. 2215-2222.
Carnap R. (1928). Der logische Aufbau der Welt, Weltkreis, Berlin.
Csiszar A. (2016). “Peer review: Troubled from the start”, Nature, no 532, p. 306-308,
21 April.
Davis M.S. (1971). “That’s Interesting! Towards a phenomenology of sociology and a
sociology of phenomenology”, Philosophy of the Social Sciences, vol. 1, no 2, p. 309-344.
Fukushima K. (1980). “Neocognitron: A self-organizing neural network model for a
mechanism of pattern recognition unaffected by shift in position”, Biol. Cybernetics, vol. 36,
p. 193-202.
Grandy G. et Mills A. (2004). “Strategy as simulacra? A Radical re exive look at the discipline
and practice of strategy”, Journal of Management Studies, vol. 41, no 7, p. 1153-1170.
Granger C.W.J. et Newbold P. (1974). “Spurious regressions in econometrics”, Journal of
Econometrics, vol. 2, p. 111-120
Quand l’IA théorisera les organisations 157

Hedberg B., Nystrol P. et Starbuck W.H. (1976). “Camping on seesaws: Prescriptions for a
self-designing organization”, Administrative Science Quarterly, vol. 21, p. 41-65
Hedberg B. (1981). “How organizations learn and unlearn”, Handbook of Organizational
Design: Adapting Organisations to Their Environment, P. Nystrom and W. Starbuck, Eds.,
Oxford University Press, Oxford, p. 1-27.
Hillman A. (2011). “Editor’s comments: What is the future of theory?”, Academy of
Management Review, vol. 36, no 4, pp. 606-608.
Hourbracq M., Wuillemin P.-H., Gonzales C. et Baumard P. (2018). « Apprentissage et
sélection de réseaux bayésiens dynamiques pour les processus online non stationnaires »,
Revue d’Intelligence Artificielle (RIA), Réseaux bayésiens et modèles probabilistes, vol. 32,
no 1, p. 75-109.
Ioannidis J.P.A. (2005). “Why most published research findings are false”, PLoS One
Medicine, vol. 2, no 8, p. 696-701
Ivakhnenko O.G. (1982). Inductive Method of Models Self-Organisation for Complex
Systems, Naukova Dumka, Kyiv.
Ivakhnenko O.G. (1968). “The Group method of data handling – A rival of the method of
stochastic approximation”, Soviet Automatic Control, vol. 13, no 3, p. 43-55.
Ivakhnenko O.G. (1970). “Heuristic self-organization in problems of engeneering
cybernetics”, Automatica, vol. 6, p. 364-378.
Jick T.D. (1979). “Mixing qualitative and quantitative methods: Triangulation in action”,
Administrative Science Quarterly, vol. 24, no 4, p. 602-611
Jones R.V. (1975). “The theory of practical joking – An elaboration”, Bulletin of the Institute
of Mathematics and Its Applications, vol. 11, p. 10-17,
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


Kimberly J.R. (1981). “Managerial innovation”, Handbook of Organizational Design, P.C.
Nystrom & W.H. Starbuck (eds), vol. 1, Oxford University Press, New York, p. 84-104.
Koenig G. (1993). « Production de la connaissance et constitution des pratiques
organisationnelles », Revue de Gestion des Ressources Humaines, vol. 9, p. 4-17.
LeCun Y. et Folgeman-Soulié F. (1987). « Modèles connexionnistes de l’apprentissage »,
Intellectica. Apprentissage et Machine, J. Quinqueton, J. Sallatin, Eds), vol. 1, no 2-3,
Association de Recherche Cognitive, Paris, p. 114-143.
Madala H.R. et Ivakhnenko A.G. (1994). Inductive Learning Algorithms for Complex System
Modeling, CRC Press.
McCulloch W. et Pitts W. (1943). “A logical calculus of the ideas immanent in nervous
activity”, Bulletin of Mathematical Biophysics, vol. 5, p. 115-133.
McFarland M. (2016). “What AlphaGo’s sly move says about machine creativity”,
The Washington Post, 15 mars.
Miller G.A., Galanter E. et Pribram K.H. (1960). Plans and the Structure of Behavior,
Holt, Rinehart & Winston, New York.
158 Revue française de gestion – N°285/2019

Minsky M. et Papert S. (1969). Perceptrons, M.I.T. Press, Oxford, England.


Mitroff I. et Kilman R. (1977). “Systemic knowledge: Toward an integrated theory of
science”, Theory and Society, p. 4103-4129
Newell A. et Simon H.A. (1972). Human Problem Solving, Prentice-Hall, Englewood Cliffs,
N.J.
Newell A. et Simon H.A. (1976). “Computer science as empirical inquiry: Symbols and
search”, Communications of the ACM, vol. 19, no 3, p. 113-126.
Newell A. (1983). “Intellectual issues in the history of artificial intelligence”, The Study of
Information: Interdisciplinary Messages, F. Machlup et U. Mansfield (Eds), John Wiley &
Sons, New York.
Reichenbach H. (1938). Experience and Prediction. An Analysis ofthe Foundation and
Structure of Knowledge, University of Chicago Press, Chicago, Ilinois.
Rosenblatt F. (1956). “The Perceptron: A probabilistic model for information storage and
retrieval in the brain”, Psychological Review, vol. 65, p. 386-407.
Rosenblatt F. (1957a). “The perceptron: A perceiving and recognizing automaton”, Cornell
Aeronautical Laboratory, rapport pour de Dept de solutions de défense aérienne (ADSS),
US gov.
Rosenblatt F. (1957b). “Proposal for the development of a perceiving and recognizing
automaton: Perceptron”, preliminary copy, received by Cornell Aero Lab, April 3.
Rosenbleuth A., Wiener R. et Bigelow J. (1943). “Behavior, purpose and teleology”,
Philosophy of Science, vol. 10, p. 18-24.
Rosset Clément. (1977). Le réel – traité de l’idiotie, éditions de Minuit, Paris.
Rumelhart D.E., Hinton G.E. et Williams R.J. (1986). “Learning representations by back-
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)


propagating errors”, Nature, vol. 323, no 6088, p. 533-536.
Sapolsky H.H. (1972). The Polaris System Development, Harvard, Cambridge, MA.
Schiemann G. (2006). “Inductive justification and discovery: On hans reichenbach’s
foundation of the autonomy of the philosophy of science”, Revisiting Discovery and
Justification, J. Schickore and F. Steinle (eds.), Springer, p. 23-39.
Simon H. (1991). “Artificial intelligence: Where has it been, and Where is it going?”,
IEEE Transactions on Knowledge and Data Engineering, vol. 3, no 2, p. 128-136.
Simon H.A. (1995). “Artificial intelligence: an empirical science”, Artificial Intelligence,
vol. 77, no 1, p. 95-127.
Starbuck W.H. (1981). “A trip to view the elephants and rattlesnakes in the garden of Aston”.
Perspectives on Organization Design and Behavior, Van de Ven, Andrew H. and Joyce,
William F. (Eds.), Wiley-Interscience, New York, p. 167-198.
Starbuck W.H. (1983). “Organizations as action generators”, American Sociological Review,
vol. 48, no 1, Feb., p. 91-102
Quand l’IA théorisera les organisations 159

Starbuck W.H. et Baumard P. (2009). « Les semailles, la longue floraison et les rares fruits de
la théorie de l’organisation », Comportement organisationnel, Tome III : Théorie des
organisations, motivation, engagement, Rojot J., Roussel P., Vandenberghe C. (Eds),
De Boeck, Bruxelles, p. 15-58.
Turing A.M. (1936). “On computable numbers, with an application to the Entsheidungs
problem”, Proceedings of the London Mathematical Society, vol. 43, p. 230-265.
Weick K. (1995). “What Theory is Not, Theorizing is”, Administrative Science Quarterly,
vol. 40, no 3, p. 385-390
Weizenbaum J. (1966). “ELIZA n°A computer program for the study of natural language
communication between man and machine”, Communications of the Association for
Computing Machinery, vol. 9, no 1, p. 36-45.
Widrow B., McCool J.M., Larimore M.G. et Johnson C.R. (1976). “Stationary and
nonstationary learning characteristics of the LMS adaptive filter”, Proceedings of the IEEE,
vol. 64, no 8, p. 1151-1162.
Ziman J. (1968). Public Knowledge. An Essay Concerning the Social Dimension of Science,
Cambridge University Press.
© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

© Lavoisier | Téléchargé le 20/03/2024 sur www.cairn.info (IP: 196.67.222.58)

Vous aimerez peut-être aussi