Académique Documents
Professionnel Documents
Culture Documents
Ludwig von Bertalanffy, dans son ouvrage majeur « Théorie générale des systèmes » (Dunod
1980) met en évidence trois caractéristiques présentes dans tous les systèmes vivants,
individuels et collectifs.
1. Principe d'équifinalité :
Qu'énonce ce principe ?
Dans tout système vivant le même état final peut être obtenu à partir de conditions initiales
différentes. (von Bertalanffy p. 38)
A l’inverse, le principe que nous a inculqué le paradigme mécaniste (Newton) est celui-ci :
A partir de conditions initiales identiques, le même état final est toujours obtenu. C’est le
principe d’unifinalité.
Mais ce principe d’unifinalité, qui est hérité de la Physique et de la Chimie classiques, ne se
vérifie que pour les opérations physiques et chimiques simples. Il trouve ses limites dès qu’on
aborde les comportements des systèmes complexes en général et des systèmes vivants en
particulier.
2. principe de complexification :
Qu'énonce ce principe ?
tout au long de leur existence, les systèmes vivants accroissent leur organisation.
A l’inverse, le principe que nous a inculqué la thermodynamique est celui-ci :
« La tendance générale des événements dans la nature physique est d’aller vers des états de
désordre maximum et des nivellements de différence, avec comme vision finale ce qu’on
appelle la mort calorique de l’univers. »
(von Bertalanffy p. 39)
Ce principe est en fait le second principe de la thermodynamique, le principe de Carnot-
Clausius connu aussi sont le nom de principe d’entropie.
La thermodynamique, au 19ième siècle, a constitué une révolution au sein de la physique et
lui a permis d’aborder tous les domaines que la physique mécanique ne pouvait qu’ignorer
parce que trop étrangers à ses lois. Mais, appliquée aux système vivants, la thermodynamique
échoue à rendre compte du fait que, à l’évidence, les systèmes vivants, loin d’obéir à la loi
d’entropie et de se diriger vers des états de désordre maximum et des nivellements de
différence, montrent la caractéristique inverse : ils accroissent indéfiniment leur organisation
et produisent de la différence, c'est-à-dire de l’information… jusqu’à ce que la mort les
rattrape, bien entendu !
3. principe d’homéostasie :
Claude Bernard écrivait ceci, en 1865:
« Tous les mécanismes vitaux, quelque variés qu'ils soient, n'ont toujours qu'un but, celui de
maintenir l'unité des conditions de la vie dans le milieu intérieur. »
Et en 1938, Walter Cannon (neuro-physiologiste américain, né en 1871, mort en 1945, dont
nous reparlerons en Master 1) reprenait ce modèle génial, en le complétant et en lui donnant le
nom d’homéostasie :
« Les êtres vivants supérieurs constituent un système ouvert présentant de nombreuses
relations avec l'environnement. Les modifications de l'environnement déclenchent des
réactions dans le système ou l'affectent directement, aboutissant à des perturbations internes
du système. De telles perturbations sont normalement maintenues dans des limites étroites
parce que des ajustements automatiques, à l'intérieur du système, entrent en action, et que de
cette façon sont évitées les oscillations amples, les conditions internes étant maintenues à peu
près constantes (...). Les réactions physiologiques coordonnées qui maintiennent la plupart
des équilibres dynamiques du corps sont si complexes et si particulières aux organismes
vivants, qu'il a été suggéré qu'une désignation particulière soit employée pour ces réactions:
celle d'homéostasie. »
C'est à partir de ces trois premiers éléments que la biologie, puis les sciences humaines, se
sont peu à peu arrachées aux modèles classiques de la physique mécanique et
thermodynamique, et ceux de la chimie minérale.
Equifinalité, complexification et homéostasie sont aujourd’hui parties intégrantes des modèles
de la complexité du vivant.
Mais, concrètement, quelles sont les implications de ces trois principes en psychologie et, plus
précisément, en psychothérapie ?
1) équifinalité : A partir du fait que pour tout système vivant le même état final peut être
obtenu à partir de conditions initiales différentes, il devient évident qu’il n'y a pas « une »
bonne manière de soigner efficacement un système humain, il y en nécessairement plusieurs !
Cela signifie qu’aucun principe thérapeutique ne peut prétendre à l'exclusivité quant-à
l'efficace, toutes les études sérieuses faites sur l’efficacité générale des psychothérapies
montrent que, parmi les techniques suffisamment connues, aucune ne dépasse les autres, si ce
n’est sur quelques spécialités, ces spécialités se payant parfois d’une grande inefficacité dans
leur prétention à soigner les troubles auxquels elles ne sont pas dédiées. Nous étudierons cela
en détail en L2.
2) complexification : A partir du fait que tout au long de leur existence, les systèmes vivants
accroissent leur organisation, il devient évident qu’un système humain possède en lui-même
d'importantes capacités d’auto-régulation, c'est-à-dire aussi d'auto-guérison. Nous verrons
qu’en psychothérapie, soigner consiste essentiellement à faire le nécessaire pour que ces
capacités se réveillent là où elles avaient cessé de se manifester (mon collègue et ami Guy
Ausloos appelle cela « la compétence des familles ».
3) homéostasie : A partir du fait que les effets des perturbations en provenance du milieu sont
maintenus dans des limites étroites grâce à des ajustements automatiques qui entrent en action
à l'intérieur du système, de façon les conditions internes du système sont maintenues à peu
près constantes, il devient évident que ce qui, dans les différents modèles
psychothérapeutiques a été appelé « résistance », relève des processus homéostatiques
présents dans tous les systèmes vivants et indispensables à leur survie. Il convient donc de
travailler dans le plus grand respect de cette fonction vitale, c'est-à-dire, par exemple,
d’utiliser l’action combinatoire (qui consiste à ne jamais intervenir massivement en un seul
point d’un système complexe, mais au contraire rétroagir avec lui, nous laisser influencer par
lui, en combinant dans le temps et dans l’espace une série d’interventions fines dont le résultat
des premières va définir et orienter les suivantes).
Quand gregory Bateson, qui est un des plus grands penseurs du 20ième siècle, parle de «
spécialistes en sciences du comportement », il fait référence à l’ensemble des chercheurs et
des praticiens en psychologie, en psychiatrie et en sociologie : nous sommes donc directement
concernés.
Qu’est-ce que Bateson appelle « la structure fondamentale de la science » ?
En fait, pour répondre à cette question, il nous faut faire un détour par l’épistémologie, par
cette logique des logiques, dont le but est de déterminer les origines logiques de chaque
science, leur valeur et leur portée.
« La science, comme l’art, la religion, le commerce, la guerre (…), est fondée sur des
présuppositions. »
Gregory Bateson, La nature et la pensée.
Spontanément, nous avons de la science une idée toute simple : depuis l'aube de l'humanité,
des hommes qu'on appelle savants ou chercheurs ont concouru à l'accumulation de données et
d'expériences qui, s'articulant les unes aux autres au fil du temps, permettent à l'humain de
progresser dans sa compréhension de la réalité du monde naturel.
Cette vision de la science semble tomber sous le sens. Cependant, si nous nous penchons un
instant sur les implications logiques de cette innocente définition, il nous apparaît deux choses
pas innocentes du tout :
- la science y est définie comme se développant par le fait d'une accumulation linéaire,
progressive et continue de données,
- la science y est définie comme une voie d’accès directe au monde naturel.
La notion de développement par accumulation linéaire nous a été très largement distillée, par
les manuels scolaires, puis par les manuels scientifiques. Nous imaginons donc volontiers que
les connaissances scientifiques se dégagent progressivement de la boue des superstitions ;
l’implication logique de ce schéma linéaire est que l'intelligence humaine progresserait et
grandirait au même rythme… et que, donc, nous serions beaucoup plus intelligents que
Socrate, Platon, Averroès ou Copernic, ce qui est évidemment du dernier ridicule.
Les historiens ont donc contribué, dans un premier temps, à forger puis à véhiculer cette
vision idyllique voulant que les connaissances scientifiques se dégagent progressivement de la
boue des superstitions, et que l'intelligence humaine progresse et grandisse au même rythme,
grâce à quelques savants géniaux à qui on pouvait attribuer telle ou telle découverte ou
invention : les historiens obéissaient à une logique particulière :
- le soucis de la cohérence du récit,
- le soucis de la simplicité du récit,
Ils construisaient une belle courbe monotone allant du bas vers le haut, émaillée de quelques
noms et de quelques dates considérés comme très significatifs, cette logique leur permettait de
considérer comme négligeables tous les détails trop compliqués à intégrer ou trop dissonants,
qu'ils définissaient comme des péripéties.. Pour la physique mécanique, par exemple, il fallait
se contenter de trois noms en 2000 ans : Aristote (né en 384 av. JC), Galilée (né en 1584),
Newton (né en 1642) ; ça fait quand même beaucoup de péripétie négligées !
L’épistémologie est aussi la science qui élabore une théorie générale des sciences dans leurs
contextes historiques et culturels.
A partir du 20ième siècle, l’histoire des sciences s’est donnée les outils de l’épistémologie, les
historiens des sciences sont devenus des épistémologues.
Après qu’ils aient fait tomber ce premier mythe d’une science lisse, progressant linéairement
par accumulation, ils se sont attaqués à un second mythe très important, qu’ils n’ont pas tardé
à faire tomber : le mythe du réalisme scientifique, selon lequel la science travaille sur la
réalité du monde naturel et qu’elle dévoile progressivement la réalité de l’univers.
Pour Popper les vérités scientifiques ne sont que des erreurs en sursis.
Ecoutons-le :
« j’en arrivais à cette conclusion que l’attitude scientifique était l’attitude critique. Elle ne
recherchait pas les vérifications mais des expériences cruciales. Ces expériences pouvaient
réfuter la théorie soumise à l’examen, jamais elles ne pouvaient l’établir. » Popper K. (1934)
La logique de la découverte scientifique.
Les épistémologues, puis les scientifiques eux-mêmes, mettent peu à peu en évidence ceci que
le scientifique, pas plus que quiconque, n’a aucun accès direct au monde extérieur, qu’il ne
fait que construire des mondes, des univers de sens et des univers de significations.
Actuellement, tous, peu à peu adoptent ce qu’on appelle le modèle constructiviste, c'est-à-dire
qu’ils admettent que l’humain, que ce soit par l’intermédiaire de ses sens, de son intelligence
ou des matériels les plus performants, n’a aucun accès direct au monde extérieur : il ne peut
qu’en construire des représentations, des modèles dont il n’a que l’espoir qu’ils soient proches
du monde réel, sachant que le monde réel ne se manifeste à eux que dans leurs échecs, là où
les modèles ne marchent pas ! (Varela)
De nos jours, il n’est pas un épistémologue, pas non plus un chercheur conséquent, qui
n’admette la thèse constructiviste.
Jean-Pierre Changeux, neurobiologiste, écrit ceci :
« le scientifique construit des modèles qu’il confronte au réel. Il les projette sur le monde, les
adopte ou les rejette en fonction de leur adéquation avec celui-ci sans, toutefois, prétendre
l’épuiser. La démarche du scientifique est débat critique, « improvisation déconcertante »,
hésitation, toujours consciente de ses limites. »
Changeux 1994, J-P Raison et plaisir. Odile Jacob.
Bruno Latour et Michel Calon, qui sont les meilleurs représentants en France de l’école dite
des Sciences Studies, qui étudie les fonctionnements de la science dans le quotidien des
laboratoires, tiennent le même discours :
« la nature ne parle pas d’elle-même ; les faits scientifiques sont construits. (…) Entre « la
réalité » et le discours tenu sur elle, se situe un ensemble d’opérations qui introduisent une
équivalence et qui permettent aux scientifiques de parler au nom de la nature, en traduisant
les résultats qu’ils obtiennent dans leurs laboratoires. »
(Calon, Latour op. cit. p. 8).
Le modèle constructiviste est donc actuellement le modèle le plus consistant dont disposent
les scientifiques : vous avez constaté que les chercheurs les plus prestigieux s’en réclament
clairement. Il faut savoir, cependant, que le noyaux dur du corps scientifique, la cohorte des
tâcherons est toujours ancrés dans ses certitudes naïves d’un accès direct au monde et de la
vérité scientifique.
Quant à nous, nous retiendrons que l’activité scientifique ne consiste pas en un dévoilement
progressif de l’univers : elle construit des univers.
Nous allons voir que les structures de la pensée sont historiquement déterminées, qu’elles
évoluent au fil de l’histoire des sociétés. Plusieurs fils d'Ariane sont susceptibles de nous
fournir une intelligibilité de ces processus ; commençons par celui que propose un physicien
américain, Thomas S. Kuhn.
Lire absolument :
Thomas S. Kuhn, La structure des révolutions scientifiques,1983, Paris, Flammarion.
Kuhn est physicien et non historien de formation ; ce détail biographique possède son
importance car, au début des années cinquante, lorsqu'il commence ses travaux
d’épistémologie, les modèles mentaux, les grilles de pensée, susceptibles d'aider à voir d’un
œil nouveau les fonctionnements de la science n'existaient que dans le champ de la
philosophie dont, par principe, les scientifiques ignorent tout.
Kuhn compare incidemment les manuels scientifiques qui l'ont accompagné tout au long de
ses études universitaires avec les travaux récents des historiens des sciences. Cela se passe à
l'occasion d'un enseignement qu'on lui demande de produire : un enseignement de physique
pour des non-scientifiques. Il s’aperçoit alors qu’il lui est impossible de faire coïncider les
récits documentés de l'histoire de la physique avec la présentation parfaitement lisse et
continue des manuels à l’usage des physiciens.
Non seulement il s’aperçoit que ce que les manuels scientifiques imposent comme allant de
soi les trois conditions dont nous avons parlé plus haut ne collent absolument pas avec travaux
les plus récents en histoire des sciences, rappelez-vous :
· qu'à chaque étape on soit capable d'isoler, pour une invention ou une découverte, son auteur,
et la dater ;
· que les théories dépassées soient contraires à la science, puisque abandonnées ;
· que le développement de la science n'ait eu pour entrave que l'obscurantisme et les
superstitions
Vous avez bien pris note de ceci : ce type de paradigme, nous l’appellerons paradigme local,
parce que chaque discipline et même chaque sous-discipline, possède le sien. Nous
distinguerons en effet un second type de paradigme, de niveau supérieur : les paradigmes-
maîtres dont nous parlerons plus tard.
· Au XIX° siècle, Fresnel et Young découvrent que la lumière résulte du mouvement d'une
onde transversale.
La découverte fait grand bruit dans le monde scientifique et, après d'âpres luttes d'Ecoles, le
corps scientifique dans son plus large ensemble admet la découverte de Fresnel et Young ;
tous les opticiens établissent leurs recherches à partir de cette base, qui est devenue la réalité
de la lumière, et même aussi la vérité sur la lumière : la lumière résulte du mouvement d'une
onde transversale.
· Au XX° siècle, Planck et Einstein découvrent que la lumière est constituée de photons, c'est-
à-dire d'entités de la mécanique quantique, qui présentent certaines caractéristiques des ondes
et certaines caractéristiques des particules.
La découverte fait grand bruit dans le monde scientifique et, après d'âpres luttes d'écoles, le
corps scientifique dans son plus large ensemble admet la découverte de Planck et Einstein ;
tous les opticiens établissent leurs recherches à partir de cette base, qui est devenue la réalité
de la lumière, et même aussi la vérité sur la lumière : la lumière est constituée de photons.
La psychologie est très intéressée par la manière dont ces paradigmes locaux se transmettent,
des laboratoires vers le grand public : en effet, le phénomène qui consiste, pour chacun
d’entre nous, à entériner les paradigmes en vigueur ne relève pas d’un choix théorique ou
idéologique, pas plus que d’un choix conscient : le niveau logique en cause est d’ordre
cognitivo-affectif. Quand un astrophysicien vous parle du big bang, vous croyez qu’il vous
parle d’un fait, d’une réalité ; beaucoup d’astrophysiciens le croient aussi. Mais ce n’est rien
d’autre qu’un paradigme local, qui d’ailleurs est actuellement combattu par un paradigme
concurrent radicalement divergent : celui de l’univers quasi-stationnaire.
Cette façon que nous avons de nous soumettre aux paradigmes en vigueur les habille des
qualités du naturel : ils sont à la fois intangibles et incontestables. La tâche des
épistémologues est donc assez présomptueuse, puisqu’ils soulèvent un coin du décor que les
scientifiques et tout le monde dans une époque avec eux confondent avec la réalité du monde.
Il apparaît donc que la science normale fonde son activité sur une double présomption :
- elle « sait » comment est constitué le monde naturel,
- et elle prétend y avoir accès.
Ce qu’on appelle « science moderne », qui est le modèle scientifique développé entre le
18ième et le 20ième siècle, est donc une science « réaliste ». On parle de réalisme doctrinal et
de réalisme méthodologique, pour désigner des variations dans cette croyance.
Et les paradigmes locaux du moment lui servent de regard sur le monde, sans que les
scientifiques normaux ne se posent jamais la question de savoir que ce regard sur le monde
n’est en fait que ce que les lunettes de leurs paradigmes locaux dessinent.
Ne nous hâtons pas pour autant de considérer les scientifiques comme des êtres de peu
d'exigence, qui conféreraient à la première trouvaille venue le prestigieux statut de paradigme.
Thomas Kuhn attire notre attention sur le fait que, en optique par exemple, avant Newton
aucun paradigme ne s'était dégagé des recherches pourtant nombreuses et fournies concernant
la nature de la lumière.
Lorsque Newton lance dans le champ de l'optique : « la lumière est constituée de corpuscules
matériels », il ne met pas tout le monde d'accord, pour au moins quatre raisons :
- cette affirmation se trouve être en contradiction plus ou moins complète avec toutes les
hypothèses en présence,
- l'hypothèse de Newton ne répond pas à toutes les questions que pose le corps scientifique à
cette époque, concernant la nature de la lumière,
- certaines des hypothèses concurrentes restent même plus performantes, sur des points
particuliers,
- les scientifiques détestent la nouveauté
L'étude des documents d'époque, faite par Kuhn, révèle ce détail gommé par les manuels :
l'hypothèse de Newton rencontra tout d'abord une vive résistance de la part de ses confrères
physiciens (« ils sont souvent intolérants envers (les théories) qu’inventent les autres » écrit
Kuhn). Il reste que, jusqu'alors, aucune des Ecoles en présence n'offrait une assertion qui soit
assez large et assez féconde pour que les opticiens, dans leur ensemble, abandonnent leurs
bribes de théories et fondent le champ de leurs recherches sur une assertion unique.
Large et fécond : voilà deux clefs pour le succès d'un paradigme local.
Un paradigme local ne résout pas les questions posées par les scientifiques avant lui. Vous
avez entendu que Kuhn attire notre attention sur ceci qu’il n'est presque jamais en tous points
plus performant que le paradigme local précédent. Mais il offre, et cela se vérifie à chaque
fois, des perspectives de recherches larges, nombreuses, fécondes, en déplaçant le champ de la
recherche... A partir de quoi, peu à peu, le corps scientifique se met tout uniment au travail et
construit un nouvel épisode de la science normale.
Un nouveau paradigme local, donc, ouvre toujours sur le futur et ne fait jamais grand cas du
passé. En d’autres termes, il ouvre un nouveau présent pour une discipline scientifique.
Toutes ces remarques nous conduisent à repérer une chose importante : le rôle de la science
normale ne consiste pas à mettre à l'épreuve le paradigme choisi, comme l'idée naïve que nous
avons de la science nous le fait pourtant croire. Son rôle consiste plutôt à démontrer de toutes
les manières possibles la validité et la pertinence du paradigme, tout en approfondissant et en
enrichissant à l'infini ses implications... mais seulement ses implications :
« Parmi les gens qui ne sont pas vraiment des spécialistes d'une science adulte, bien peu
réalisent quel travail de nettoyage il reste à faire après l'établissement d'un paradigme(...).
(les opérations de nettoyage) constituent ce que j'appelle ici la science normale qui, lorsqu'on
l'examine de près, soit historiquement, soit dans le cadre du laboratoire contemporain,
semble être une tentative pour forcer la nature à se couler dans la boite préformée et
inflexible que fournit le paradigme. La science normale n’a jamais pour but de mettre en
lumière des phénomènes d’un genre nouveau ; ceux qui ne cadrent pas avec la boîte passent
même souvent inaperçus. Les scientifiques n’ont pas non plus pour but, normalement,
d’inventer de nouvelles théories, et ils sont souvent intolérants envers celles qu’inventent les
autres. Au contraire, la recherche en sciences normales est dirigée vers l’articulation des
phénomènes et théories que le paradigme fournit déjà. »
« les domaines explorés par la science normale sont (...) minuscules », ajoute Kuhn ; nous
savons tous qu'un biologiste passera volontiers quinze ans de sa vie sur la perméabilité de
telle cellule et que, durant ces quinze années, il pourra ne penser à rien d'autre ! Nous savons
aussi qu’un chercheur en psychologie cognitive pourra passer quinze ans de sa vie à observer
des enfant de 5 ans en train de tracer des ronds, pour établir de façon certaine que « l’enfant
moyen » commence le rond par la gauche et non par la droite. C'est précisément cette manière
qu'a la science de s'attacher à un détail, comme si rien d'autre n'avait d'importance qui lui
confère la précision dans l'étude que nous lui connaissons.
Mais c’est aussi ce qui lui donne parfois ces côté dérisoires au regard des urgences
civilisationnelles et au regard des nécessités pratiques.
Un exemple, à présent, qui nous aidera à bien saisir l’efficacité avec laquelle un paradigme
local impose les limites de la « bonne vérité » à laquelle les chercheurs d’une époque doivent
se soumettre.
Avant le XVI° siècle et Copernic, le paradigme de l'astronomie était celui-ci depuis près de
3000 ans : la Terre est le centre de l'univers, la Terre est fixe. Ainsi, en astronomie il n'y a
donc plus eu de révolution scientifique à proprement parler, entre l'Antiquité et le XVI° siècle.
La Terre est le centre de l'univers, la Terre est fixe a donc été un paradigme extrêmement
stable, qui a donné du grain à moudre en quantité suffisante à 20 siècles de scientifiques
normaux.
Ce que les gens voyaient, quand ils regardaient le ciel, c’est un soleil qui tourne autour d’une
terre fixe (nous disons d’ailleurs toujours, « le soleil se lève / le soleil se couche » comme si
c’était le soleil qui bougeait autour de la terre et non l’inverse… : nous sommes donc toujours
de fait géocentristes !)
Et pourtant, les occasions de bousculer le paradigme, et même de le remplacer, n’ont pas
manqué de se présenter, et même très rapidement, au cours de ces deux millénaires :
- Philolaos, astronome pythagoricien (450-400 ; Ecole ionienne) élabore une théorie, dans
laquelle la terre fait en vingt quatre heures un cercle autour du feu central (qui n'est pas le
Soleil, mais derrière le Soleil).
- Héraclide (388-315 ; école d'Athène), pour expliquer le mouvement des étoiles, fait tourner
la Terre sur elle-même. Il fait aussi tourner Venus autour du Soleil.
- Aristarque (290 ; école d'Alexandrie), non seulement fait tourner la Terre sur elle-même,
mais il lui fait suivre une orbite circulaire autour du Soleil, lequel devient le centre de tous les
mouvements.
Il est assez remarquable que ces trois théories successives et très précoces, qu’à l’heure
actuelle il nous est facile de considérer comme géniales, n'obtinrent aucun succès dans le
corps scientifique en place. Elles n’avaient qu’un défaut mais un défaut majeur : elles
apportaient plus d’anomalies que d’énigmes, elles compliquaient les problèmes au lieu de les
simplifier. Le paradigme en vigueur était encore trop fécond, trop loin de l'épuisement.
A partir de ce paradigme géocentrique dont nous n'hésitons pas, aujourd'hui, à prétendre qu'il
constitue une erreur grossière (mais n’oubliez pas que dans quelques années nous dirons la
même chose du big bang), la science astronomique, bien stable sur ses bases, n’en a pas moins
accumulé pendant 20 siècles des inventions et des découvertes dignes d’intérêt :
- Hypparque (160-120) fonde la trigonométrie ;
- Erastosthene (273-192) met au point une méthode de mesure du rayon terrestre : deux cent
cinquante mille stades, soit un chiffre de très peu inférieur au nôtre ;
- Aristarque (290) calcule la distance de la Terre à la Lune. Il démontre, en outre, que le
diamètre de la Lune est égal au tiers du diamètre terrestre et que sa distance est de soixante
rayons terrestres.
Les soubresauts de l'histoire font que la tradition scientifique grecque passe vers le Moyen-
Orient et que ces travaux se perpétuent et se développent grâce aux savants arabes. Avec la
Renaissance, en Espagne d’abord, grâce à la coexistence entre monde arabe et monde chrétien
en particulier à Cordoue, puis en Italie et enfin en France, les travaux des scientifiques grecs,
romains, arabes sortent des oubliettes, dans un grand remue-ménage. Et dès le début du XV°
siècle, l'astronomie entame la crise qui aboutira à une révolution scientifique retentissante.
A Copernic (1475-1543) revient le mérite d'avoir rédigé le livre qui a fait exploser le
paradigme antique : De revolutionibus orbium caelestium. Il y expose le nouveau paradigme
qu’il n’a évidemment pas construit seul : le Soleil (helios) est le centre du monde, et le monde
céleste se meut selon un jeu de mouvements héliocentriques.
Paradigme et réalité.
Vous avez pu vérifier à travers tous ces exemples que si un paradigme local permet
effectivement à un corps scientifique de soutenir une représentation du monde, il ne lui
permet jamais, je dis bien jamais, d'appréhender la réalité du monde naturel.
Car, entre nous et le monde naturel, il y a la représentation, ou plus exactement la
modélisation, c'est à dire l'acte sensoriel puis intellectuel qui consiste à découper et à décrire
un objet ou un phénomène vu comme naturel, en construire un modèle, à partir de moyens qui
varient parfois considérablement d'une époque à une autre, d'une culture à une autre, d'un
individu à un autre.
Le physicien Bernard d’Espagnat écrit :
« la science ne peut fournir une vraie description discursive de la réalité indépendante. (...)
Elle n’atteint pas vraiment le réel tel qu’il est. » (d’E. p. 259)
Lire :
Bernard d’Espagnat, Penser la science, 1990, Dunod, Paris.
C'est une couleuvre difficile à digérer que celle qui nous contraint à admettre que nous
n'avons aucun accès direct à la réalité du monde naturel.
Je suppose que votre culture vous impose de connaître le film « Matrix ». Ce film est une
assez bonne métaphore de notre rapport au monde réel : comme les héros de Matrix nous en
subissons toutes les contraintes, sans jamais savoir ce que nous vivons et ce que nous rêvons ;
Francisco Varela le résume ainsi : « le monde réel intervient uniquement là où nos
constructions échouent », c'est-à-dire quand nos théories et nos expérimentations se heurtent à
un écueil.
Tant que nous ne nous heurtons à rien qui nous paraisse suffisamment significatif, nous
pouvons nous accrocher à la vérité telle que nous la construisons avec nos paradigmes, c'est-
à-dire au domaine de la croyance et de la foi.
Certes, la chute d’un paradigme semble tout particulièrement liée au fait qu’il a peu à peu
conduit les chercheurs concernés à se heurter à des écueils de plus en plus impossibles à
minimiser ; il n’en reste pas moins que l'adhésion à un nouveau paradigme local, pour un
groupe scientifique, n'est rien d'autre qu'un acte de foi car, au moment de cette adhésion, les
constructions que les scientifiques appellent preuves de sa véracité sont inexistantes ! Depuis
qu'existe la science, le paradigme en vigueur a toujours constitué la vérité hors de laquelle il
n'est point de science.
Admettons qu'il existe peu de chances pour que, soudain, aujourd’hui, pour nous tout
spécialement, les paradigmes locaux soient à présent confondus avec la réalité !
Paradigme et théorie.
Il faut insister sur un autre point : un paradigme ne se confond jamais avec une théorie. Dans
trois ans, nous verrons, en étudiant les travaux de Gregory Bateson, qu’il est fondamental de
ne jamais confondre deux niveaux logiques : paradigme et théorie appartiennent à deux
niveaux logiques différents. Un paradigme a toujours pour qualité de susciter, de subsumer,
de digérer successivement ou simultanément, un nombre plus ou moins grand de théories,
jamais l’inverse.
Le travail du scientifique.
Alors, en quoi, précisément, consiste le travail d’un scientifique, puisque nous avons vu qu’il
est incapable d’apporter la preuve de quoi que ce soit et puisque nous avons vu que les plus
grands scientifiques sont d’accord pour admettre qu’ils ne décrivent pas la réalité du monde,
mais qu’ils construisent des mondes ?
Humberto Maturana clarifie cette question de façon magistrale. Par la même occasion, il vous
donne quelques indications qui vous seront précieuses dans la construction de votre mémoire
de M1 qui est, comme vous le savez, un mémoire de recherche.
Maturana nous montre très simplement les conditions auxquelles une expérimentation doit se
soumettre pour qu’elle ait une valeur scientifique. Il définit quatre classes d’opérations dont la
seule condition est, impérativement, qu’elles doivent être cohérentes entre elles.
Vous avez remarqué que la seule chose exigible dans cette opération est la cohérence entre 1,
2, 3 et 4. il n’y a aucun besoin de la notion d’objectivité.
C’est ce que Maturana veut démontrer ici : l’objectivité n’est pas du tout une nécessité dans la
procédure scientifique. L’observateur est toujours au centre de la procédure :
« quand nous déclarons qu’une explication est scientifique, nous ne disons rien d’autre que
ceci : des observateurs sont arrivés à un accord qui satisfait à des conditions (1, 2, 3 et 4) et
qui a quelque chose à voir avec l’expérience humaine ». (Maturana H. in Segal Lynn (1990)
Le rêve de la réalité, Seuil, Paris. P.90)
science et progrès :
En outre, Kuhn attire notre attention sur le caractère illusoire de la notion de progrès ; la
science progresse, mais elle progresse vers nulle part, et l’humain d’aujourd’hui n’est en
aucune façon plus intelligent que les égyptiens d’il y a 3500 ans ou les grecs d’il y a 2500 ans.
Jacob von Uexküll, dans sa Théorie de la signification, traite lui aussi du progrès, celui de
l’univers humain :
« Ce progrès, tant vanté, qui est censé conduire les êtres vivants d’une origine imparfaite à
un état de perfection toujours plus élevé, n’est-il pas au fond une vue de petits bourgeois qui
spéculent sur le bénéfice croissant d’une bonne affaire? » (p. 143)
Lire absolument :
Von Uexküll (1956), Mondes animaux et mondes humains, Gonthier, paris.
Au sein d’une époque et d’une société donnée, le paradigme maître en vigueur détermine la
bonne façon de penser et d’agir du scientifique, biologiste, physicien, chimiste, etc., du
praticien, médecin et psychologue, ainsi que celle de monsieur et madame Tout-le-monde.
A l’heure actuelle, nous avons une chance extraordinaire : deux paradigmes maîtres se
disputent le terrain de la science, c'est-à-dire aussi le terrain de la bonne manière de dessiner,
de penser le monde et d’agir sur lui : le paradigme cartésien et le paradigme de la complexité.
Puisqu’il est toujours plus facile de faire référence à l’histoire qu’à l’actualité
(paradoxalement, le passé est toujours plus visible que le présent, parce que dessiné de façon
plus stable), voyons comment le paradigme-maître cartésien s’est construit.
Il semble, en fait, qu’une conjonction soit toujours nécessaire, entre une nouvelle logique
forte et une nouvelle science forte (une science-reine). Il y a donc eu Descartes (1596-1650)
pour la logique, mais il y a eu Newton (1642-1727) pour la science-reine.
L'épistémologue se pose nécessairement une question à propos de cette époque : que s’est-il
passé, qui a permis à la physique de décoller soudain et avec une telle puissance avec
Newton ? Newton arrive et tout bascule : les Ecoles existantes sont balayées, et la plupart des
scientifiques adoptent peu à peu les thèses newtoniennes.
Nous avons vu que Newton a offert un nouveau paradigme local en optique avec sa théorie de
la lumière, mais il ne s'est pas du tout borné à cela. Il a surtout inventé la théorie de la
gravitation universelle. Ce faisant, il a offert au corps scientifique de son époque un
fantastique cadeau : il lui a offert un appareil d'interprétation de l'univers naturel non plus
construit, comme les précédents appareils d'interprétation de l'univers naturel, sur des bases
mythiques ou religieuses, mais construit sur des bases mathématiques. Newton offre au corps
scientifique une grande cosmogonie (une grande histoire sur le monde) comme seules
jusqu’alors les religions en avaient inventées (le livre de la genèse par exemple).
Ce que Newton provoque, avec la théorie de la gravitation universelle, est l’avènement
triomphal d’une « science reine » qui va structurer le discours de toute la science, pas
seulement la physique, je dis bien toute la science, durant plus de deux cent ans.
Avec trois paramètres, Masse / Espace / Temps, Newton explique et maîtrise l’univers naturel
: il calcule l’accélération d’un corps (E = F/M), sa force (F = ME/T2) et son énergie (D =
ME2/T2) et, avec ça, il prédit et explique le mouvement des planètes, il transforme l’univers
en une immense mécanique, soudain compréhensible et prévisible dans ses mouvements.
C’est pourquoi on appelle indifféremment ce paradigme maître : paradigme cartésien ou
paradigme mécaniste.
Newton offre à la postérité un nouveau langage pour décrire le monde, un langage structuré
par trois items fondamentaux, que le paradigme-maître naissant extrait de l’univers de la
métaphysique et redéfinit à sa façon :
l’ordre : avant Newton il n’y avait d’ordre que divin et donc impénétrable ; avec Newton,
l’ordre devient mécanique, intelligible et prévisible.
la quantité : avant Newton, Descartes et quelques autres, l’univers était d’abord vu comme
une somme de qualités ; le quantitatif relevait plus du dénombrement que de la mathématique.
Avec Descartes, Newton, Leibniz, l’ordre du monde est un ordre quantifiable, mathématisé.
le déterminisme : avant Newton et Descartes, le monde était certes déterminé, mais par
l’ordre divin, impénétrable et imprévisible ; avec Newton cette détermination est redéfinie
comme étant le résultat d’un jeu parfaitement mathématisable entre masse, espace et temps.
Cette nouvelle description du monde impose ceci : toute influence d’un élément de l’univers
sur un autre élément de l’univers ne peut être que matérielle et mesurable en termes de masse,
d’espace et de temps. Nous assistons à la naissance de la science moderne, science
matérialiste par excellence.
Souvenez-vous, au début de ce grand chapitre, je vous ai cité une petite réflexion de Gregory
Bateson :
« Le soi-disant spécialiste en sciences du comportement, qui ignore tout de la structure
fondamentale de la science et de 3000 ans de réflexion philosophique et humaniste sur
l’homme - qui ne peut définir, par exemple, ni ce qu’est l’entropie ni ce qu’est un sacrement -
ferait mieux de se tenir tranquille, au lieu d’ajouter sa contribution à la jungle actuelle des
hypothèses bâclées. » G. Bateson 1977 : Vers une écologie de l’esprit 1, p. 17)
C’est ainsi que toute discipline se trouvant dans l’impossibilité de se glisser dans le nouveau
carcan imposé par la physique mécanique se trouvait ipso facto exclue du champ de la
science.
C’est pour cette raison que la psychologie a commencé et continue désespérément à tenter de
se glisser dans ce carcan, à singer la science physique, malgré le fait qu’il ne lui convienne
pas du tout, persistant à se montrer aveugle sur ceci, qu’« il est aujourd’hui tout à fait évident
que la grande majorité des concepts de la psychologie, de la psychiatrie, de l’anthropologie,
de la sociologie et de l’économie, sont complètement détachés du réseau des fondamentaux
scientifiques. » (Bateson G. Vers une écologie de l’esprit 1, p. 16)
Mais continuons avec Newton et Descartes. Quels sont les fondements logiques qui encadrent
et soutiennent le tripode masse, espace, temps tel que Newton l’a offert à la science
physique ?
Le Lagarde et Michard n’a plus cours dans les lycées, et les étudiants en psychologie, comme
les enseignants du secondaire toutes disciplines confondues ont tous, ou peu s'en faut, oublié
les quatre préceptes des règles de la méthode. Cela n’a rien d’étonnant : cette amnésie, ajoutée
au fait que, sans le savoir, la plupart d’entre nous continuent à calquer fidèlement leurs
raisonnements sur les dits préceptes, constitue, à mes yeux, une démonstration de ce que, pour
nous, le corpus cartésien est toujours le paradigme maître.
Descartes l’énonçait ainsi :
« Le premier était de ne recevoir jamais aucune chose pour vraie que je ne la connusse
évidemment être telle (...).
« Le second, de diviser chacune des difficultés que j'examinerais en autant de parcelles qu'il
se pourrait et qu'il serait requis pour les mieux résoudre.
« Le troisième, de conduire par ordre mes pensées en commençant par les objets les plus
simples et les plus aisés à connaître, pour monter peu à peu comme par degrés jusques à la
connaissance des plus composés (...).
« Et le dernier, de faire partout des dénombrements si entiers et des revues si générales, que
je fusse assuré de ne rien omettre. »
Descartes ajoutait, en outre, quelques lignes plus loin :
« Ces longues chaînes de raison, toutes simples et faciles, dont les géomètres ont coutume de
se servir pour parvenir à leurs plus difficiles démonstrations, m'avaient donné occasion de
m'imaginer que toutes les choses qui peuvent tomber sous la connaissance des hommes
s'ensuivent en même façon, et que pourvu seulement qu'on s'abstienne d'en recevoir aucune
pour vraie qui ne le soit, et qu'on garde toujours l'ordre qu'il faut pour les déduire les unes
des autres, il n'y en peut avoir de si éloignées auxquelles enfin on ne parvienne, ni de si
cachées qu'on ne découvre.»
Evidence : Descartes écrivait : « Encore que tout ce que nos sens ont jamais expérimenté
dans le vrai monde semblât manifestement contraire à ce qui est contenu dans ces règles, la
raison qui me les a enseignées me semble si forte... (que même si l’expérience les récusait) je
préfèrerais des règles tirées de ma certitude à des témoignages qui ne sont obtenus que par
mes sens . » : voilà pour lui ce qui définit l’évidence ! Nos sens, c'est-à-dire nos perceptions,
ne nous renseignent pas sur le monde : seules nos logiques et nos théories nous permettent d’y
accéder. J’ajouterais : c'est-à-dire de le construire… en effet, sur ce point Descartes frôle la
posture constructiviste !
exhaustivité : localiser, repérer, décrire par le détail, la totalité des composants d’un objet
sans en omettre un seul ; ne rater aucune des relations de cause à effet dans la longue chaîne
de causalité linéaire par laquelle on peut décrire un phénomène, faute de quoi la conclusion
serait fausse.
Causalité linéaire : Tout événement, tout phénomène a une cause et une seule, dont il est
l’effet. La cause et l’effet sont intimement liés.
Nous avons donc A cause de B son effet. A précède nécessairement B.
A et B sont liés de telle façon que si A, la cause, disparaît, B, l’effet disparaît lui aussi.
Les articulateurs logiques sont : « si…, alors… » et « … parce que … »
Si A, alors B, ou B parce que A
Supprimons A, et B disparaît
Dit comme ça, ça peut vous paraître simpliste, mais ce fut une extraordinaire manière
d’organiser le monde en le simplifiant. Lier deux phénomènes de cette façon étroite et
rigoureuse, c’est ce Newton a fait en inventant la physique moderne, c’est aussi ce que
Pasteur a fait plus tard en inventant le modèle de l’agent infectieux sur lequel la médecine
moderne s’est entièrement modélisée.
Causalité linéaire chaînée : elle consiste à établir un enchaînement causal entre deux
événements éloignés. A est la cause de B qui est la cause de C qui est la cause de D qui est la
cause de E : à travers la chaîne B, C, D, nous avons A qui est la cause de E.
Nous sommes face à l'outil logique de la science moderne , laquelle, concluant un mariage
avec la technique , a trouvé, entre le 18ième et le 19ième siècle, un épanouissement inouï
jusqu'alors.
Descartes fournit l'outil logique qui contraindra l’homme à sortir de la contemplation de
l’univers naturel et à en entamer la conquête. Il écrira :
« je pense qu’on peut parvenir à une philosophie pratique par laquelle nous pourrions nous
rendre comme maîtres et possesseurs de la nature. »
Si l’on considère l’hégémonie effective du réductionnisme devenu doctrine, qui n’est autre
que la mise en oeuvre du quatrième précepte, et celle de la causalité linéaire chaînée,
application du troisième principe, dans tous les domaines de la science moderne, il semble
bien que cette arme logique, en un peu plus d'un siècle, soit devenue notre façon de penser et
même notre façon de « voir » l’univers et d’agir sur lui. Plus encore, être cartésien, pour un
intellectuel occidental, et plus encore pour un Français, est aussi naturel que respirer et ne
pose pas plus de question que la respiration. Au contraire, ce qui pose question est de parvenir
à en parler, à en repérer les éléments discrets et, plus encore, à imaginer une autre forme de
pensée. Nous avons ici affaire - cette remarque n’est pas triviale - à un point de conjonction
ou d’inclusion mutuelle, entre l’univers logique et l’univers de la cognition, entre paradigme
maître et psychologie génétique.
Bateson écrit :
« les règles de l’univers que nous croyons connaître sont enfouies au profond de nos
processus de perception. L’épistémologie, à ce niveau naturel de son histoire, est
essentiellement inconsciente, et par là même difficile à changer. » (Bateson G., la nature et la
pensée, p. 42)
L’histoire de la logique et l’histoire des sciences montrent que, durant plus de deux siècles, le
paradigme logique cartésien règne en maître absolu, sur la pensée scientifique d'abord, puis,
par le processus de diffusion le plus habituel (ouvrages scientifiques à manuels universitaires
à manuels scolaires), sur la pensée commune dans sa globalité. Insistons sur le fait que le
colossal et foudroyant succès rencontré, dans l'Europe entière, par l'outil logique cartésien,
n'est pas usurpé : le Cartésianisme a constitué une formidable révolution scientifique, qui a
emporté dans son élan toutes les disciplines, toutes les habitudes de pensée, y compris la
morale et la religion.
Ce que Descartes fournit d’abord à la science, puis à la culture occidentale dans son ensemble,
ce ne sont pas des hypothèses dans telle ou telle spécialité, c'est spécifiquement une manière
de penser le monde et d’agir sur lui, une manière de raisonner et d’agir : il a fourni un
paradigme-maître pour toute une époque.
Nous venons de voir l’effet positif et le potentiel créatif que montre un paradigme-maître sur
son époque.
Voyons à présent l'effet restrictif d'un paradigme-maître sur la pensée de son époque. Pour
l’illustrer, il suffit de repérer les inventions restées longtemps sans suite, malgré leur caractère
génial :
- souvenez-vous d’Aristarque, qui a inventé le paradigme héliocentrique 18 siècles avant
Copernic ;
- il y a eu aussi Ibn an-Nafis qui a inventé la circulation sanguine au 13ième siècle (petite
circulation) ; il faudra attendre le 17ième siècle et William Harvey, lequel, toutefois, a dû
surmonter des oppositions véhémentes à l’époque.
- et Frascator : au 16ième siècle il invente le concept d’agent infectant vivant. Il faudra
attendre le 19ième siècle, Pasteur et quelques autres pour le réinventer : il serait naïf de croire
que Frascator a simplement manqué d'un microscope pour imposer le raisonnement selon
lequel les épidémies et les maladies vénériennes se propageaient par l'intermédiaire de micro-
organismes infectants (« seminaria contagionum » écrivait-il) capables de se reproduire et
pour lesquels il cherchait des thérapeutiques pouvant détruire les germes (des antibiotiques). Il
a décrit le processus de contagion comme se produisant de trois manières : le contact direct
(syphilis), le contact indirect (lèpre) et l’air ambiant (peste et tuberculose). Ce qui a manqué,
en fait, c'est un outil logique commun, des lunettes mentales qu'il puisse distribuer à ses
contemporains, afin qu'ils « voient » l'infiniment petit sur le modèle du vivant et qu'ils le
voient dans une chaîne logique liant le tout petit au très grand, l’invisible au visible. La Chine
antique qui, elle, disposait d'un outil logique extrêmement élaboré combinant étroitement,
dans le registre du vivant, l'infiniment grand et l'infiniment petit , a maîtrisé la notion de
propagation infectante dès le deuxième siècle avant notre ère (règne de Qin Shi Huangdi),
c'est-à-dire près de 2000 ans avant l’occident.
Ainsi, l'histoire des sciences et l'histoire des idées montrent que les humains, à toutes les
époques, ont été capables d'intuitions extrêmement pertinentes mais aussi que, à chaque fois
qu'elles sont survenues dans des époques où ces intuitions n’étaient pas adaptées au
paradigme régnant, elles tombaient dans l'oubli ; une autre solution était choisie, conforme au
paradigme local de la science concernée et conforme aux logiques imposées par le paradigme
maître du moment. (Elle n’était pas des énigmes mais des anomalies)
Un paradigme maître couvre donc tous les champs : scientifique, disciplinaire, cognitif. Il
définit ainsi un univers logique pour la pensée et pour l'action.
Mais tous les paradigmes-maîtres touchent un jour à leur fin, confrontés que nous sommes de
plus en plus aux limites des champs qu’ils autorisent : le mécanicisme, Bateson nous le
rappelle, n’offre aucune porte vers ce que le vivant a de spécifique et moins encore vers un
modèle de l’esprit.
Il n’est donc pas étonnant qu’apparaisse un jour un mouvement de pensée, qui délaisse le
champ ouvert par Newton et Descartes pour inventer une science de l’esprit.
Le Plus amusant est que les intentions initiales des chercheurs concernés n’étaient pas de
sortir de la mécanique pour aller vers une théorie de l’esprit affranchie de la physique
classique, mais de mécaniser l’esprit : de produire des machines imitant le fonctionnement de
l’esprit humain.
Les effets de leurs travaux, nous le verrons, ont singulièrement dépassé leurs intentions,
puisqu’ils ont ouvert à un nouveau paradigme-maître, le paradigme de la complexité.
Pour clore ce chapitre, citons la recommandation qu'adressaient trois de nos plus brillants
biologistes, les professeurs François Gros, François Jacob et Pierre Royer, au président de la
République, en 1979, dans le rapport qui leur avait été demandé, intitulé Sciences de la vie et
société :
« Si l'approche réductionniste n'a cessé de remporter des succès, elle n'en a pas moins des
limites. Dans de nombreux cas elle est nécessaire mais non suffisante. Selon toute
vraisemblance, on verra dans les années à venir se développer en parallèle une autre
approche, plus intégrative et organismique dans l'étude des grands problèmes de la biologie.
» (Documentation française, 1979).
Il va sans dire que cet « organismisme » n’a rien de commun avec l’organicisme au sens
mécaniste du terme ! Les trois auteurs font clairement référence au paradigme systémiste, au «
paradigme de la complexité ».
Il faudra attendre 23 longues années pour que ces remarques atteignent le CNRS !
« S'attacher à la complexité (…) c'est reconnaître que la modélisation se construit comme un
point de vue pris sur le réel, à partir duquel un travail de mise en ordre, partiel et
continuellement remaniable, peut être mis en œuvre. »
(Projet d'établissement 2002 du CNRS)
En 2009, 7 ans après la parution de ce projet d’établissement, les choses n’ont guère avancé
sur ce plan : le fractionnement des disciplines et des sous-disciplines bat son plein dans les
laboratoires hexagonaux.
Causalités circulaire et discontinue : A cause B qui cause C qui cause A, c’est aussi ce
qu’on appelle une rétroaction ou un feedback.
Ou encore, un processus s’engage à partir d’une logique de type X, puis des contraintes
internes ou externes le conduisent à enchaîner selon une logique de type Y, et ainsi de suite :
René Thom l’a formalisé dans sa théorie des catastrophes (Médaille Fields 1972).
Réductionnisme : Le réductionnisme est devenu une doctrine scientifique : le bon chercheur
travaille sur un objet aussi petit que possible et la bonne recherche est celle qui sait analyser
ses objets, c'est-à-dire diviser les objets composés en unités aussi petites que possibles : la
molécule, la particule. Il cultive le sentiment que lorsqu’il a dûment analysé l’ensemble des
ces parties, il « connaît » l’objet composé concerné.
Pour peu que nous considérions attentivement les deux conditions de possibilité énoncées par
von Bertalanffy, il nous apparaît rapidement qu'une quantité considérable de phénomènes
complexes ne nous sont actuellement accessibles que terriblement déformés par la lorgnette
de la procédure analytique. Voyons ce que Alexis Carrel, prix Nobel de médecine et de
physiologie, inventeur de la suture vasculaire fine, de la culture d'organe, de la greffe d'organe
et du coeur artificiel, en disait , dès 1935 :
« (L'étude de l'homme) utilise plusieurs sciences distinctes. Chacune de ces sciences aboutit
naturellement à une conception différente de son objet. Chacune n'abstrait de lui que ce que
la nature de sa technique lui permet d'atteindre. Et la somme de toutes ces abstractions est
moins riche que le fait concret. Il reste un résidu trop important pour être négligé. (...)
l'homme que connaissent les spécialistes n'est donc pas l'homme concret, l'homme réel. Il
n'est qu'un schéma, composé lui-même des schémas construits par les techniques de chaque
science. »
Il signalait clairement que la condition de sommativité n'existe pas lorsque l'objet d'étude est
l'humain. L'équation qui décrit le comportement de l’homme n'a pas la même forme que celle
qui décrit la structure histologique du muscle cardiaque, le PH. sanguin, l'activité électrique
du cerveau, ou la reproduction cellulaire. Et toutes ces équations mises bout à bout ne peuvent
prétendre décrire la femme et l'homme, vivant, pensant, choisissant, décidant, aimant, parlant,
rêvant, tombant malade, souffrant, guérissant ou mourant... à savoir ce que nous sommes tous
et que le psychologue rencontre chaque jour dans son travail.
Le regard mécaniciste, servi par le réductionnisme, ne peut décrire l'humain que comme une
série de mécanismes -respiratoire, circulatoire, hormonal, nerveux, musculaire, digestif,
reproducteur, etc.- à propos desquels la question des interactions est exclue, faute des moyens
conceptuels qui permettraient d'en poser, puis d'en explorer l'hypothèse.
Décrire les sytèmes de liens, dans leur diversité et leur complexité, lui est impossible car, pour
le paradigme mécaniste, ces systèmes de liens ne sont pas représentables : c’est le modèle qui
manque.
Pour saisir la complexité des articulations entre ces diverses fonctions, il faudra attendre
l'avènement d'un paradigme organismique (souvenez-vous de ce qu’écrivaient les trois Pr. Au
Pdt de la République) un paradigme interactionniste : celui, par exemple, qui présida à
l’avènement de la neuro-endocrinologie, avec le Pr. Guilmain, puis de la neuro-immuno-
endocrinologie et enfin de la neuro-psycho-immuno-endocrinologie.
Exhaustivité : Descartes recommandait aussi de n’oublier aucun détail, aucun maillon causal
dans les enchaînement de raisonnement que le chercheur est conduit à opérer. Faute de quoi,
la conclusion, le résultat de la recherche serait immanquablement faux.
Modélisation : Un objet complexe n’est pas démontable, sauf à perdre ses caractéristiques
complexes, il faut donc l’observer dans son ensemble et, pour cela, il faudra inventer un autre
mode d’observation que le réductionnisme : c’est la modélisation, c'est-à-dire la création d’un
modèle de l’objet observé.
Un modèle est donc une représentation graphique, discursive ou mathématique faite d’un
objet complexe :
- par exemple la modélisation du système océan-atmosphère, qui permet de saisir des
régularités interactionnelles entre courants marins et courants atmosphériques, ainsi que les
redondances et les variations climatiques qui leur sont liées, etc.
- ou la modélisation d’un système familial, qui permet de saisir les régularités
interactionnelles entre divers sous-ensembles au sein de la famille, ainsi que les redondances
et les variations émotionnelles qui leur sont liées, etc.
Ce qu’on appelle un objet complexe est en fait, dans tous les cas, un jeu de processus plus ou
moins étroitement reliés. Si vous démontez un processus, c'est-à-dire si vous dissociez les
parties composantes de ce processus, il disparaît.
Si, pour observer les modes d’interaction entre des cellules vivantes, vous les dissociez, ces
modes d’interaction disparaissent.
Mais quand un processus tel que le flux sanguin, par exemple, a été correctement modélisé, il
peut ensuite servir de modèle pour la plupart des processus de flux : flux automobile, flux
pluvial, égouts, filtres chaotiques, foule, etc. (cf modèle de la percolation, PG De Gennes ).
Evidence : Les systémiciens ne pensent pas très différemment, à ceci près qu’ils mettent en
évidence que notre esprit, pas plus que nos sens, n’a accès à une quelconque réalité prédonnée
: l’esprit comme les sens, construit des mondes et des univers de signification. Cette
conception trouve son développement dans le modèle constructiviste qui souligne que,
n’ayant pas d’accès direct au monde extérieur, nous en sommes réduits, que nous le voulions
ou non, à construire des modèles du monde.
La seule différence, donc, est que le contenu des évidences des uns n’est pas le même que
celui des autres…
Lire :
Von Bertalanffy L. (1973) Théorie générale des systèmes, Dunod, Paris
Morin E. (1990) Introduction à la pensée complexe, ESF éditeur. Paris.
Luhmann N. (1995) Social systems, Stanford university Press, Stanford California.
Simon H. A. (1991) Siences des systèmes sciences de l’artificiel, Dunod, Paris
Le Moigne J-L (1990) La modélisation des systèmes complexes, Dunod, Paris
Objectivisme : la science cartésienne est fondée sur l’idée que l’observation, pourvu qu’elle
respecte les règles de la rigueur (réduction, causalité linéaire chaînée, exhaustivité, évidence)
peut être objective, ce qui signifie qu’il est possible de considérer l’observateur lui-même
comme une donnée négligeable, puisque tous les observateurs respectant les mêmes règles
doivent voir exactement la même chose.
L’objectivisme est le socle de la science classique et, vous-mêmes, quand vous voulez en
imposer, commencez votre phrase avec un : « en toute objectivité… », c'est-à-dire que vous
proposez une assertion dont vous ne seriez pas le sujet !
L’univers de l’objectivité est en effet un univers sans sujet.
Constructivisme : l’objectivisme a pris un premier très sérieux coup, non pas comme on
l’aurait attendu de la part des sciences humaines qui auraient pu aligner de solides arguments,
mais de la part de la physique quantique.
Face à un univers au sein duquel l’objectivisme ne pouvaient plus tenir dans la mesure où ils
sont contraints d’intégrer l’observateur comme donnée de l’expérience, les physiciens
quantiques déclarent l’objectivité : « de mode faible », et substituent au « réalisme » l’«
opérationnalisme ».
Laissons la parole à von Foerster :
« (…) la science fut contrainte de prendre en compte un « observateur » (c’est-à-dire au
moins un sujet). Voici deux exemples de ce changement dans la pensée scientifique :
1) les observations ne sont pas absolues mais relatives au point de vue de l’observateur,
c’est-à-dire son système de coordonnées (théorie de la relativité d’Einstein) ;
2) les observations influent sur ce qui est observé de telle façon que l’observateur ne peut
plus espérer faire de prédictions (autrement dit, son incertitude est absolue - c’est le principe
d’incertitude l’Heisenberg). (..)
Nous avons maintenant besoin d’une description de «celui qui décrit», ou, en d’autres
termes, nous avons besoin d’une théorie de l’observateur. Dans la mesure où seuls les
organismes vivants sont capables d’observer, il semble que cette tâche incombe au biologiste.
Mais le biologiste est aussi un être vivant; ce qui signifie que, dans sa théorie, il doit non
seulement tenir compte de lui-même, mais aussi du fait même qu’il écrit cette théorie. C’est
un élément tout à fait nouveau dans le discours scientifique, car le point de vue traditionnel,
qui sépare l’observateur de ses observations, évitait soigneusement toute référence à ce
discours . »
Au fil des prochaines années, nous développerons plus avant le modèle constructiviste, peu à
peu adopté par l’ensemble des scientifiques de pointe et dont l’importance en psychologie
clinique est fondamentale.
Paradigmes et comportements.
Pour terminer, quelques remarques supplémentaires sur une implication majeure du modèle
cartésien sur les comportements et attitudes qui y sont valorisés comme étant les bonnes
manières pour la pensée et pour l’action.
La première remarque nous est proposée par le grand neurobiologiste Henri Laborit, qui met
en évidence que ce modèle est puissamment instigateur en matière de domination : le modèle
mécaniste enseigne à tous les niveaux qu’il est bon de dominer... dominer la matière, dominer
la nature, dominer l’homme.
Henri Laborit a très bien mis en évidence une des façons dont l’école produit et pérennise une
logique de violence sociale extrême. Elle le fait à travers la valorisation systématique des
fonctions « cerveau gauche » chez les enfants. Henri Laborit montre que cette valorisation
produit et reproduit une logique de domination, qui impose l’idée que, pour un humain
intelligent, il n’existe qu’une seule activité enviable dans la vie : dominer.
Je le cite :
« Quand on pense que depuis des millénaires, mais surtout depuis l’avènement de la société
industrielle, l’enseignement a récompensé, favorisé l’activité du cerveau gauche, celui de
l’analyse séquentielle, du langage et des mathématiques dans leur aspect le moins créateur,
tout en châtrant celle du cerveau droit, celui des synthèses globalisantes, de l’occupation de
l’espace, capable de créer quelque chose de neuf, (créer) une structure nouvelle à partir de la
poussière des faits analysés par le précédent et que cette attitude fut toujours motivée par la
recherche de la dominance, cela peut nous laisser sceptiques sur l’évolution prochaine de ce
qu’on appelle l’enseignement. »
Il pense, et je pense avec lui, que la « bonne façon de penser », cartésienne est génératrice de
violence.
Pierre-Gilles de Gennes, prix Nobel de physique, le même jour au même endroit, c'est-à-dire
devant l’assemblée des inspecteurs généraux de l’éducation nationale, ajoutait ceci :
« (la sélection par les mathématiques) (c'est-à-dire la sélection par le cerveau gauche) est
déplorable parce qu’elle détruit d’autres capacités aussi importantes, qui sont par exemple, les
capacités d’observation. (...) Les gens de nos jours savent très mal regarder. (...) cette
sélection est l’asphyxie du don d’observation mais elle limite aussi beaucoup le côté
expérimentation . »
Il pense et je pense avec lui, que la « bonne façon de penser » cartésienne, promue par l’école,
est génératrice d’une forme rétrécie d’intelligence...
Cette valorisation des fonctionnalités cerveau gauche, ce rétrécissement des fonctionnalités
cerveau droit, orientent malheureusement l’apprentissage social dans un même sens : celui de
la domination pour la domination et de la haine de la différence.
De ce point de vue, je suis malheureusement contraint d’admettre que les psychologues sont
bien des enfants « cerveau gauche » : la plupart d’entre eux, à chaque fois qu’ils sont mis en
difficulté par la complexité des situations auxquelles ils ont le plus souvent affaire,
confondent systématiquement « savoir » et « pouvoir » : prisonniers d’un seul modèle, ils en
sont les agents aveugles, ignorent le doute et campent sur des certitudes. Ainsi, ils n’hésitent
jamais à utiliser l’interprétation sauvage pour reprendre le contrôle des gens et des situations
qui leur échappent.
J’espère que ce cours constituera un antidote à cette confusion coupable…