Vous êtes sur la page 1sur 17

Henri Atlan

Du bruit comme principe d'auto-organisation


In: Communications, 18, 1972. pp. 21-36.

Citer ce document / Cite this document : Atlan Henri. Du bruit comme principe d'auto-organisation. In: Communications, 18, 1972. pp. 21-36. doi : 10.3406/comm.1972.1256 http://www.persee.fr/web/revues/home/prescript/article/comm_0588-8018_1972_num_18_1_1256

I. L'INTGRATION DE L'VNEMENT : L'VNEMENT ET TRANSFORMATEUR

ORGANISATEUR

Henri Allan Du bruit comme principe

d'auto-organisation 1

moi avec vers ... au eux 40-41 parce hasard; au. hasard... qu'ils moi se aussi Lvitique, sont je conduits me chap, conduirai xxvi, avec Je fais bouillir dans ma marmite tout ce qui est hasard. Et ce n'est que lorsque le hasard est cuit point que je lui souhaite la bienvenue pour en faire ma nourriture. Et en vrit, maint hasard s'est approch de moi en matre : mais ma volont lui parle d'une faon plus imprieuse encore, et aussitt il se mettait genoux devant moi en suppliant me suppliant de lui donner asile et accueil cordial, et me par lant d'une manire flatteuse : Vois donc, Zarathoustra, il n'y a qu'un ami pour venir ainsi chez un ami! F. Nietzsche, Ainsi parlait Zarathoustra, III, 5-3. Machines naturelles et artificielles Depuis les origines de la cyberntique, qu'on s'accorde en gnral reconnatre dans l'uvre de N. Wiener (1) en 1948, une sorte de nomcanicisme s'est pro gressivement impose en biologie, qui consiste considrer les organismes vivants comme des machines d'un type particulier, dites machines naturelles, par rf rence aux machines artificielles conues et fabriques par des hommes. Pourtant, on aurait tort de considrer cette attitude comme une suite du mcanicisme du 1. Dans cet article, le bruit est pris avec son sens driv de l'tude des communicat ions : il s'agit de tous phnomnes alatoires parasites, qui perturbent la transmission correcte des messages et qu'on cherche d'habitude liminer au maximum. Comme nous le verrons, il est des cas o, malgr un paradoxe qui n'est qu'apparent, un rle bn fique peut lui tre reconnu. 21

Henri Atlan xixe sicle et du dbut du xxe. Tant par ses consquences dans l'ordre des connaissances biologiques que par ses implications mthodologiques, elle s'en distingue fondamentalement, cause de la nature mme, radicalement nouvelle de ces machines artificielles, rfrences par rapport auxquelles sont observes et analyses non seulement les similitudes mais aussi et surtout les diffrences. Ces machines, bien que produites par des hommes, ne sont plus des systmes physiques simples et transparents, tels que les diffrences observes sur des orga nismes sont trop grossires et videntes pour enseigner quoi que ce soit. Comme le disait W. R. Ashby (2) en 1962, jusqu' une poque rcente nous n'avions pas d'exprience de systmes complexit moyenne; il s'agissait de systmes tels que, soit la montre et le pendule, et nous trouvions leurs proprits limites et videntes, soit le chien et l'tre humain et nous trouvions leurs proprits si riches et remarquables que nous les pensions surnaturelles. Ce n'est que dansles quelques dernires annes que nous avons t gratifis avec les ordinateurs uni versels de systmes suffisamment riches pour tre intressants, et cependant suffisamment simples pour tre comprhensibles... L'ordinateur est un cadeau du ciel... car il permet de jeter un pont sur l'norme gouffre conceptuel qui spare le simple et comprhensible du complexe et intressant . De plus, la science de ces machines artificielles elles-mmes est loin d'tre close, de sorte que ce nomcanicisme ne consiste pas en un placage pur et simple de schmas mcaniques sur des organismes vivants, mais plutt en un va et vient de cette science la science biologique et vice-versa, avec interpn tration et fcondation rciproques, dont les consquences se font sentir sur l'volution et les progrs des deux sciences. C'est parce que les modles cybern tiquessont tirs d'une science elle-mme en dveloppement o de nouveaux concepts sont encore dcouvrir, que leur application la biologie peut ne pas aboutir une rduction un mcanicisme lmentaire du type de celui du sicle dernier. C'est pourquoi l'identification des carts et diffrences par rapport au modle est alors tellement importante. C'est ainsi, en particulier, que les concepts de systme auto-organisateur, et d'automate autoreproducteur, sont apparus comme autant de faons de dsi gner les organismes vivants sous la forme de machines cyberntiques proprits particulires. Or, il est clair que les seuls systmes auto-organisateurs et les seuls automates autoreproducteurs connus jusqu' prsent sont les machines natur elles que constituent les organismes vivants, dont justement on ne connat pas de faon prcise la logique . Dans ces conditions, on peut s'interroger sur l'utilit de cette terminologie qui consiste remplacer le terme organisme par celui de systme auto-organisateur ou automate autoreproducteur , sans qu'on sache pour autant comment ces performances sont ralises. En fait, cette utilit est certaine : lorsqu'on se sert de cette terminologie, on veut dire implicitement que les performances les plus extraordinaires des orga nismes vivants sont le rsultat de principes cyberntiques particuliers qu'il s'agit de dcouvrir et de prciser. En tant que principes particuliers, ils doivent rendre compte du caractre propre aux organismes vivants que prsentent ces perfor mances. Mais en tant que principes cyberntiques, ils sont postuls en continuit avec les autres domaines de la cyberntique, les mieux connus, ceux qui s'appl iquent aux automates artificiels. Les consquences de ce postulat sont doubles : a) la spcificit des organismes vivants est rattache des principes d'organisa tion plutt qu' des proprits vitales irrductibles; b) ces principes une fois 22

Du bruit comme principe d'auto-organisation dcouverts, rien ne devrait empcher de les appliquer des automates artificiels dont les performances deviendraient alors gales celles des organismes vivants. C'est dans cette perspective que les recherches formelles sur la logique de sys tmes auto-organisateurs, qui sont la fois hypothtiques, en ce sens que personne n'en a jamais, ralis, et pourtant bien rels, en ce sens que la nature en fournit abondamment, ont prsent et peuvent encore prsenter quelque intrt. La fiabilit des organismes Avant mme d'envisager les problmes d'auto-organisation et d'autoreproduction, une des diffrences les plus importantes reconnues entre machines arti ficielles et machines naturelles tait l'aptitude de ces dernires intgrer le bruit. Depuis longtemps la fiabilit des organismes (3) tait apparue comme une perfo rmance sans commune mesure avec celle des ordinateurs. Une fiabilit comme celle du cerveau, capable de fonctionner avec continuit alors que des cellules meurent tous les jours sans tre remplaces, avec des changements inopins de dbit d'irrigation sanguine, des fluctuations de volume et de pression, sans parler d'amputations de parties importantes qui ne perturbent que de faon trs limite les performances de l'ensemble, n'a videmment pas d'gale dans quelque auto mate artificiel que ce soit. Ce fait avait dj frapp J. Von Neumann (4, 5) qui cherchait amliorer la fiabilit des ordinateurs et qui ne pouvait concevoir une telle diffrence de raction aux facteurs d'agressions alatoires de l'enviro nnementconstituant le bruit , que comme une consquence d'une diffrence fondamentale dans la logique de l'organisation du systme. Les organismes, dans leur facult d' avaler le bruit, ne pouvaient pas tre conus comme des machines seulement un peu plus fiables que les machines artificielles connues, mais comme des systmes dont seuls des principes d'organisation qualitativement diffrent pouvaient expliquer la fiabilit. D'o tout un champ de recherche, inaugur par Von Neumann (4), et poursuivi par bien d'autres dont notamment Winograd et Cowan (3, 6), dans le but de dcouvrir des principes de construction d'automates dont la fiabilit serait plus grande que celle de leurs composants! Ces recherches ont abouti la dfinition de conditions ncessaires (et suffisantes) pour la ralisation de tels automates. La plupart de ces conditions (redondance des composants, redondance des fonctions, complexit des composants, dloca lisation des fonctions) (6, 7), aboutissent une espce de compromis entre dte rminisme et indterminisme dans la construction de l'automate, comme si une certaine quantit d'indtermination tait ncessaire, partir d'un certain degr de complexit, pour permettre au systme de s'adapter un certain niveau de bruit. Ceci n'est videmment pas sans rappeler un rsultat analogue obtenu dans la thorie des jeux par le mme Von Neumann (8). Le principe d'ordre partir de bruit Un pas de plus dans cette direction tait ralis, lors de recherches formelles sur la logique de systmes auto-organisateurs, en attribuant aux organismes la proprit non seulement de rsister au bruit de faon efficace, mais encore de l'utiliser jusqu' le transformer en facteur d'organisation! H. Von Foerster (9) le premier, notre connaissance, a exprim la ncessit d'un principe d'ordre partir de bruit pour rendre compte des proprits les plus singulires des orga nismes vivants en tant que systmes auto-organisateurs, notamment de leur 23

Henri Allan adaptabilit. Le principe d'ordre partir d'ordre , implicite dans les thories thermodynamiques modernes de la matire vivante inaugures par l'essai de Schrdinger (10) What is Life? en 1945, ne lui semblait pas suffisant. Les sys tmes auto-organisateurs ne se nourrissent pas seulement d'ordre, ils trouvent aussi du bruit leur menu... Il n'est pas mauvais d'avoir du bruit dans le sys tme. Si un systme se fige dans un tat particulier il est inadaptable, et cet tat final peut tout aussi bien tre mauvais. Il sera incapable de s'ajuster quelque chose qui serait une situation inadquate (9). Une srie de travaux de W. R. Ashby (11, 2) conduisent dans la mme direction mme si l'accent n'y est pas mis explicitement sur cette ide d'un rle organisationnel du bruit. Cet auteur a d'abord tabli rigoureusement une loi des sys tmes de rgulation, qu'il a appele loi de la varit indispensable (11) . Cette loi est importante pour la comprhension des conditions minimum de structure ncessaires la survie de tout systme expos un environnement, source d'agres sions et de perturbations alatoires. Soit un systme expos un certain nombre de perturbations diffrentes possibles. Il a sa disposition un certain nombre de rponses. Chaque succession perturbation-rponse met le systme dans un certain tat. Parmi tous les tats possibles, seuls certains sont acceptables du point de vue de la finalit (au moins apparente) du systme, qui peut tre sa simple survie ou l'accompliss ement d'une fonction. La rgulation consiste choisir parmi les rponses possibles, celles qui mettront le systme dans un tat acceptable. La loi de Ashby tablit une relation entre la varit * des perturbations, celle des rponses et celle des tats acceptables. La varit des rponses disponibles doit tre d'autant plus grande que celle des perturbations est grande et que celle des tats acceptables est petite. Autrement dit, une grande varit dans les rponses disponibles est indispensable pour assurer une rgulation d'un systme visant le maintenir dans un nombre trs limit d'tats alors qu'il est soumis une grande varit d'agressions. Autrement dit, dans un environnement source d'agressions diverses imprvisibles, une varit dans la structure et les fonctions du systme est un facteur indispensable d'autonomie. Mais on sait, d'autre part, qu'une des mthodes efficaces pour lutter contre le bruit, c'est--dire dtecter et corriger des erreurs ventuelles dans la transmis sion de messages, consiste au contraire introduire une certaine redondance, c'est--dire une rptition des symboles dans le message. On voit donc dj comment dans des systmes complexes, le degr d'organisation ne pourra tre rduit ni sa varit (ou sa quantit d'information *), ni sa redondance, mais consistera en un compromis optimum entre ces deux proprits opposes. Nous reviendrons assez longuement sur ce point. Le mme auteur, tudiant par ailleurs (2) la signification logique du concept d'auto-organisation, arrive la conclusion de l'impossibilit logique d'une auto organisation dans un systme ferm, c'est--dire sans interaction avec son envi1. La varit est dfinie comme le nombre d'lments diffrents d'un ensemble. La quantit d'information, dont nous parlerons plus loin, lui est relie en ce qu'elle consi drele logarithme de ce nombre et qu'elle pondre de plus chaque lment diffrent par sa probabilit d'apparition dans un ensemble d'ensembles statistiquement homognes celui qui est considr. La quantit d'information dfinie par Shannon est une faon plus labore et plus riche en applications d'exprimer la varit d'un message ou d'un systme telle que l'avait dfinie Ashby. 24

Du bruit comme principe d 'auto-organisation ronnement. En effet, une machine peut tre formellement dfinie de la faon la plus gnrale possible par un ensemble E d'tats internes et un ensemble I d'en tres (inputs). Le fonctionnement de la machine est la faon dont les entres et les tats internes un instant donn dterminent les tats internes l'instant suivant. Dans la terminologie de la thorie des ensembles, il peut donc tre dcrit par une fonction /, qui est la projection de l'ensemble produit I X E sur E; l'organisation fonctionnelle de la machine peut ainsi tre identifie par /. On par lera d'auto-organisation au sens strict si la machine est capable de changer ellemme la fonction /, sans aucune intervention de l'environnement, de telle sorte qu'elle soit toujours mieux adapte ce qu'elle fait. Si c'tait possible, cela vou drait dire que / se change elle-mme comme consquence de E tout seul. Mais ceci est absurde, car si on pouvait dfinir un tel changement de / comme consquence de E, ce changement lui-mme ne serait qu'une partie d'une autre loi de projec tion /'. Cela voudrait dire que l'organisation de la machine est rgie par une autre fonction /' qui, elle, serait constante. Pour avoir une projection / qui change vraiment on doit dfinir une fonction (t) du temps qui dtermine ces changements partir de l'extrieur de E. Autrement dit, les seuls changements qui puissent concerner l'organisation elle-mme, et ne pas tre seulement des changements d'tats du systme qui feraient partie d'une organisation constante, doivent tre produits d'en dehors du systme. Mais ceci est possible de deux faons diffrentes : ou bien un pr ogramme prcis, inject dans le systme par un programmeur, dtermine les chan gements successifs de /; ou bien ceux-ci sont dtermins encore de l'extrieur, mais par des facteurs alatoires dans lesquels aucune loi prfigurant une organi sation ne peut tre tablie, aucun pattern permettant de discerner un programme. C'est alors qu'on pourra parler d'auto-organisation, mme si ce n'est pas au sens strict. Ceci est donc une autre faon de suggrer un principe d'ordre partir de bruit dans la logique de systmes auto-organisateurs. On peut en trouver encore d'autres, notamment dans l'analyse du rle de l'alatoire dans l'organisation structurale (c'est--dire les connexions) de rseaux neuronaux complexes qu'on doit en particulier R. L. Beurle (13), et que le mme W. R. Ashby (12) a reprise plus tard. Dans le cadre de travaux antrieurs (14, 15, 7) nous avons tent de donner au principe d'ordre partir de bruit une formulation plus prcise, l'aide du formalisme de la thorie de l'information, et nous nous proposons maintenant d'en exposer succinctement les principales tapes. Rappels sur la thorie de Vinformation applique Vanalyse des systmes On sait qu'un des principaux thormes de cette thorie, due C. E. Shannon (16), tablit que la quantit d'information d'un message transmis dans une voie de communication perturbe par du bruit, ne peut que dcrotre d'une quantit gale l'ambigut introduite par ce bruit entre l'entre et la sortie de la voie. Des codes correcteurs d'erreurs, introduisant une certaine redondance dans le message, peuvent diminuer cette ambigut de telle sorte qu' la limite la quantit d'information transmise sera gale la quantit mise; mais en aucun cas elle ne pourra tre suprieure. Si, comme beaucoup d'auteurs l'ont propos on utilise la quantit d'information d'un systme assimil un message transmis un observateur, comme une mesure de sa complexit ou de son degr d'organisa25

Henri Atlan tion, ce thorme semble donc exclure toute possibilit d'un rle positif, organisationnel du bruit. Nous avons pu montrer qu'il n'en est rien (14, 15), prcis ment cause des postulats implicites l'aide desquels la thorie de l'information est applique l'analyse de systmes organiss, alors que son champ d'applica tion, sous sa forme primitive, semblait limit aux problmes de transmission de messages dans des voies de communications. La quantit d'information totale d'un message est une grandeur qui mesure, sur un grand nombre de messages crits dans la mme langue avec le mme alpha bet,la probabilit moyenne d'apparition des lettres ou symboles de l'alphabet, multiplie par le nombre de lettres ou symboles du message. La quantit d'info rmation moyenne par lettre est souvent dsigne sous le nom de quantit d'info rmation ou entropie du message, cause de l'analogie entre la formule de Shannon, qui l'exprime partir des probabilits des lettres, et la formule de Boltzmann qui exprime l'entropie d'un systme physique l'aide des probabilits des diff rents tats dans lesquels le systme peut se trouver. Cette analogie a t l'objet de nombreux travaux et discussions, et elle est, entre autres, l'origine du dbordement rapide de la thorie de l'information du cadre des problmes de communications dans le domaine de l'analyse de la complexit des systmes. La quantit d'information d'un systme, compos de parties, est alors dfinie partir des probabilits que l'on peut affecter chaque sorte de ses composants, sur un ensemble de systmes supposs statistiquement homognes les uns aux autres; ou encore partir de l'ensemble des combinaisons qu'il est possible de raliser avec ses composants, qui constitue l'ensemble des tats possibles du systme (17). Dans tous les cas, la quantit d'information d'un systme mesure le degr d'improbabilit que l'assemblage des diffrents composants soit le rsultat du hasard. Plus un systme est compos d'un grand nombre d'lments diff rents plus sa quantit d'information est grande car plus grande est l'improbab ilit de le constituer tel qu'il est en assemblant au hasard ses constituants. C'est pourquoi cette grandeur a pu tre propose comme une mesure de la complexit d'un systme, en ce qu'elle est une mesure du degr de varit des lments qui le constituent. Un thorme de la thorie dit que la quantit d'information en uni ts bit d'un message crit dans un alphabet quelconque reprsente le nombre minimum moyen de symboles binaires par lettre de cet alphabet, ncessaires pour traduire le message de son alphabet d'origine en langage binaire. Transpos l'analyse d'un systme, ceci veut dire que plus la quantit d'information est leve, plus le nombre de symboles ncessaires pour le dcrire dans un langage binaire (ou autre) est lev; d'o encore, l'ide qu'il s'agit l d'un moyen de mesur er la complexit. Signalons tout de suite les rserves avec lesquelles il convient de recevoir cette conclusion, en raison notamment du caractre statique et un iquement structural de la complexit dont il s'agit, l'exclusion d'une complexit fonctionnelle et dynamique, lie non pas l'assemblage des lments d'un sys tme mais aux interactions fonctionnelles entre ces lments (18). Le problme de la dfinition prcise de la notion de complexit comme concept scientifique fondamental (analogue ceux d'nergie, d'entropie, etc.) reste donc encore pos. Pourtant, ainsi que Von Neumann (19) le notait alors qu'il posait ce problme et en soulignait l'importance, ce concept appartient de toute vidence au domaine de l'information .

26

Du bruit comme principe d'auto-organisation Ambigut-autonomie et ambigut destructrice Quoi qu'il en soit, l'application de la thorie de l'information l'analyse des systmes implique un glissement de la notion d'information transmise dans une voie de communications celle d'information contenue dans un systme organis. Le formalisme de la thorie de l'information ne s'applique qu' la premire de ces notions, et ce glissement, dont la lgitimit a t conteste, ne peut se justifier qu'en assimilant, au moins implicitement, la structure du systme un message transmis dans une voie qui part du systme et aboutit l'observateur. Ceci n'implique pas ncessairement l'introduction de caractres subjectifs ni de valeur, qui sont par dfinition exclus du domaine de la thorie, si on considre cet observateur comme le physicien idal habituel, n'intervenant que par des op rations de mesure, mais intervenant quand mme par ces oprations. Dans ces conditions, il est possible de montrer que l'ambigut introduite par des facteurs de bruit dans une voie de communications situe l'intrieur d'un systme a une signification diffrente (son signe algbrique est diffrent), suivant qu'on envisage l'information transmise dans la voie elle-mme ou la quantit d'information contenue dans le systme (o la voie est une parmi un grand nombre de relations entre nombreux sous-systmes). Ce n'est que dans le premier cas, que l'ambigut est exprime par une quantit d'information affecte d'un signe moins, en accord avec le thorme de la voie avec bruit dont nous avons parl. Dans le deuxime cas au contraire, la quantit d'information qu'elle mesure n'a plus du tout la signification d'une information perdue mais au con traire d'une augmentation de varit dans l'ensemble du systme, ou, comme on dit, d'une diminution de redondance. En effet, soit une voie de communications entre deux sous-systmes A et B, l'intrieur d'un systme S (fig. 1). Si la transmission de -A B s'effectue sans

Figure 1. aucune erreur (ambigut nulle), B est une copie exacte de A, et la quantit d'information de l'ensemble A et B n'est gale qu' celle de A. Si la transmission s'effectue avec un nombre d'erreurs tel que l'ambigut devient gale la quant it d'information de A, celle-ci est totalement perdue lors de la transmission; en fait, il n'y a plus du tout de transmission d'information de A B. Ceci veut dire que la structure de B est totalement indpendante de celle de A, de sorte que la quantit d'information de l'ensemble A et B est gale celle de A plus celle de B. Pourtant, dans la mesure o l'existence mme du systme S dpend de celle de voies de communications entre les sous-systmes, une indpendance totale entre ceux-ci signifie en fait une destruction de S en tant que systme. C'est pourquoi, du point de vue de la quantit d'information de ce systme, un optimum est ralis lorsqu'il existe une transmission d'information non nulle entre A et B, mais avec une certaine quantit d'erreurs, produisant une ambigut elle aussi non nulle. 27

Henri Allan Dans ces conditions, alors que la quantit d'information transmise de A B est gale celle de B diminue de l'ambigut, la quantit d'information de l'ensemble A et B est gale celle de B augmente de cette ambigut. En effet, la grandeur qui mesure l'ambigut n'est pas autre chose que la quantit d'info rmation de B en tant que B est indpendant de A : il est donc normal que cette quantit soit considre comme perdue du point de vue de la transmission de A B, et au contraire comme un supplment du point de vue de la quantit d'information totale (c'est--dire de la varit) de l'ensemble du systme. On voit ainsi comment un rle positif, organisational du bruit peut tre conu dans le cadre de la thorie de l'information, sans contredire pour autant le thorme de la voie avec bruit : en diminuant la transmission d'information dans les voies de communications l'intrieur du systme, les facteurs de bruit diminuent la redondance du systme en gnral, et par l mme augmentent sa quantit d'information. Il est bien vident pourtant, que le fonctionnement du systme est li la transmission d'information dans les voies d'un sous-systme un autre, et qu' ct de ce rle positif du bruit, facteur de complexification, le rle destructeur classique ne peut pas tre ignor. Nous avons donc affaire deux sortes d'effets de l'ambigut produite par le bruit sur l'organisation gnrale d'un systme, que nous avons appeles ambi gut-destructrice et ambigut-autonomie, la premire devant tre compte ngativement, la deuxime positivement. Une condition ncessaire pour que les deux coexistent nous semble tre que le systme soit ce que Von Neumann appelle un systme extrmement hautement compliqu (5) . Mme si le concept de complexit ou complication n'est pas encore clairement et prcisment dfini, l'ide vague et intuitive que nous en avons nous fait percevoir les automates naturels comme des systmes d'une complication extrme en ce que le nombre de leurs composants peut tre extrmement lev (10 milliards de neurones pour un cerveau humain), et que les relations entre ces composants peuvent tre extrmement entrelaces, chacun d'eux pouvant, en principe, tre reli dire ctement ou indirectement tous les autres. Ce n'est que dans de tels systmes qu'un rle positif du bruit, par l'intermdiaire d'une ambigut-autonomie, peut coexister avec son rle destructeur. En effet, si on considre un systme limit une seule voie de communications entre A et B, l'autonomie de B par rapport A ne peut signifier qu'un mauvais fonctionnement du systme et sa destruction : dans ce cas une quantit d'information de B en tant que B est ind pendant de A n'a aucune signification du point de vue du systme, puisque celuici se rduit cette voie. Pour qu'elle ait quelque signification, il faut imaginer A et B relis non seulement l'un l'autre par cette voie, mais chacun un grand nombre d'autres sous-systmes par un grand nombre d'autres voies, de telle sorte qu'une indpendance mme totale de B par rapport A ne se traduise pas par une disparition du systme. Celui-ci, du fait de ses nombreuses interconnexions, et pourvu que sa redondance initiale soit suffisamment grande, sera encore capa blede fonctionner et sa quantit d'information totale aura augment. Cette augmentation peut tre alors utilise pour la ralisation de performances plus grandes, notamment en ce qui concerne les possibilits d'adaptation des situa tions nouvelles, grce une plus grande varit des rponses possibles des stimuli diversifis et alatoires de l'environnement1. 1. Voir plus haut, loi de la varit indispensable de Ashby. 28

Du bruit comme principe d'auto-organisation En exprimant ces ides de faon plus quantitative que nous ne pouvons le faire ici, nous avons pu montrer (14, 15) que, dans le cadre de certaines hypo thses simplificatrices, une condition suffisante pour que l'ambigut-autonomie soit capable de surcompenser les effets de l'ambigut destructrice est l'existence d'un changement d'alphabet avec une augmentation du nombre de lettres, quand on passe d'un type de sous-systme un autre avec une voie de com munication entre les deux. Ce rsultat peut tre compris comme une explication possible du changement d'alphabet effectivement observ dans tous les orga nismes vivants quand on passe des acides nucliques, crits dans un langage quatre symboles (les quatre bases azotes), aux protines crites dans le lan gage 20 symboles des acides amins. AutO'Organisation par diminution de redondance (7) De faon plus gnrale on peut concevoir l'volution de systmes organiss, ou le phnomne d'auto-organisation, comme un processus d'augmentation de complexit la fois structurale et fonctionnelle rsultant d'une succession de dsorganisations rattrapes suivies chaque fois de rtablissement un niveau de varit plus grande et de redondance plus faible. Ceci peut s'exprimer assez simplement l'aide de la dfinition prcise de la redondance dans le cadre de la thorie de l'information. Si H reprsente la quantit d'information d'un message contenant un certain degr de redondance R, et si Hmax reprsente la quantit d'information max imum que contiendrait ce message si aucun de ses symboles n'tait redondant, la redondance R est dfinie comme : II TT TT r> "-max " * " IT " II " max "-max de sorte que la quantit d'information H du message peut s'crire : TT TT I __ p\ Nous dfinissons un processus d'organisation par une variation de H dans le temps sous l'effet de facteurs alatoires de l'environnement. Cette variation est reprsente par la quantit -77 = / (t). En diffrenciant l'quation prcdente on obtient une expression pour / (t) : -Ml R) Straps /^v dt dt . dR Le taux de variation de quantit d'information -7- est ainsi la somme de deux termes qui correspondent, schmatiquement, aux deux effets opposs du bruit ou aux deux sortes d'ambigut. Le premier terme exprime la variation de la redon dance. Si celle-ci est initialement assez leve, elle diminuera sous l'effet de l'ambigut-autonomie, de sorte que 7- sera ngatif et que le premier terme I Rmax~~fr) sera positif, contribuant ainsi un accroissement de la quantit d'information H du systme. Le deuxime terme exprime la variation de Hmax, c'est--dire chaque instant la dviation par rapport l'tat de complexit 29 ~= H dt

Henri Atlan maximum qui peut tre atteint par le systme sans tenir compte de son degr de redondance. On peut montrer (7) que le processus de dsorganisation par rapport un tat donn (instantan) d'organisation, sous l'effet de l'ambigut destructrice, JTT s'exprime par une fonction dcroissante de Hmax de telle sorte que _!p*, ei ]e deuxime terme tout entier sont ngatifs, contribuant une diminution de la quantit d'information H du systme. Ces deux termes dpendent eux-mmes de deux fonctions -7 = /j (t) et ~I~ = fz (0 du temps, dpendant de paramtres qui expriment formellement la nature de l'organisation laquelle on a affaire. Ainsi, pour certaines valeurs de ces paramtres, la courbe de variation de la quantit d'information H en fonction du temps sera telle que H commence par augmenter, atteint un max imum en un temps % sur la signification duquel nous reviendrons, puis dcrot. C'est cette sorte de variation qui pourra s'appliquer un type d'organisation qui est celui des organismes, o une phase de croissance et de maturation, avec possibilit d'apprentissage adaptatif, prcde une phase de vieillissement et de mort. Le point intressant ici, est que ces deux phases, alors mme qu'elles s'effectuent dans des directions opposes du point de vue de la variation de H, sont le rsultat des rponses de l'organisme diffrents stades de son volution, aux facteurs d'agressions alatoires de l'environnement : ce sont ces mmes facteurs responsables de la dsorganisation progressive du systme qui conduit ultrieur ement sa mort, qui ont prcdemment nourri son dveloppement avec complexification progressive. Bien entendu, d'aprs la valeur des paramtres qui dter minent fx et /2, cet effet s'observera ou non, et si oui, de faons quantitativement trs diffrentes, suivant 1' organisation du systme auquel on a affaire. C'est pourquoi, nous avons propos d'utiliser justement ce formalisme pour dfinir quantitativement le concept d'organisation lui-mme, de telle sorte que la proprit d'auto-organisation, c'est--dire d'accroissement de complexit appa remment spontan (en fait provoqu par des facteurs alatoires de l'environne ment), en soit un cas particulier. Vers une thorie formelle de l'organisation (20) Ainsi l'tat d'organisation d'un systme est dfini non seulement par sa quantit d'information H, qui n'exprime qu'un caractre structural, mais aussi par son organisation fonctionnelle; celle-ci peut tre dcrite par le taux de JTT variation r- de quantit d'information du systme au cours du temps, lui-mme somme de deux fonctions fx et /2 en relation, l'une avec le taux de dcroissance de la redondance, l'autre avec le taux de dcroissance de la quantit d'info rmation maximum. Les diffrentes sortes d'organisation possibles sont caract rises par des valeurs diffrentes des paramtres caractristiques de ces fonc tions. On peut montrer (7,20) que deux d'entre eux jouent un rle particuli rement important : la redondance structurale initiale et la fiabilit. Le premier est encore un caractre structural, tandis que le deuxime exprime l'efficacit de l'organisation dans sa rsistance aux changements alatoires, et est ainsi un caractre fonctionnel. Il existe certes une relation entre fiabilit et redondance, en ce que la premire dpend de la deuxime, et c'est par l que s'tablit la 30

Du bruit comme principe <V auto-organisation

Figure 2. Figure 2. Diffrentes sortes d'organisations reprsentes par diffrentes formes possibles de courbes H [t) de variation de quantit d'information en fonc tion du temps, obtenues partir de l'quation (1). Ho, quantit d'information initiale est relie la redondance initiale Ro par la relation Ho = Hmaxo (1 Ro). %, temps au bout duquel est atteinte une valeur maximum Hjj de H, par puisement de la redondance initiale, est aussi une mesure de la fiabilit du systme. Dans les cas, non reprsents ici, de systmes non auto-organisateurs par redon dance initiale trop faible, la courbe H (t) serait celle d'une fonction dcroissante monotone o la vitesse moyenne de dcroissance exprimerait l'inverse de la fiabilit. 31

Henri Allan relation ncessaire entre organisations structurale et fonctionnelle. Toutefois, l'une ne peut pas tre rduite l'autre, et la distinction que nous sommes ainsi amens tablir peut tre comprise, entre autres, par rfrence celle que Winograd et Cowan (6) ont introduite entre redondance des modules et redon dance des fonctions dans leur tude sur la fiabilit des automates : la redon dance initiale serait une redondance de modules, simple rptition d'lments structuraux, tandis que la fiabilit serait une redondance de fonctions. Pour qu'un systme ait des proprits auto-organisatrices, il faut que sa redondance initiale ait une valeur minimum, puisque ces proprits consistent en une augmentation de complexit par destruction de redondance. Ce n'est que dans ces conditions que la courbe de variation H (t) pourra avoir une partie initiale ascendante. Alors, la fiabilit mesurera aussi la dure de cette phase ascendante, soit le temps M au bout duquel le maximum est atteint, d'autant plus long que la fiabilit est grande. Ainsi, si fM est trs court, la destruction de redondance s'effectue trop rapidement pour pouvoir tre observe, le maximum est atteint presque instantanment et on observe un systme dont la quantit d'information ne fait apparemment que dcrotre. Malgr une redondance ini tiale suffisante tout se passe comme si le systme n'tait pas auto-organisateur. D'autre part, si la redondance initiale est insuffisante mais que la fiabilit est grande, alors le systme qui ne peut videmment pas tre auto-organisateur a pourtant une grande longvit : sa fiabilit n'a alors que la signification habi tuelle de rsistance aux erreurs qui peut s'exprimer par une vitesse de vieilli ssement. Ainsi, suivant les valeurs de ces deux paramtres, on peut distinguer diff rentes sortes de systmes organiss, ou, si on veut, diffrents degrs d'organisa tion , qu'on peut reprsenter par des courbes de formes diffrentes (fig. 2). Principes d*auto-organisation de la matire et d'volution par slection (21) Dans un long et trs rcent mmoire sur la nature chimique possible de pro cessus d'auto-organisation de la matire, M. Eigen (21) aboutit par une mthode et un formalisme diffrents, enracins dans la cintique chimique, un rsultat logiquement trs similaire. En s'inspirant des mcanismes connus de replication des A.D.N., de synthse des protines et de rgulation enzymatique il analyse le devenir de populations de macromolcules porteuses d'information, tant sur le plan de la quantit d'information totale de la population, que de celle des diffrentes sortes de macromolcules synthtises. Un des problmes ainsi tudie est celui des conditions dans lesquelles certaines macromolcules porteuses d'information, peuvent tre slectionnes aux dpens des autres, dans un sy stme o la seule restriction est que la synthse de ces molcules s'effectue par copie de molcules identiques. Pour la premire fois, le concept de slection avec orientation, fondement des thories de l'volution, acquiert un contenu prcis, susceptible d'tre exprim en termes de cintique chimique, et diffrent du cercle vicieux habituel dans lequel on tombe quand on dcrit la slection naturelle comme la survie des plus adapts, alors que ces derniers ne peuvent tre dfinis que par le fait qu'ils survivent! C'est ainsi qu'une valeur de slection est dfinie partir de grandeurs At-, D$, Q*, dfinies elles-mmes pour chaque type i de porteurs d'information, de la faon suivante. A{ est un facteur d'amplification, qui dtermine la vitesse de reproduction 32

Du bruit comme principe " auto-organisation rptitive du porteur i; multipli par une constante Ko, il exprime la vitesse de la raction, de replication sur moule, par laquelle i est synthtis. Q< est un facteur de qualit entre 0 et 1, qui exprime la prcision et la fidlit de ces replications : si aucune erreur ne se produit dans les copies, Qf = 1 ; de faon gnrale Qf est la fraction des Af copies reproduites sans erreur, tandis que (1 Qf) est la fraction des copies prsentant des erreurs, autrement dit des mutants produits par replication errone de i. D* est un facteur de dcomposit ion, qui, multipli par la mme constante Ko, exprime la vitesse des ractions par lesquelles la macromolcule i est dtruite. Suivant diffrentes conditions initiales envisages, la valeur slective d'une espce i est alors dfinie soit par AfQ^ Dif soit par -jr 1; c'est--dire qu'elle exprime soit de faon absolue, soit de faon relative un excs de la product ion sur la destruction de l'espce macromolculaire envisage. Dans tous les cas, le rsultat auquel aboutit l'analyse de l'volution d'une population o diffrentes espces i sont prsentes, est le mme : une des conditions ncessaires pour que la quantit d'information totale de la population augmente avec slections successives de certaines espces, est que les facteurs Qf soient diffrents de 1, tout en restant pourtant beaucoup plus proches de 1 que de 0. Ceci n'est que la consquence de ce qu'en l'absence d'erreurs de replication, aucune nouveaut ne peut apparatre. Et si, de plus, on tient compte de ce que les ractions chimiques sont, au niveau molculaire, des phnomnes stochas tiques o le rle des fluctuations est d'autant plus important qu'on a affaire des petits nombres de molcules intragissantes, alors, en l'absence de Q$ < 1, non seulement la quantit d'information totale n'augmente pas, par absence d'innovation, mais elle ne peut mme pas se maintenir dans un tat stationnaire, et diminue jusqu' ce que toutes les espces prsentes aient disparu sans pour autant tre remplaces par des nouvelles. Ceci provient de ce qu'il existe toujours une probabilit non nulle pour que, sous l'effet des fluctuations dans les vitesses instantanes de ractions, une espce soit, un moment quelconque de l'vo lution du systme, dtruite plus vite qu'elle n'est reproduite, au point qu'il n'y ait plus de copie disponible pour une reproduction ultrieure et qu'elle dispa raisse ainsi dfinitivement. Un des rsultats les plus spectaculaires auxquels M. Eigen aboutit en appli quant cette thorie des systmes constitus par un couplage de deux soussystmes aux proprits complmentaires que sont des ensembles d'acides nucliques et des ensembles de protines, est une explication possible de l'uni versalit du code gntique : elle serait le rsultat invitable d'une volution o seul ce code-l pouvait tre slectionn, et M. Eigen suggre finalement un certain nombre d' expriences d'volution aux fins de tester sa thorie. Le bruit comme vnement Ainsi, au moins dans le principe, on voit comment une production d'info rmation sous l'effet de facteurs alatoires n'a rien de mystrieux : elle n'est que la consquence de productions d'erreurs dans un systme rptitif, constitu de manire ne pas tre dtruit de faon quasi immdiate par un nombre relativement faible d'erreurs. Dans les faits, en ce qui concerne l'volution des espces, aucun mcanisme n'est concevable en dehors de ceux suggrs par de telles thories o des vne33

Henri Atlan ments alatoires (mutations au hasard) sont responsables d'une volution oriente vers une plus grande complexit et une plus grande richesse de l'orga nisation. En ce qui concerne le dveloppement et la maturation des individus, il est fort possible que ces mcanismes jouent aussi un rle non ngligeable, surtout si l'on y inclut les phnomnes d'apprentissage adaptatif non dirig, o l'individu s'adapte une situation radicalement nouvelle pour laquelle il est difficile de faire appel un programme prtabli. De toutes faons, cette notion de programme prtabli applique aux organismes est bien discutable, dans la mesure o il s'agit de programmes d'origine interne , fabriqus par les organis mes eux-mmes, et modifis au cours de leur dveloppement. Dans la mesure o le gnome est fourni de l'extrieur (par les parents) on l'assimile souvent un programme d'ordinateur; mais cette assimilation nous semble tout fait abusive. Si une mtaphore cyberntique peut tre utilise pour dcrire le rle du gnome, celle de mmoire nous semble beaucoup plus adquate que celle de programme, car cette dernire implique tous les mcanismes de rgulation qui ne sont pas prsents dans le gnome lui-mme. Faute de quoi on n'vite pas le paradoxe du programme qui a besoin des produits de son excution pour tre lu et excut. Au contraire, les thories de l'auto-organisation permettent de comprendre la nature logique de systmes o ce qui fait office de programme se modifie sans cesse, de faon non prtablie, sous l'effet de facteurs alatoires de l'environnement, producteurs d' erreurs dans le systme. Mais que sont ces erreurs? D'aprs ce que nous venons de voir, cause mme de leurs effets positifs, elles ne semblent plus tre tout fait des erreurs. Le bruit provoqu dans le systme par les facteurs alatoires de l'environnement ne serait plus un vrai bruit partir du moment o il serait utilis par le systme comme facteur d'organisation. Cela voudrait dire que les facteurs de l'environnement ne sont pas alatoires. Mais ils le sont. Ou plus exactement, il dpend de la raction ultrieure du systme par rapport eux pour que, a posteriori, ils soient reconnus comme alatoires ou partie d'une organisation. A priori ils sont en effet ala toires, si on dfinit le hasard comme l'intersection de deux chanes de causalit indpendantes : les causes de leur survenue n'ont rien voir avec l'encha nement des phnomnes qui a constitu l'histoire antrieure du systme jusque-l. C'est en cela que leur survenue et leur rencontre avec celui-ci constituent du bruit, du point de vue des changes d'information dans le systme, et n'est susceptible d'y produire que des erreurs. Mais partir du moment o le systme est capable de ragir celles-ci, de telle sorte non seulement de ne pas disparatre, mais encore de se modifier lui-mme dans un sens qui lui est bnfique, ou qui, au minimum prserve sa survie ultrieure, autrement dit, partir du moment o le systme est capable d'intgrer ces erreurs sa propre organisation, alors, celles-ci perdent a posteriori un peu de leur caractre d'erreurs. Elles ne le gar dent que d'un point de vue extrieur au systme, en ce que, effets de l'enviro nnement sur celui-ci, elles ne correspondent elles-mmes aucun programme pr tabli contenu dans l'environnement et destin organiser ou dsorganiser le systme. Au contraire, d'un point de vue intrieur, dans la mesure o l'organisa tion consiste prcisment en une suite de dsorganisations rattrapes, elles n'apparaissent comme des erreurs qu' l'instant prcis de leur survenue et par rapport un maintien qui serait aussi nfaste qu'imaginaire d'un statu quo du systme organis, que l'on se reprsente ds qu'une description statique peut en tre donne. Autrement, et aprs cet instant, elles sont intgres, rcu pres comme facteurs d'organisation. Les effets du bruit deviennent alors des 34

Du bruit comme principe d'auto-organisation vnements de l'histoire du systme et de son processus d'organisation. Ils demeurent pourtant les effets d'un bruit en ce que leur survenue tait imprvisible. Ainsi donc, il suffirait de considrer l'organisation comme un processus ininterrompu de dsorganisation-rorganisation, et non pas comme un tat, pour que l'ordre et le dsordre, l'organis et le contingent, la construction et la destruction, la vie et la mort, ne soient plus tellement distincts. Et pourtant il n'en est rien. Ces processus o se ralise cette unit des contraires celle-ci ne s'y accomplit pas comme un nouvel tat, une synthse de la thse et de l'anti thse, c'est le mouvement du processus lui-mme et rien d'autre qui constitue la synthse ces processus ne peuvent exister qu'en tant que les erreurs sont a priori de vraies erreurs, que l'ordre un moment donn est vraiment perturb par le dsordre, que la destruction bien que non totale soit relle, que l'irruption de l'vnement soit une vritable irruption (une catastrophe ou un miracle ou les deux). Autrement dit, ces processus qui nous apparaissent comme un des fondements de l'organisation des tres vivants, rsultat d'une sorte de coll aboration entre ce qu'on a coutume d'appeler la vie et la mort, ne peuvent exister qu'en tant qu'il ne s'agit jamais justement de collaboration mais toujours d'oppos itionradicale et de ngation. C'est pourquoi l'exprience immdiate et le sens commun en ce qui concerne ces ralits ne peuvent pas tre limins comme des illusions au profit d'une vision unitaire d'un grand courant de vie qui les emporte toutes deux, mme si ce courant est tout aussi rel. La conscience simultane qui nous est donne de ces deux niveaux de ralits est probablement la condition de notre libert ou du sentiment de notre libert : il nous est loisible d'adhrer, sans nous contredire nous-mmes, des processus qui signifient aussi bien notre survie que notre destruction. Une thique vraie, nous permettant d'utiliser au mieux cette libert, serait la loi qui nous permettrait chaque instant de savoir comment intervenir dans ce combat incessant entre la vie et la mort, l'ordre et le dsordre, en sorte d'viter toujours un triomphe dfinitif de l'un quelconque sur l'autre, qui est en fait, l'une des deux faons possibles de mourir compltement, si l'on peut dire, par arrt du processus soit dans un ordre dfinitivement tabli, ina movible, soit dans un dsordre total. Il est remarquable qu'alors que nos vies runissent dans leur courant des processus de vie , et de mort , ralisant ainsi deux faons d'tre vivants, nos cadavres eux aussi runissent deux faons d'tre morts : la rigidit et la dcomposition. Henri Atlan Institut Weizmann, Rehovot, Isral.

RFRENCES 1. N. Wiener (1948), Cybernetics, or Control and Communication in the animal and the machine, J. Wiley & Sons, New York. 2. W. R. Ashby (1962), Principles of the self organizing system , In Principles of Self Organization, Eds H. Von Foerster and G. N. Zopf, Pergamon, p. 255-278. 3. J. D. Cowan (1965), The problem of organismic reliability , In Progress in Brain 35

Henri Allan research, vol. 17. Cybernetics and the Nervous System, Ed Wiener & Schade, Elsevier Publ., Amsterdam, p. 9-63. J. Von Neumann (1956), Probabilistic logics and the Synthesis of reliable organisms from unreliable components , In Automata Studies, Eds. C. E. Shannon and J. McCarth, Princeton University Press, Princeton, p. 43-98. J. Von Neumann (1966), Theory of Self Reproducing Automata, Ed. A. W. Burks, University of Illinois Press, Urbana, Illinois. S. Winograd and J. D. Cowan (1963), Reliable Computation in the presence of noise, M.I.T. press, M.I.T., Cambridge, Mass. H. Atlan (1971), L'organisation biologique et la thorie de l'information, Hermann, Paris ( paratre). J. Von Neumann and O. Morgenstern (1944), Theory of Games and Economic Behavior, Princeton University Press, Princeton. H. Von Foerster (1960), On self organizing systems and their environments , In Self Organizing System, Eds Yovitz & Cameron, Pergamon, p. 31-50. E. Schrodinger (1945), What is life?, Cambridge University Press, London. W. R. Ashby (1958), Requisite variety and its implications for the control of complex systems , Cybernetica, vol. 1, n 2, Namur, p. 83-99. W. R. Ashbv (1967), The place of the brain in the natural world , In Currents in modern biology, 1, North Holland Publ., Amsterdam, p. 95-104. R. L. Beurle (1962), Functional Organization in random networks, In Principles olf Self Organisation, Eds. H. Von Foerster and C. Z. Zopf, Pergamon, Oxford, p. 291-314. H. Atlan (1968), Applications of Information theory to the study of the stimu lating effects of ionizing radiation, thermal energy, and other environmental factors. Preliminary ideas for a theory of organization , Journal of Theoretical Biology, 21, p. 45-70. H. Atlan (1970), Role positif du bruit en thorie de l'information applique une dfinition de l'organisation biologique , Ann. phys. Mol. et md., 1, p. 15-33. C. E. Shannon and W. Weaver (1949), The mathematical theory of communication, University of Illinois Press, Urbana, 111. H. J. Morowitz (1955), Some order disorder considerations in living systems , Bulletin of Mathematical Biophysics, vol. 17, p. 81-86. S. M. Dancoff and H. Quastler (1953), The information content and error rate of living things , in Information theory in Biology, Ed. H. Quastler, Univ. of Illinois Press, Urbana, p. 263-273. J. Von Neumann (1966), loc. cit., p. 78. H. Atlan (1971), Self organizing and aging systems : a formal theory of organization in Mechanisms in development and ageing, Elsevier, Amsterdam ( paratre). M. Eigen (1971), Self organization of matter and the evolution of biological macromolecules , Die Naturwissenschaften ( paratre).

4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14.

15. 16. 17. 18. 19. 20. 21.