Vous êtes sur la page 1sur 195

HENRI

ATUN
ENTRE EL CRISTAL
Y EL
HUMO
Ensayo sobre la organización de lo vivo

Serie CIENCIA
Primera edición: febrero 1990

Editorial Debate
Primera edición: febrero 1990

Directores de la Serie CIENCIA FERNANDO


CONDE y FRANCISCO VARELA

Versión castellana de: MANUEL SERRAT CRESPO

Quedan rigurosamente prohibidas, sin la autorización escrita


de los titulares del Copyright, bajo las sanciones establecidas en las leyes, la reproducción
total o parcial de esta obra por cualquier medio o procedimiento, comprendidas la reprografia
y el tratamiento informático, y la distribución de ejemplares de ella, mediante alquiler o
préstamo públicos.

Titulo original: Entre le


cristal et la fumée 0 Éditions
du Seuil, 1979 C De la
traducción, Manuel Serrat
Crespo
0 Para la edición en castellano, Editorial Debate, S. A. Zurbano, 92, 28003 Madrid
ISBN: 84-7444-383-
0 Depósito legal: M.
3.482-1990
Compuesto en
Imprimatur, S. A.
Impreso en Rogar, Polígono Cobo Calleja, Fuenlabrada (Madrid)
Impreso en España
Primera edición: febrero 1990

Printed in Spain
A Aharon Katzir-Katchalsky, como homenaje hecho de admiración y añoranza.

Introducción
7

ENTRE EL CRISTAL Y EL HUMO

Las organizaciones vivas son fluidas y móviles. Todo intento de inmovilizarlas —en el laboratorio
0
en nuestra representación— las hace caer en una u otra de las dos formas de muerte. Oscilando «entre
el fantasma y el cadáver» (between the ghost and the corpse): así era como se le aparecía la
organización de una célula viva al biólogo D. Mazia (que describía los esfuerzos realizados durante
numerosos años para aislar una estructura celular que desempeñara un papel particularmente importante
en los mecanismos de la reproducción) \ Por su estructura lábil, se le escapaba descomponiéndose; y
cuando conseguía fijarla, moría. Cualquier organización celular está así compuesta de estructuras
fluidas y dinámicas. El torbellino líquido que destrona la ordenación rígida del cristal se ha convertido,
o vuelto a convertir, en el modelo, al igual que la llama de la vela, a medio camino entre la rigidez del
mineral y la descomposición del humo.
Y, sin embargo, no es imposible representar dicha organización viva. Se puede hablar de ella. Se puede
intentar describir su lógica. De hecho uno de los méritos de estas tentativas es haber planteado la
pregunta: ¿qué quieren decir los atributos de «organizado» y «complejo» cuando se aplican a sistemas
naturales, no totalmente dominados por el hombre porque no han sido construidos por él? Ahí es donde
las dos nociones opuestas de repetición, regularidad, redundancia, por un lado, y variedad,
improbabilidad, complejidad, por el otro, pudieron ser sacadas a la luz y reconocidas como ingre-

1
Se trataba del huso acromático, formación que aparece en las células al principio de su división por
mitosis, cuando desaparece el núcleo y aparecen los cromosomas.
Seminario internacional sobre la biología de las membranas, 1968, Instituto Weizmann, Rehoyo tet
Eilat, Israel.

8
dientes que coexisten en esas organizaciones dinámicas. Estas aparecieron así como compromisos entre
dos extremos: un orden repetitivo perfectamente simétrico del que los cristales son los modelos físicos
más clásicos, y una variedad infinitamente compleja e imprevisible en sus detalles, como la de las
formas evanescentes del humo.
La primera parte de esta obra está inspirada en los trabajos formales, emprendidos hace una decena de
años, sobre la lógica de la organización natural, el papel que en ella desempeña lo aleatorio —el «ruido»
y el famoso principio del orden o, más bien, de complejidad por el ruido—, y sobre la lógica de las
redes físico-químicas dotadas de propiedades de auto-organización. Lógicamente, todo ello había
brotado directamente de preocupaciones biológicas. La organización en cuestión, las propiedades de
auto-organización, son las que se encuentran en los organismos vivos o en los modelos que intentan
simularlos. Pero se ha querido extender algunas de estas consideraciones a otros sistemas y otras
organizaciones, humanas en particular. Esta ampliación ha sido rápidamente atacada como organicista y
vivamente combatida como tal. Y, sin embargo, los peligros —lógicos y políticos— del organicismo son
hoy bastante conocidos como para que se pueda evitar caer en esas trampas, sin por ello rechazar lo que
el estudio de los sistemas naturales pueda enseñarnos sobre las posibilidades lógicas que conciernen a la
organización en general.
En efecto, lo que nos hemos esforzado en despejar son los elementos de una lógica de las
organizaciones que la naturaleza ofrece a nuestras observaciones y experimentos. Los sistemas
biológicos nos proporcionan, evidentemente, los ejemplos más inmediatos, pero no son, forzosamente,
los únicos.
Así, en lo que concierne a la generalización de estas nociones a otros sistemas, más que procesos de
intención sobre un organicismo eventual, de todos modos superado, nos parecen pertinentes las si-
guientes preguntas. ¿En qué medida se trata de sistemas naturales o artificiales? ¿En qué medida es
posible trasladar las leyes de transferencia, de conservación, de degradación o de creación de la energía,
de la masa y de la información, tal como nos las enseña la físico-química biológica? ¿En qué medida, en
cambio, los tipos de finalidad implícita o explícita que caracterizan los sistemas artificiales pueden ser
trasladados al análisis de los sistemas naturales?
Y en particular, ¿un sistema humano, social por ejemplo, es

9
natural o artificial? Puesto que ha sido fabricado por los hombres parece tratarse de una organización
artificial, como todas las que resultan de planes y programas nacidos de cerebros humanos. En esta
medida, la lógica de los sistemas naturales podría parecer más bien inadecuada, e incluso desplazada y
peligrosa. Sin embargo, puesto que una organización social es también el
resultado de la composición de efectos de un gran número de individuos, se trata también, en ciertos
aspectos, de un sistema auto-organizador natural. El papel de los planes y los programas se ve, por fuerza,
relativamente limitado por el 'de las finalidades y deseos de los individuos y los grupos. Incluso en las
sociedades totalitarias, la cuestión del origen de la autoridad planificadora remite a los motivos
individuales que hacen que se la acepte o simplemente se acomoden a ella. Estos planes, conscientes e
inconscientes, aunque sean humanos, no han brotado del cerebro de un ingeniero superdotado. Es decir,
que, en gran medida, también se ofrecen a nuestra observación en forma de sistemas naturales
imperfectamente conocidos en lo que se refiere a sus interacciones constituyentes. En esta medida,
algunos elementos de la lógica de las organizaciones naturales pueden tener ahí un lugar de aplicación, en
esta medida, y sólo en esta medida.
Finalmente, la posición particular de nuestro psiquismo, lugar de lógicas y teorizaciones y, a la vez, parte
activa, elemento constitutivo de los sistemas que trata de teorizar, presenta, evidentemente, un carácter
absolutamente original, tal vez irreductible. De este modo, no puede tratarse de extender a las
organizaciones sociales los resultados del análisis de los sistemas naturales por pura y simple
transposición analógica. Ahí es, claro, donde reaparecerían las trampas del organicismo. Al menos tanto
como las transposiciones, el análisis de las diferencias deberá llevarnos a modificar nuestra representación
de estas organizaciones en relación a los otros modelos de organizaciones naturales y artificiales.
Estas advertencias deben acentuar el carácter hipotético de los textos de la segunda parte donde hemos
intentado tales transposiciones, analógicas y diferenciadoras, a sistemas humanos. Más que de
organización social, se trata de la organización psíquica; ahí es donde hemos reunido algunas hipótesis
sobre el lugar respectivo de los procesos conscientes e inconscientes en nuestro sistema cognitivo visto, al
menos en parte, como sistema auto-organizador; sobre la naturaleza del tiempo de estos procesos y sus
relaciones con el

10

tiempo físico; finalmente, sobre las posibles interacciones entre las culturas y la naturaleza en la
constitución y la evolución de la variedad de los grupos humanos.
De la misma fuente, reunidos en una tercera parte, proceden algunos textos críticos donde, en ciertas
ocasiones, hemos podido expresar nuestras reacciones ante otros puntos de vista a la vez próximos y
distintos. Edgar Morin en la investigación que inició
con El paradigma perdido: la naturaleza humana; René Thom y su teoría de las catástrofes;
Raymond Ruyer y La Gnosis de Princeton, cada uno en un género distinto e irreductible, provocaron así
nuevas interrogaciones, esencialmente metodológicas, por lo que respecta a distintas y nuevas
aproximaciones a un problema antiguo: ¿cuáles son las implicaciones de los hechos de experiencia por
los que comprobamos, encontramos (¿creamos?) un «orden» en la naturaleza?
Naturalmente, el «postulado de objetividad científica» estaba implícito en el marco donde fueron
presentados los textos de estas tres primeras partes. El fue quien, a menudo, impuso a «nuestro» discurso
el distanciamiento del «nosotros» académico. Pero sería estúpido ignorar que esta investigación estaba
presidida, paralela-mente, por una búsqueda donde la cuestión de la identidad y las pertenencias estaba en
el centro de nuestras preocupaciones. Por ello, a diferencia de la obra de numerosos investigadores
modernos, el trasfondo ideico si no ideológico, interlocutor tradicional en el diálogo implícito que
constituye toda investigación, era, para nosotros al menos, tanto la tradición judía recientemente
descubierta, como la greco-romana, cristiana
o no, enseñada en el instituto y la universidad.
Hemos reunido, pues, en una cuarta parte textos en los que aparecía explícitamente la presencia de
esta tradición. Tal vez sea ahí, en cambio, donde la problemática de la organización no aparezca con tanta
claridad. Y, sin embargo, también está. Ella es la fuente lejana —y quizá recíproca— de inspiración de un
texto en el que se proponen algunos elementos de un esbozo de teoría antropológica del fenómeno judío.
Sigue un estudio en el que la crítica de dos libros, al evocar las relaciones entre este fenómeno y el
psicoanálisis, sirve de pretexto para continuar el mismo ejercicio. Como eco de la teoría de la
organización por redundancia y variedad, se aborda —de modo relativamente explícito sólo en una nota a
pie de página— la cuestión de una ética de las relaciones entre teoría y
11

práctica vistas, respectivamente, como una indiferenciación laxista de lo posible y una diferenciación
rigurosa de la complejidad de lo real. En el lugar infinitamente abierto de las teorizaciones nacientes,
todos los posibles se equivalen. Todos pueden, apriori, deducir-se el uno del otro y constituyen así un
inmenso pensamiento tautológico —no formulado—, redundancia inicial sobre la que el trabajo de
formulación crítica, intermediario entre teorización y práctica, podrá producir su efecto (¿auto?)
organizador. En efecto, los impedimentos a estas deducciones indiferenciadas sólo podrían proceder de
los principios de identidad y de no-contradicción, principios de clausura, de limitación y definición de lo
real mucho más que fuentes de errores fecundos y de enriquecimiento de los posibles. Por el contrario, es
la práctica la que, en su intento de interactuar lo teórico y lo real, no puede prescindir de la diferenciación
por la ley. Esta — inconsciente, por el ruido, o consciente y formulada— reduce la redundancia
tautológica (que entonces aparece «falsa»), y, por ello, específica.
En este contexto se examinan las respectivas funciones del padre y del maestro en el aprendizaje
programado por el que pasa la educación. Este aprendizaje está superpuesto, en primer lugar, en la cría del
hombre —y luego va dejando poco a poco lugar— al aprendizaje no dirigido, propio de los sistemas auto-
organizadores. En el orden del pensamiento, el aprendizaje no dirigido actúa en la búsqueda intelectual y
artística. Permite la integración, aparentemente paradójica, de lo radicalmente nuevo y contribuye así, en
los adultos, a la creación de las culturas. Sigue, diferenciándose de ella, a la educación de los niños,
transmisora de cultura. Sin embargo, evidentemente, el paso «normal» del uno al otro —la maduración—
implica que la educación (los maestros después del padre) transmita también los medios para este paso.
Finalmente, el último texto hace dialogar explícitamente la lógica nueva del azar organizativo y los
textos de la antigua tradición. A través de este diálogo se plantea la cuestión de las relaciones entre estas
consideraciones nacidas de una reflexión de lógica biológica, en el contexto operativo y reductor de la
ciencia de hoy, y una ética posible no trivial de la vida y de la muerte.
Qué sorprendentes son las andaduras del inconsciente, cuando se comprende que las dos formas de
existencia entre las que navega lo vivo, cristal y humo, que se han impuesto como título a esta obra,
designan también lo trágico de las muertes que, en la generación
12

precedente, se abatieron sobre los individuos portadores de esta tradición: la Noche de cristal y la
Niebla del humo.
Esperemos que la diversidad de estos textos y su falta de unidad aparente se vean compensadas por la
posibilidad de una lectura no dirigida (desorden creador?), donde el orden adoptado aquí para su sucesión
sea, si se quiere, trastornado.

13

Primera parte

DESORDENES Y ORGANIZACION
COMPLEJIDAD POR EL RUIDO
«Cuando veáis mármol puro, no digáis: "agua, agua"...» (Talmud de
Babilonia, Haguiga.) Que debe convertirse en:
«Cuando veáis agua, no la matéis diciendo: "mármol".»

«De lo indeterminado, la regla no puede dar determinación precisa.»


Aristóteles, Etica a Nicómaco, V, capítulo X, 7.

15

1
DOGMAS Y DESCUBRIMIENTOS OCULTOS EN LA NUEVA BIOLOGIA1

Las antiguas preguntas se retoman sin cesar y los nuevos descubrimientos sólo sirven, a menudo, para
tamizar viejas respuestas. «¿Puede la vida ser reducida a fenómenos físico-químicos? ¿Una o algunas
definiciones —descubriendo los misterios— de la vida pueden escapar a tal reducción?» Algunos
biólogos, filósofos u hombres honestos se enfrentan regularmente en torno a esta vieja discusión que el
libro de Jacques Monod El azar y la necesidad1 ha puesto de nuevo de moda, articulándola sobre los
descubrimientos y el vocabulario de la biología molecular. Sin embargo, este libro, al igual que los
descubrimientos de la nueva biología que ha contribuido a dar a conocer, tiene un interés muy distinto.
Se plantean nuevas cuestiones con respecto a estos descubrimientos cuyas consecuencias son a menudo
ocultadas por el contexto histórico de las respuestas que han sido dadas a las antiguas preguntas.
El objetivo del libro de Monod era doble. En el plano de la historia de las ciencias, se trataba de
replantear el antiguo problema del finalismo en biología a la luz de las enseñanzas de la biología
molecular. En el plano de la ideología, se trataba esencialmente de un arreglo de cuentas con la
pretensión del materialismo dialéctico de basar las verdades científicas en la línea de la dialéctica de la
naturaleza de Engels. En efecto, J. Monod había sido de los pocos biólogos comunistas que rompieron
con el marxismo debido al asunto Lyssenko. Sus propios descubrimientos habían luego contri-buido a
hacer triunfar la genética mendeliana y a demostrar la ridiculez de las teorías científicas que extraían su
autoridad de la adecuación a una ideología cualquiera, en este caso al materialismo dialéctico.
1
Inicialmente aparecido en Iyyun, A Hebrew Philosophical Quarterly (texto hebreo, resumido en inglés), vol. 26, núm. 4, 1975,
págs. 207-217.
2
París, Editions du Seuil, 1970.

16
Sólo podemos compartir la admiración de su amigo el filósofo Michel Serres por esta hazaña de
«arreglar cuentas con el marxismo ganando al mismo tiempo el premio Nobel».
Pero la cuestión del finalismo fue, evidentemente, el verdadero objetivo de su libro. Las relaciones
particulares de la biología con el finalismo están bien resumidas en una conocida fórmula: «La
teleología —razonamiento por causas finales— es como una mujer sin la que el biólogo no puede vivir,
pero con la que le avergüenza ser visto en público» 3. En efecto, se confiese o no, un implícito finalismo
está presente en la mayoría de los discursos biológicos. Situación que resulta molesta, desde el punto de
vista científico, porque niega el principio de causalidad, según el cual las causas de un fenómeno deben
encontrarse antes y no después de su aparición. Puesto que tal principio era un fundamento del método
científico, la imposibilidad de prescindir del finalismo en biología era una debilidad de esta ciencia que
J. Monod analiza brillantemente en la primera parte de su libro. Después intenta mostrar cómo la
elucidación de los mecanismos moleculares de la herencia permite resolver esta dificultad; utiliza
entonces el concepto de teleonomia para re-emplazar el de teleología o finalismo.
Muy brevemente resumida, su tesis es la siguiente: un proceso teleonómico no funciona en virtud de
causas finales, aunque lo parezca, incluso aunque parezca orientado hacia la realización de formas que
sólo aparecerán al final del proceso; lo que, de hecho, lo determina no son estas formas como causas
finales, sino la realización de un programa, al igual que ocurre en una máquina programada cuyo
funcionamiento, aunque parezca orientado hacia la realización de un estado futuro, de hecho está
determinado causalmente por la secuencia de estados por los que le hace pasar el programa
preestablecido. El propio programa contenido en el genoma característico de la especie es el resultado
de la larga evolución biológica donde, bajo el efecto simultáneo de mutaciones y de la selección
natural, se habría transformado adaptándose a las condiciones del medio.
Digamos enseguida que el problema no está por ello resuelto, sino desplazado. Veremos que se plantea
en términos nuevos y que

3Brücke, fisiólogo alemán, 1864, citado por Yechaiahou Leibowitz, «Sobre la vida, los mecanismos de lo vivo y su
aparición», Mahachavot (IBM, Tel Aviv), núm. 35, julio de 1975, págs. 14-18.

17
tiene como efecto, entre otros, mostrar el carácter anacrónico de las disputas sobre la reducción
posible o no de la vida a los fenómenos físico-químicos.
En primer lugar, efectivamente, ¿de qué programa se trata? De hecho, se trata de una metáfora, sugerida
por cierto número de hechos bien establecidos, cuyo descubrimiento ha desentrañado algunos de los
mecanismos biológicos que, hasta entonces, parecían más misteriosos (los más irreductibles, los más
específicos de la «vida»): la reproducción de los caracteres hereditarios que se apoyan en la replicación
del ADN y la expresión de estos caracteres hereditarios gracias a la síntesis de proteínas enzimáticas.
Estas, gracias a sus posibilidades de catalizar determinada reacción del metabolismo, orientan la
actividad celular hacia una u otra vía y de-terminan así la manifestación de un carácter dado en un modo
particular de actividad. La síntesis de estas enzimas es, pues, la clave —o una de las claves— de la
manifestación de caracteres hereditarios. Los mecanismos de esta síntesis, cuyo descubrimiento se debe
en gran parte a los trabajos del propio J. Monod (con F. Jacob y sus alumnos), hacen aparecer lo que a
veces se ha denominado el «dogma central» de la biología molecular: los ADN del genoma llevan una
información específica codificada en forma de secuencias de bases de nucleótidos; la síntesis de las
proteínas consiste en la transmisión de esta información y su traducción en secuencias de aminoácidos,
que especifican la estructura y las propiedades enzimáticas de estas proteínas. Lo más notable de este
descubrimiento es el carácter universal del código: la correspondencia entre las secuencias de
nucleótidos en los genes y las secuencias de aminoácidos en las proteínas es la misma en todos los seres
vivos estudiados hasta hoy, «desde la bacteria al elefante», incluyendo, evidentemente, al hombre.
Estos descubrimientos llevaron a algunos biólogos, entre ellos J. Monod, a considerar que «los
misterios de la vida» habían sido des-entrañados en general, y en particular que el problema del
finalismo en biología podía por fin eliminarse. Para ello, imaginaban una noción de programa genético
según la cual los acontecimientos y formas futuras hacia los que parece dirigirse el organismo están, de
hecho, contenidos al principio, de modo codificado, en las secuencias de nucleótidos de los ADN del
genoma, al modo de un pro-grama de ordenador.
Tal es, resumido muy brevemente, el contexto fáctico de las dis-

18
cusiones teóricas4 sobre la revolución aportada por la biología moderna a nuestro modo de
representarnos la vida. Pero es muy importante comprender que esta revolución comporta dos aspectos.
Por un lado, se trata, sin duda alguna, de descubrimientos que parecen dar la razón a una tendencia
mecanicista de la biología según la cual todos los fenómenos de la vida deben poder explicarse en
términos de reacciones físico-químicas. Como corolario, las tentativas de definición formal de la vida
son rechazadas como problemas escolásticos superados por una biología experimental que se desea
exclusivamente operacional. «Ya no se interroga la vida en los laboratorios; hoy la biología se interesa
por los algoritmos del mundo viviente 5» (F. Jacob). En efecto, los mecanismos hasta entonces
misteriosos de la herencia se explican ahora en términos de interacciones moleculares.
Pero, por otro lado, estas explicaciones se ven obligadas a integrar en la física y en la química nociones
cibernéticas (código, in-formación, programa), de modo que se trata de una físico-química no clásica,
ampliada en cualquier caso en relación a la antigua a la que se llama precisamente físico- química
biológica.
No es, pues, sorprendente que, según sus inclinaciones filosóficas, cada biólogo sea más sensible a uno
u otro de estos aspectos. En el primer caso, sólo retendrá el hecho de que fenómenos específicos de lo
vivo pueden explicarse de un modo tal que se reducen a fenómenos físico- químicos de estructuras e
interacciones moleculares. En el segundo uso, sólo retendrá el hecho de que tales explicaciones, por sí
mismas, no pueden evitar apelar a nociones de físico-química no clásica, que algunos no vacilan en
calificar de psicológicas o, incluso, metafísicas.
Sin embargo, ese debate nos parece inútil, pues está. superado por el propio contenido de estos
descubrimientos. Estos tienen, en efecto, consecuencias mucho más importantes en el plano del
pensamiento como para limitarse a tomar partido en un debate que

4
Como, por ejemplo, la mantenida entre Michel Revel «Sobre la aparición de la vida y lo que hay o no hay tras sus
mecanismos», Mahachavot (IBM, Tel Aviv), núm. 33, 1972, págs. 41-59; y Yechaiahou Leibowitz, «Sobre la vida, los
mecanismos de lo vivo y su aparición», op. cit.; véase también las dos posiciones clásicas, espiritualista-teísta y materialista-
mecanicista, defendidas, respectivamente, por P.-P. Grassé, L'Evolution du vivant, París, Albin Michel, 1973, y J. Tonnelat,
Thermodynamique et Biologie, t. I y II, París, Maloine, 1977-1978.
5
Francois Jacob, La Logique du vivant, París, Gallimard, 1970. Hay trad. esp. La lógica de los vivientes, Laia, 1977.

19
sólo se planteaba en el contexto de la biología y de la físico-química de comienzos de siglo. De hecho,
ya Bergson, en la primera parte de La evolución creadora, había tenido la intuición del carácter de falsa
disputa que tenía la oposición entre mecanicismo y finalismo. Su análisis crítico de esas dos tendencias
podría retomarse hoy íntegramente y fundamentarse mejor aún en los descubrimientos de la biología
molecular. Ahora bien, la superación por esta tercera vía de la falsa disputa anterior sólo podía hacerla
(por desgracia) por una apelación a la intuición: la de un tiempo creador a la vez mecanicista y finalista
para el que no disponía Bergson del lenguaje y los instrumentos conceptuales adecuados. Lenguaje e
instrumentos que parecen proporcionarnos hoy la termodinámica de los sistemas abiertos, la teoría de la
información, la cibernética, permitiendo así una relectura de La evolución creadora muy sorprendente y
enriquecedora. Con estos descubrimientos aparece un nuevo continente, no sospechado hasta entonces
ni siquiera por quienes fueron sus artesanos. En efecto, si es cierto que la búsqueda de los mecanismos
moleculares de la herencia pretendía resolver el antiguo problema: ¿puede o no puede explicarse la vida
con sólo la ayuda de los fenómenos físico-químicos?, su elucidación descubre todo un conjunto de
nuevos problemas que no conciernen ya a la vida sino a la físico-química. Como muy bien dice E.
Morin6: «¡Creían descubrir la India y descubrieron América!» De golpe, el antiguo problema se ve
relegado, englobado en los nuevos: ¿qué quieren decir las nociones de información, código, programas,
aplicadas no ya a máquinas artificiales, sino a sistemas físico-químicos naturales? El hecho de
calificarlas de psicológicas no basta, pues si bien la psicología las utiliza, no son sólo psicológicas. Son
de hecho nociones cibernéticas que se sitúan «en la bisagra del pensamiento y la materia» (Costa de
Beauregard)7 o también «entre la física y la biología» (S. Papert) 8 y que obligan a interrogarse de nuevo
sobre la cuestión de la realidad material o ideal de las nociones físicas, aun de las más habituales 9.

6
Edgar Morin, Le Paradigmeperdu; la Nature humaine, París, Editions du Seuil, 1973; LaMéthode, I, Editions du Seuil, 1977.
Hay trad. esp. El paradigma perdido, 3| ed., Kairos, 1983.
7
O. Costa de Beauregard, «Two principles of the science of time», New York Academy of Science, 138, ont. 2, 1967, págs.
407-421.
8
S. Papert, «Epistémologie de la cybernétique», en Logique et Connaissance scientifique, J. Piaget (Ed.), París, Gallimard,
«Encyclopédie de la Pléiade», 1967.
9
La historia de la física muestra, además, que las nociones hoy más evidentes como las de energía, fuerza, velocidad, son de
hecho el resultado de la progresiva

20
En efecto, si nos situamos en la biología, estas nociones, por las respuestas que sugieren a las antiguas
preguntas sobre el origen de la vida y la evolución de las especies, hacen brotar de hecho preguntas por
completo nuevas y fundamentales sobre la realidad física de la organización, sobre la lógica de la
complejidad y sobre la de los sistemas auto-organizadores. Naturalmente, si se quiere es posible
encontrar en numerosos filósofos de la naturaleza estas preguntas planteadas ya en su tiempo, ya se
trate de Maupertuis, Schelling, Schopenhauer, Bergson... o los antiguos, Heráclito,
Aristóteles, Lucrecio... sin hablar del Midrash y los escritos cabalistas recientemente recuperados por A.
I. H. Kook. Pero no se puede hacer abstracción del contexto cultural en que se plantean los problemas.
Si existen muchas preguntas eternas y si, probablemente, todo ha sido dicho ya sobre estas preguntas, el
modo de decirlo es lo más importante y la renovación de los términos de un problema supone, de hecho,
la renovación del propio problema. El problema del origen de la vida, hoy, es el de la aparición del
primer programa. En efecto, si se admite la metáfora del programa genético contenido en los ADN —
más adelante veremos que no está al abrigo de serias críticas—, el programa de desarrollo de un
individuo le es proporciona-do al ser concebido, en la fecundación del óvulo, a partir de la replicación
de los ADN de sus padres. Se plantea entonces la cuestión del origen del primer programa, es decir, del
primer ADN capaz de reproducirse y codificarse para la síntesis de enzimas.

integración en nuestro modo de pensamiento de conceptos en un principio muy abstractos en los que la
lógica del observador físico-matemático nunca estaba ausente. Uno de los ejemplos más sorprendentes
es el de la paradoja de Gibbs sobre la entropía de mezcla (de dos gases, por ejemplo), cuya existencia
depende de las capacidades de discernimiento entre las moléculas de estos dos gases. Estas mismas
capacidades son un fenómeno, en parte contingente, vinculado al progreso técnico, como ha demostrado
el descubrimiento de la radiactividad: la mezcla de dos isótopos distintos (uno estable y otro radiactivo)
sólo acarrea la producción de una entropía de mezcla tras el descubrimiento de la radiactividad, lo que
ilustra muy bien el papel de la observación y de la medida en la definición de la entropía. Esto es
general: como Kant había ya visto, los conceptos físicos no definen una realidad física intrínseca, en sí,
ni una realidad puramente ideal ligada a la subjetividad del sujeto pensante, sino una realidad
intermedia, la de las categorías de la percepción y de la medida, es decir, de las interacciones entre
nuestro pensamiento y el mundo que nos rodea. Esta propiedad, a menudo olvidada en física clásica,
reencontrada en física cuán-tica, es todavía más eficente en lo que concierne a los conceptos
cibernéticos que se han impuesto en la biología moderna.

21
Varias líneas de respuesta son posibles para esta cuestión. Una extrapola la reproducción en
laboratorio de las condiciones físico-químicas que se suponen similares a las de la atmósfera
primitiva y la «sopa» primitiva. Se basa en los resultados de experimentos que han demostrado la
posibilidad, en estas condiciones, de realizar síntesis de aminoácidos y de nucleótidos, primeros
ladrillos indispensables para la fabricación del edificio, ya muy complicado, de este primer programa.
Evidentemente, se debe subrayar el carácter hipotético de estas teorías a las que J.
Monod no parecía, por su parte, conceder demasiada importancia. Para él, la cuestión del origen de la
vida y del primer programa era una cuestión no científica, pues concierne al acontecimiento de un
suceso de ínfima probabilidad, pero acontecido de todos modos y una sola vez. Para Monod, dado que
sólo los encuentros moleculares al azar pueden explicar la constitución del primer organismo vivo, y
que esto en estas condiciones sólo puede imaginarse con una probabilidad casi nula, la cuestión de su
nacimiento no puede plantearse a posteriori en términos de probabilidades, en la medida en que ya ha
ocurrido realmente. Se trataría, pues, típicamente, de un suceso único, no reproducible, y que escaparía
por definición al campo de aplicación de la investigación científica. Por el contrario, otros, como A.
Katzir-Katchalsky10, M. Eigen n, I. Prigogine 12, no han renunciado y se han lanzado a la búsqueda de
leyes de la organización —físico-químicas, naturalmente— que permitan comprender dicho origen,
planteando no sólo que el primer programa no tenía una probabilidad casi nula, sino que, por el
contrario, su aparición era obligada e ineludible. En esta perspectiva, el origen de la vida no habría sido
un acontecimiento único de muy débil probabilidad, sino un acontecimiento que se habría repetido cada
vez que las condiciones físico-químicas de la tierra primitiva se hubiesen reproducido. El eventual
descubrimiento de formas de vida en otros planetas sería, evidentemente, un argumento en favor de
esta segunda línea de pensamiento.

10
A. Katzir-Katchalsky, «Biological flow structures and their relation to chemico-diffusional coupling», Neuro- Sciences
Research Program Bulletin, vol. IX, núm. 3, 1971, págs. 397-413.
11
M. Eigen, «Self-Organization of matter and the evolution of biological macromolecules», Die Naturwissenschaften, 58,
1971, págs. 465-523.
12
P. Glansdorff y I. Prigogine, Structure, Stabilité et Fluctuations, Paris, Masson, 1971.

22
La cuestión de la evolución de las especies se replantea, así, en términos nuevos: algunas mutaciones al
azar producen cambios en los caracteres hereditarios de una especie, las presiones físicas y ecológicas
del entorno habrían seleccionado los organismos más adaptados que, siendo así los más fecundos,
pronto habrían reemplazado a las formas anteriores o, como mínimo, coexistido con ellas. Este
esquema constituye la trama del neodarwinismo y J. Monod lo expone acompañándolo de una
importante observación que pretende prevenir la crítica: reconoce que al
sentido común le cuesta aceptar que esta mera superposición mutaciones-selección pueda ser
suficiente para explicar la evolución adaptativa de las especies hacia formas cada vez más
complejas.
Y es que, en efecto, el modo en que este mecanismo de selección por la fecundidad puede conllevar un
incremento progresivo de la complejidad y la aparente orientación de la evolución no está demasiado
claro. Aunque la idea de una evolución lineal, de las bacterias a los mamíferos sin desviaciones en los
ramales colaterales, ha sido abandonada desde hace tiempo, es igualmente cierto que los organismos
aparecidos más recientemente parecen los más complejos, o los más ricos en posibilidades de autonomía,
o los más organizados, mientras que las bacterias, más antiguas, están, no obstante, perfectamente
adaptadas a su medio desde el punto de vista de su fecundidad.
Se invoca, en el origen de esta orientación, una interacción entre el medio y el organismo: «La adaptación
es el resultado de una sutil partida entre los organismos y lo que les rodea (...). Lo que se «elige» es tanto
el medio por el organismo como el organismo por el medio... (...). La evolución se convierte entonces en
el resultado de la retroacción ejercida por el medio sobre la reproducción 13»
Y también: «Si los vertebrados tetrápodos aparecieron y pudieron producir el maravilloso florecimiento
que representan los anfibios, los reptiles, los pájaros y los mamíferos, fue en el origen porque un pez
primitivo .«eligió» ir a explorar la tierra donde, sin embargo, sólo podía desplazarse dando torpes saltados
14
»
Reconoce J. Monod el carácter no convincente del modo habitual de representar los mecanismos de
mutaciones-selección para

13
F. Jacob, La Logique du vivant, op. cit. Hay trad. esp. La lógica de los vivientes, Laia, 1977.
14
J. Monod, Le Hasard et la Nécessité, op. cit., pág. 142. Hay trad. esp. El azar y la necesidad, 2.a ed., Orbis, 1987; 3.a ed.,
Tusquets, 1986; 9.a ed., Barral, 1987.

23
dar cuenta del carácter orientado de la evolución, y lo atribuye a las carencias de nuestra imaginación y de
nuestro sentido común, que acostumbrados a aplicar a sistemas relativamente simples, presentan grandes
insuficiencias cuando se trata de representar sistemas tan complejos como los organismos vivos. De esta
forma la situación sería análoga a la que existe en física cuántica y relativista, donde la representación en
las categorías del sentido común no puede seguir el rigor científico al que nos conduce el método
experimental y la razón matemática. En física estas cuestiones parecen muy claras cuando comprendemos
que nuestra representación sensorial y
nuestro «sentido común» sólo están adaptados a la realidad macroscópica, y no al mundo
submicroscópico de partículas elementales o al infinitamente grande de las galaxias, y puesto que
ninguna razón nos fuerza a suponer que las mismas categorías de la representación sensorial son
válidas en todos estos universos, aceptamos renunciar a esta representación concreta en beneficio de
una representación abstracta, matemática, más rigurosa.
Para J. Monod la situación sería análoga en biología porque nuestras categorías habituales de
representación sensorial y de sentido común no están adaptadas a la extremada complejidad de los
sistemas biológicos. Pero, de hecho, la situación es muy distinta, pues las categorías del discurso de la
física se definen en un lengua-je riguroso, que es el de las matemáticas. En cambio, no existe to davía
una teoría con el suficiente grado de complejidad que nos permita representar los fenómenos
biológicos de una manera abstracta y al mismo tiempo rigurosa y comprehensible en relación a los
datos de la experiencia, a falta de una representación concreta inmediata.
De hecho, estas dificultades han llevado, en un principio, a la búsqueda de tal teoría de la complejidad
y de la organización, para cuestionar más adelante la idea de teleonomia y de programa genético. No
para reenviarlos a la psicología y obtener la conclusión clásica y esterilizante de la imposibilidad de
reducir la vida a fenómenos físico-químicos, sino para extender la física y la química a nuevas
dimensiones, donde los fenómenos de lo vivo hallarían su lugar natural. Hemos visto más arriba que
Monod y la mayoría de los biólogos moleculares utilizan estas nociones para dar cuenta de la finalidad
observada en biología de un modo distinto que con la invocación de causas finales. Y es que, en efecto,
la finalidad antigua, en biología, molestaba porque tenía siempre un tufo religioso:

24
implicaba siempre, aun sin decirlo, una providencia que dirige el desarrollo de un embrión (e incluso la
evolución de las especies, como en Teilhard de Chardin) hacia su estadio final. Por el contrario, la
nueva finalidad sería aceptable al haber brotado no de un idealismo teológico, sino de un neo-
maquinismo.
En efecto, la propia noción de máquina ha cambiado y es de eso de lo que no se toma a menudo
conciencia, ignorándose sus consecuencias en este tipo de debate. Antaño existía oposición entre
máquina y sistema organizado. Sólo los seres vivos estaban organiza-dos. Para Maupertuis (Ensayo
sobre los seres organizados), o para Kant, la organización era la característica irreductible de la vida; a
ella se oponía la máquina, cuyo modelo era el péndulo, luego el reloj, luego la máquina de vapor,
máquinas en las que estaba ausente toda organización: no se hallaba en ellas, al revés que en los seres
vivos, ninguna finalidad dirigida por procesos de control. La cibernética, hace una treintena de años,
revolucionó la idea de máquina y la de organización. Las nociones de control, de feedback, de trata-
miento de información cuantificada, aplicadas a las máquinas (servomecanismos, ordenadores, robots)
hicieron aparecer por primera vez seres inexistentes hasta entonces: las máquinas organizadas. A partir
de entonces, la aplicación de conceptos brotados del cono-cimiento de estas máquinas a los seres vivos
descritos como «má-quinas naturales» sólo fue una justa inversión de las cosas; nociones vinculadas a
la organización fueron aplicadas al mundo de lo vivo, del que habían sido extraídas previamente para
inspirar la tecnología de las nuevas máquinas artificiales. Pero, entre tanto, tales nociones habían
cambiado por completo de sentido: la organización no es ya el resultado de propiedades misteriosas y
no dominables ligadas a la propia existencia de la vida, dado que se comprende su lógica en el caso de
estos nuevos sistemas que son las máquinas organizadas.
De ahí el cambio de terminología, de la teleología del finalismo antiguo a la teleonomia de hoy. En
efecto, esta nueva finalidad no se evidencia, como la antigua, en la forma de una presencia misteriosa y
providencial, actuando sobre la materia viva para formarla y dirigirla hacia sus formas y realizaciones
futuras. Se evidencia en forma de la secuencia de estados por los que pasa una máquina organizada
cuando realiza un programa. La cuestión del origen del programa se deja de lado, no por negligencia,
sino porque se sabe bien que se trata de una metáfora que será preciso analizar más

25
tarde. Y ésa es, probablemente, la debilidad del libro de J. Monod que pudo hacer creer que los
problemas estaban definitivamente resueltos, cuando de hecho han sido reemplazados por nuevas
preguntas que no podían plantearse hasta entonces: ¿qué diferencia una «máquina natural», es decir, un
sistema vivo, de una máquina artificial, dando por sentado que ambas son sistemas organizados y que,
gracias a las nuevas máquinas, comenzamos a tener algunas ideas sobre lo que es la organización?
Se advierte que estas nuevas preguntas van mucho más allá de la clásica disputa sobre la posibilidad o
no de reducir la vida a lo físico-químico. Estas preguntas sobre la lógica de la organización buscan
respuestas válidas a la vez para sistemas físico-químicos no vivientes y para sistemas vivos. Las
primeras reflexiones críticas sobre la noción de programa genético habían mostrado ya los límites de la
metáfora del programa: se trata, en efecto, de un programa que necesita de los productos de su lectura y
de su ejecución (las proteínas-enzimas que regulan la transcripción y la traducción de los ADN) para
ser leído y ejecutado. O también, como se dice a veces, de un programa «de origen interno». Ahora
bien, está claro que no se conocen tales programas en las máquinas artificiales. De hecho, la analogía
de un programa como secuencia de instrucciones conduce a la idea de que una célula es, por entero, su
propio programa que se construye, por tanto, a medida que la máquina funciona, al modo de un
ordenador que se construyera a sí mismo 15. Dicho de otro modo, cuando se

15
La ambigüedad de esta utilización de la noción de programa aparece claramente con el desarrollo de las manipulaciones
genéticas. Se dice que se «reprograman» microorganismos para que fabriquen tal o cual proteína animal
o humana cuya producción nos interesa de modo especial. La acción finalista, impuesta desde el exterior, aparece
efectivamente y es por ello que parece tratarse de programación. De hecho, se utiliza una máquina (la bacteria) con su propio
«programa de origen interno» gracias a lo que algunos ADN son leídos y traducidos en proteínas. Lo que se introduce en
forma de fragmentos de ADN de origen externo se parece más a datos que deben tratarse que a un verdadero programa de
ordenador. El soporte físico indispensable para esta operación (plásmido, virus...) permite a estos datos ser presentados de
modo que el programa interno pueda actuar sobre ellos.
De hecho, aquí se roza un giro decisivo en la evolución de la biología que se une, ahora, a la física y la química como ciencia
de artefactos. Hace mucho tiempo que, para esas dos ciencias, el objeto había dejado de ser directamente proporcionado por
la naturaleza y se había convertido en un sistema artificialmente construido, más fácil de dominar — intelectual y
técnicamente—, desde el plano inclinado sin rozamiento hasta los aceleradores de partículas. Con las manipulaciones
genéticas,

26
intenta, más allá de su innegable valor operativo en la actual práctica biológica, comprender la
significación de estas metáforas cibernéticas aplicadas a la biología, se llega inevitablemente al plantea-
miento de nuevas preguntas.
Evidentemente, es posible extraer argumentos para satisfacerse con la antigua posición negativa y decir:
«Ya ven, sólo se trata de metáforas y la biología moderna no explica realmente, en términos físico-
químicos y mecanicistas, los fenómenos de lo vivo.» Pero esta actitud, puramente negativa y
esterilizante, no se justifica en cuanto estas nuevas preguntas se plantean en una nueva lengua, y las res-
puestas que reclaman implican, inevitablemente, no una reducción de lo vivo a lo físico- químico, sino
una ampliación de éste a una biofísica 16 de los sistemas organizados, aplicable a la vez a las máquinas
artificiales y naturales.
Todos los trabajos sobre la lógica de la auto-organización, particularmente, van en ese sentido. El
concepto de sistema auto-organizador aparece como un modo de concebir los organismos vivos en
forma de máquinas cibernéticas de propiedades particulares. Sin embargo, claro está que los únicos
sistemas auto-organizadores (y los únicos autómatas autorreproductores) conocidos hasta ahora son las
máquinas naturales cuya «lógica», justamente, no se conoce de modo preciso. En estas condiciones es
posible interrogarse sobre la utilidad de la terminología que consiste en reemplazar el término
«organismo» por el de «sistema auto-organizador» o «autómata autorreproductor», sin que por ello se
sepa cómo se realizan tales funciones.
De hecho, esta utilidad es indiscutible: cuando se usa esta terminología se quiere decir, implícitamente,
que las funciones más

todo un campo de la biología puede prescindir de una andadura que pretendía comprender los sistemas vivos naturales en
lugar de concentrarse sobre el dominio —intelectual y técnico— de los sistemas vivos artificiales. Evolución normal en un
contexto donde se trata, para las ciencias, de ser cada vez más operativas, extirpan-do toda preocupación «metafísica»: tras
haber buscado el «cómo» en vez del «por-qué», limitarse ahora al «qué». Resituar así la actividad científica en la obra del
homo faber más que sapiens presenta evidentemente la considerable ventaja de preservar una aparente neutralidad
ideológica de la ciencia, impidiendo su utilización teórica para fundamentar las más evidentes ideologías totalitarias. Pero no
sólo tiene ventajas en la medida que permite su utilización por una ideología implícita de lo operativo unidimensional que,
además, ella misma contribuye a instituir, con mucha frecuencia sin saberlo (véase más adelante, págs. 293-294).
16
La bioquímica constituye ya esa ampliación en relación a la química mineral y orgánica.

27
extraordinarias de los organismos vivos son el resultado de principios cibernéticos particulares que se
trata de descubrir y de precisar. Como principios particulares deben dar cuenta del carácter propio de
los organismos vivos que realizan dichas funciones. Pero como principios cibernéticos son postulados
en continuidad con los demás campos de la cibernética, mejor conocidos, que se aplican a los
autómatas artificiales. Las consecuencias de este postulado son dobles: a) La especificidad de los
organismos vivos está vinculada a principios de organización más que a propiedades vitales
irreductibles; b) una vez descubiertos estos principios, nada debiera impedir aplicarlos a autómatas
artificiales cuyas funciones se harían entonces iguales a las de los organismos vivos. En esta
perspectiva, las investigaciones formales sobre la lógica de los sistemas auto-organizadores (que son a
la vez hipotéticos, en el sentido de que nadie los ha realizado nunca, y muy reales, sin embargo, en el
sentido de que la naturaleza los proporciona en abundancia) pueden presentar cierto interés.
En este marco, trabajos como los de M. Eigen 17 son interesantes no sólo porque proporcionan un
modelo de evolución química que permite representarse el origen de la vida, sino sobre todo porque
aportan un análisis muy penetrante de la lógica de lo que puede representarse como una auto-
organización de la materia aparente-mente finalista, con progresivo aumento de complejidad. Del
mismo modo, los trabajos de I. Prigogine 18 y su escuela, los de A. Katzir-Katchalsky 19 y sus
colaboradores, han mostrado cómo aparecen, en sistemas físico-químicos lejanos del equilibrio,
propiedades auto-organizadoras como consecuencia de acoplamientos de flujo y de fluctuaciones
aleatorias. Tales propiedades, que son propias de sistemas termodinámicamente abiertos, han permitido
descubrir una nueva clase de estructuras naturales más ricas que la de los cristales, cuando ésta era la
única verdaderamente estudiada hasta hace muy poco, la única a la que se refería J. Monod en su libro
20
como un modelo físico de estructuración de la materia viva. Finalmente, nuestros propios trabajos
sobre una teoría de la organización ins-

17
M. Eigen, op. cit.
18
P. Glansdorff e I. Prigogine, Structure, Stabilité et Fluctuations, op. cit.
19
A. Katzir-Katchalsky, op. cit.
20
H. Atlan, L'Organisation biologique et la Théorie de l'information, París, Hermann, 1972; «On a formal definition of
organization», Journal of Theoretical Biology, 45, 1974, págs. 295-304.

28
pirada por una ampliación de la teoría de la información de Shannon permiten resolver ciertas paradojas
lógicas de la auto-organizacion: cómo y en qué condiciones la información puede crearse a partir del
ruido; dicho de otro modo, cómo y en qué condiciones el azar puede contribuir a crear complejidad
organizativa en vez de ser sólo un factor de desorganización. Esto, como Piaget 4 ha visto
perfectamente, supone plantearse tanto la cuestión de la lógica de una evolución con aumento de
complejidad bajo el efecto de mutaciones al azar canalizadas por la selección natural, como la lógica del
desarrollo epigenético en el que se constituye un programa de desarrollo a partir de un núcleo
invariante, por interacciones con estímulos no programados —aleatorios— del entorno, como
plantearse, finalmente, la lógica de los mecanismos de aprendizaje no programado, es decir, sin profesor

4J. Piaget, «Los dos problemas principales de la epistemología biológica», en Logique et Connaissance scientifique; hay
trad. esp. Tratado de lógica y conocimiento científico, Lógica-Paidos Ibérica; J. Piaget (Ed.), op. cit.; Adaptation vitale et
Psychologie de l'intelligence, París, Hermann, 1975; hay trad. esp. Adaptación vital y psicología de la inteligencia, Siglo XXI
España, 1980.
(«asimilación cognoscitiva») 5, en el que lo aprendido es realmente nuevo, perturbador, por tanto, que
tendría aparentemente que ser rechazado por el estado precedente de organización del sistema
cognitivo, si este no estuviera regido también por la lógica de la complejidad por el ruido 6
A la luz de todos estos trabajos, todavía en curso, pero adelantados ya, nos parece superada la
problemática clásica de la posible o imposible reducción de la biología a la físico-química. Es necesaria
una nueva filosofía natural que los tenga en cuenta. Y también está en vías de elaboración 7
24
Algunos autores como C. Castoriadis, E. Morin, J. Piaget, J. Schlanger, M. Serres, I. Stengers..., por limitarnos a los autores
de lengua francesa, nos parece que participan de este movimiento.

29
2
ÓRDENES Y SIGNIFICACION

Conocemos la historia del despacho y las estanterías llenas de libros y documentos \ Estos, en apariencia,
están amontonados de cualquier modo. Sin embargo, su propietario sabe encontrar perfectamente, si lo
necesita, el documento que busca. En cambio si, por desgracia, alguien decide «poner orden», tal vez sea
incapaz de encontrar nada. En ese caso es evidente que el aparente desorden era orden y viceversa. Se
trata aquí de documentos en su relación con su usuario. El aparente desorden ocultaba un orden
determinado por el conocimiento individual de cada uno de los documentos y de su posible significación
utilitaria. ¿Pero por qué ese orden tenía la apariencia de un desorden? Porque, para el segundo observador,
que desea «poner orden», los documentos no tenían ya, individual-mente, la misma significación. En
último término, no tenían ninguna salvo la dependiente de su forma geométrica y el lugar que pueden
ocupar en la mesa y las estanterías para coincidir en su conjunto con cierta idea apriori, una pauta,
considerada como globalmente ordenada.
Se ve, pues, que la oposición entre orden y apariencia de orden procede de que los documentos sean
considerados o bien con su significación individual y específica o bien globalmente con una significación
individual diferente (determinado, por ejemplo, por su tamaño, su color o cualquier otro principio de
orden decidido desde fuera y sin el conocimiento de su usuario) e incluso sin ninguna significación.
Pero más allá de este ejemplo, ¿qué se entiende por orden y desorden en la naturaleza? Cuando
encontramos un fenómeno natural, ¿por qué nos parece más o menos dotado de orden? Se sabe
1
Véase, por ejemplo, G. Bateson, «Why do things get in a muddle?», en Steps to an ecology of mind, Ballantine Books, Nueva
York, 1972.

30
que esta cuestión no es sólo académica pues de la respuesta depende nuestra comprensión de uno de los
grandes principios físicos —si no el único— que rige la evolución de los sistemas naturales, a saber, el
segundo principio de la termodinámica.
Este principio, en su formulación estadística (Boltzmann), nos dice en efecto que un sistema físico (es
decir, un fragmento cualquiera de materia), aislado (es decir, abandonado a sí mismo sin intercambio con
el entorno), evoluciona inevitablemente hacia un estado de mayor «desorden» molecular. El desorden
máximo se obtendría cuando el sistema alcanzara su estado de equilibrio 2. De hecho, el desorden del que
aquí se trata es sólo una homogeneidad estadística, y concierne a la colocación de las partículas
submicroscópicas (moléculas, átomos, partículas elementales) que constituyen la materia, en todos sus
estados energéticos posibles (los «microestados»).
Ahora bien, ocurre que tal principio había sido establecido mucho antes (Carnot, 1824; Kelvin,
1853; Clausius, 1865) en una forma sensiblemente distinta a partir de los conceptos de energía libre (o

5J. Piaget, La Naissance de l'intelligence chez l'enfant, París, Delachaux et Niestlé, 1968; hay trad. esp. El nacimiento de la
inteligencia en el niño, Crítica, 1985.
6H. Arlan, «Auto-organización y conocimiento», en L'Unité deI'homme, E. Morin y M. Piattelli-Palmerini (Ed.),
7París, Editions du Seuil, 1975. Véase más adelante, pág. 152 y pág. 179.
utilizable) y de entropía (o calor no utilizable) surgidos del estudio de las máquinas térmicas.
Bajo esta forma, que fundaba la termodinámica macroscópica, dicho segundo principio nos dice que un
sistema físico aislado evoluciona inevitablemente hacia un estado de entropía máxima que alcanza cuando
está en equilibrio. Antes de definir la entropía de modo estadístico como una medida de homogeneidad
microscópica 3, fue y sigue siendo definida como una magnitud
macroscópica vinculada al calor y a la energía utilizable de un sistema físico: es una cantidad de calor
no transformable en trabajo (por unidad de temperatura).
En efecto, en toda máquina donde distintas formas de energía son transformadas las unas en las otras,
existe siempre una cantidad de calor perdido, no recuperable. No podrá ya ser utilizado bajo
2
El equilibrio se caracteriza por una homogeneidad macroscópica perfecta, tal que ningún flujo neto de materia o de energía
puede pasar de una parte a la otra del sistema.
3
Su interpretación clásica como un desorden le parece totalmente injustificada a J. Tonnelat en una reciente obra
(Thermodynamique et Biologie, I y II, Maloine, 1977-1978). Nos parece proceder de ciertas concepciones a priori (no
formuladas) del orden, vinculadas a significaciones particulares implícitas, como intentaremos mostrar aquí (véanse pág. 33,
nota 7 y pág. 82, nota 25). Nos parece, pues, justificada o no según se restrinja o no al contexto de estas significaciones,
asimismo determinado por las condiciones de observación.

31
ninguna otra forma de energía, ni mecánica (es decir, productora de movimiento de materia, de trabajo),
ni eléctrica, ni química. Es el calor producido
evitar los por los rozamientos no deseados que no pueden
mejores rodamientos a bolas; o por las fugas de vapor, o de corriente eléctrica que los mejores aislantes
no pueden anular; o por el petróleo que se quema para fabricar electricidad sin que ninguna factoría
química que funcione con esta electricidad pueda re-sintetizar tanto carburante como fue utilizado; en
resumen, por todas las imperfecciones de las máquinas reales con respecto a idealizaciones tales como:
movimientos sin rozamientos, aislantes perfectos, movimientos perpetuos, ciclos reversibles, etc. La
significación física de esta magnitud, entropía o «calor no utilizable» (Clausius), ha Permanecido mucho
tiempo en el misterio. ¿Por qué, en la realidad fíica, no existen movimientos sin rozamiento, aislan tes
sin fugas, ciclos de transformaciones perfectamente reversibles? ¿Por qué, en cualquier transformación
energética, cierta cantidad de calor se produce y se pierde siempre sin que sea posible reutilizarla en el
trabajo? Esta pregunta sólo encontró respuesta varias decenas de años después de los trabajos de Carnot
y Clausius, cuando Boltzmann dio tina interpretación estadística de la magnitud entro pía. La materia
sólo se deja constreñir, dominar, hasta cierto punto. Las transformaciones impuestas por las máquinas
implican una orientación, una ordenación de la materia y de sus constituyentes (moléculas, átomos). La
materia, en sí misma, ignora este orden impuesto por el constructor de máquinas. En particular, la
principal fuente de energía natural, el calor (el de los fuegos y el del sol), tiene por efecto agitar las
moléculas de modo desordenado, es decir, aleatorio en todas direcciones, sin que ninguna se vea, ni
siquiera como media estadística privilegiada. Para que haya movimiento, desplazamiento de materia,
trabajo, es preciso que todas las moléculas de la muestra se desplacen juntas en la misma dirección.
Transformar el calor en trabajo implica que se ordene el movimiento desordenado de las moléculas en
un movimiento orientado, de modo que, por término medio, las moléculas se desplacen en una misma
dirección Esta transformación, impuesta desde el exterior, no puede ser total: cierta parte de desorden
molecular seguirá existiendo y se traducirá en un calor no utilizable. Es lo que afirma el segundo
principio de la termodinámica en su interpretación estadística.
Boltzmann mostró la igualdad entre esta cantidad de calor no

32
utilizable y una medida del estado de «desorden» molecular basada en el estudio de las probabilidades
de hallar todas las moléculas de una muestra en sus distintos estados posibles (en particular las
probabilidades de verlas moverse a todas en una dirección u otra 4).
El ejemplo clásico de un experimento de difusión permite comprender de qué tipo de desorden se trata.
Una gota de tinta se deposita delicadamente en la superficie de un recipiente de agua. El conjunto
«recipiente de agua y gota de tinta» constituye un sistema físico que se aísla y se deja evolucionar. Se
sabe que la tinta va a difundirse por todo el agua hasta que se constituya una disolución homogénea, y
ello, naturalmente, sin que sea necesario agitar el conjunto. Todo sucede como si existiera una agitación
microscópica 5 que mezcla las moléculas de tinta en las del agua y desemboca en una misma mezcla
homogénea (aunque eso dure más tiempo) que una agitación concienzuda producida desde el exterior.
Esta evolución espontánea hacia una dispersión homogénea de la tinta en el agua es un caso particular
de aplicación del segundo principio de la termodinámica.
Una evolución en dirección opuesta, de la solución homogénea hacia la gota de tinta en la superficie,
nunca se observará espontáneamente... Salvo en una película cinematográfica pasada al revés.
Implicaría, precisamente, una reversibilidad del tiempo 6. Sólo una intervención exterior podría separar
de nuevo las moléculas de tinta del agua. La primera evolución se efectúa espontáneamente. La
segunda, en dirección opuesta, sólo puede producirse bajo el efecto de compulsiones exteriores que para
ello disipan, irreversiblemente, energía. En el proceso espontáneo, el estado inicial del sistema se
caracteriza por una concentración muy elevada en el lugar donde la gota ha sido depositada y
concentraciones nulas en el resto; el esta-do final, por una homogeneidad de las concentraciones,
iguales en todas partes. Ahora bien, de la concentración de una substancia en solución depende su
energía (química) interna, susceptible de ser

4
Cada «estado» para una molécula es caracterizado, a la vez, por su posición y su velocidad. Por ello, esta estadística
concierne en particular a las probabilidades de verlas moverse en todas las direcciones posibles, puesto que la velocidad es
una magnitud orientada.
5
Esta agitación, para la termodinámica estadística, es el efecto de la temperatura. Sólo la temperatura del cero absoluto (—
273° centígrados), jamás alcanzada en realidad, correspondería a una inmovilidad total de las moléculas.
6
Véase más adelante, pág. 166.

33
transformada en trabajo y en calor durante reacciones químicas (o electro-químicas, o mecano-
químicas) elementales. Un reparto no homogéneo de las concentraciones en el recipiente corresponde,
pues, a un reparto no homogéneo de los estados de energía de las moléculas del sistema. La
homogeneidad de las concentraciones que caracteriza el estado de equilibrio hacia el que evoluciona el
sistema corresponde, pues, a una homogeneidad de la distribución de las moléculas sobre los distintos
estados energéticos8. El grado de homogeneidad de las concentraciones puede también expresarse por
una distribución de las probabilidades de presencia de moléculas de tinta en cada punto del recipiente.
La homogeneidad perfecta corresponde a una distribución equiprobable; la probabilidad de hallar una
molécula de tinta en cada punto del recipiente es la misma en todas partes. Esta equiprobabilidad, esta
homogeneidad caracteriza el estado de máximo desorden molecular. Hacia ese estado, que se denomina
estado de entropía máxima, evoluciona espontáneamente el sistema y sólo lo alcanza cuando, ya en
equilibrio, deja de evolucionar 9.
posibles con la misma probabilidad para todas, es decir, a la mayor homogeneidad estadística.
8
Como hemos indicado ya, y como J. Tonnelat recordaba recientemente con especial insistencia (Thermodynamique et
Biologie, op. cit.), la entropía designa una homogeneidad más general que la de la distribución de las moléculas en el espacio,
puesto que se trata de distribución sobre niveles de energía. A menudo, como en el ejemplo considerado, ambos van juntos.
Pero a veces no es así, en especial cuando se trata de «mezclas» de cuerpos no miscibles (como el agua y el aceite). Ahí, las
interacciones energéticas entre las moléculas (atracciones entre moléculas de la misma especie, repulsión entre moléculas de
especies distintas) desembocan en que estados espacialmente no homogéneos son realizados por distribuciones más
homogéneas sobre estados energéticos correspondiendo así, a pesar de todo, a un aumento de entropía. Ello quiere decir que
tales estados aparecerían como los más homogéneos para un observador que «mirara» los niveles energéticos mientras
parecen heterogéneos —e incluso estructurados— a quien mire las posiciones y las formas geométricas. Así puede explicarse

8Otro modo, equivalente, de representarse las cosas consiste en definir los micro-estados del sistema a partir de las
posiciones y las velocidades posibles de cada una de las moléculas constitutivas del sistema. Cada micro-estado es
9definido por una determinada distribución de las moléculas sobre las posiciones disponibles y sus velocidades posibles. Tal
distribución constituye lo que Planck denominaba una complexión del sistema. El estado de orden o de desorden (la entropía)
es entonces definido a partir del número de complexiones posibles para un sistema dado y de las posibilidades de encontrarlo
en cada una de estas complexiones. El desorden máximo corresponde al mayor número de complexiones
la aparición espontánea de estructuras de equilibrio tales como las realizadas por los mecanismos de auto-en-

34
El desorden en física corresponde, pues, a la representación que nos hacemos de un reparto de objetos
totalmente aleatorio, obtenido, por ejemplo, sacudiéndolos al azar, y consiguiendo que se dispongan de
modo estadísticamente homogéneo. Por el contrario, el orden correspondería a una heterogeneidad,
medida por probabilidades desiguales: por ejemplo, la probabilidad de encontrar una fuerte
concentración de moléculas 9 sería más elevada en ciertos puntos del espacio que en otros.
Así, la definición del orden y el desorden en la naturaleza presenta diferencias evidentes con la que
estaba implícita en el ejemplo del despacho y de su arreglo. La primera característica que las distingue
es que, aquí, la definición parece objetiva, medida por una magnitud física, la entropía. En el ejemplo
del despacho, por el contrario, el carácter ordenado dependía del posible sentido del orden, diferente
para observadores usuarios distintos.
Y, sin embargo, la entropía, magnitud física, sólo es definida en relación a las posibilidades de
observación y de medida como muestra el ejemplo de la entropía de mezcla de dos gases distintos. La
formación espontánea de una mezcla homogénea de dos gases se acompaña, evidentemente, de un
aumento de entropía que, eventualmente, puede medirse. Ahora bien, ese fenómeno se concibe de un
modo distinto según se aborde antes o después del descubrimiento de la radiactividad. Si se utilizan
moléculas radiactivas del mismo gas, no es ya el mismo gas y existe una entropía de mezcla,
samblaje de orgánulos celulares y de virus (cf. h. Atlan, L'Organisation biologique et la Théorie de l'information, Hermann,
1972, pág. 219). Estas estructuras de equilibrio recuerdan, evidentemente, las estructuras cristalinas cuya aparición
espontánea no contradice —tampoco el segundo principio. Sin embargo, difieren en que van acompañadas a veces por
aumento de entropía mientras la cristalización va acompañada de disminución de esta magnitud. El carácter espontáneo de
la cristalización se explica entonces por la disminución de energía libre debida a las interacciones energéticas, que
sobrecompensa la disminución de entropía. Dicho de otro modo, es importante, en rigor, distinguir entre homogeneidad
espacial y homogeneidad energética, y, además, entré aumento de entropía y evolución espontánea: la entro-pía, en el sentido
más general, representa una homogeneidad energética y la evolución espontánea más general es la de una disminución de
energía libre. Esta, a menudo pero no siempre, se debe a un aumento de entropía; esta última represen-ta, a menudo pero no
siempre, una homogeneización espacial. Sea como sea, un aumento de entropía, interpretado clásicamente como un aumento
del desorden, es siempre una homogeneización estadística.
9
Con, como corolario, la probabilidad para estas moléculas de hallarse en un estado energético más elevado.

35
lo que significa que para un mismo sistema de dos depósitos del mismo gas, uno radiactivo y otro no, a
los que se permite mezclar-se, ¡no existía entropía de mezcla antes del descubrimiento de la
radiactividad y existe tras este descubrimiento! De hecho, como comienza a advertirse, la lógica de las
posibilidades de observación y de medida ha desempeñado un papel no desdeñable en la definición de
ciertas magnitudes físicas como alguna de las que parecen más «naturales»: la energía, la fuerza, la
velocidad... por no hablar de la física cuántica y de las dificultades conceptuales que lo referente a la
naturaleza del objeto físico10.
Una segunda característica del desorden en física es que su definición es estadística y parece excluir
cualquier preocupación de significación de los objetos constitutivos del sistema considerado. Esta
segunda característica aparece muy claramente cuando nos referimos a la definición de la entropía como
caso particular de la información en el sentido de la teoría de la información de Shannon.
Pero parece también de modo independiente —preshannoniana podría decirse— en el marco de una
reflexión sobre las relaciones entre la entropía como magnitud macroscópica (Carnot, Clausius, Kelvin) y
su representación microscópica en termodinámica estadística (Boltzmann).
Nos ocuparemos de esas dos aproximaciones, pues se ilustran la una a la otra; además, como veremos,
ambas desembocan en un cuestionamiento, o mejor aún una profundización de la primera característica,
la objetividad, por la que el orden físico nos ha parecido diferenciarse del orden de la colocación.
La teoría de la información de Shannon utiliza también las probabilidades y llega formalmente a una
expresión matemática muy próxima a la de Boltzmann para la entropía.
Con la teoría de la información, en vez de probabilidades de presencia de moléculas en un estado dado, se
trata, de modo más general, de probabilidades de presencia de signos en un lugar dado de un mensaje, tras
haber aclarado que tales signos y mensaje sólo son analizados en función de dichas probabilidades sin
que su signi-
10
Véase, especialmente, C. Castoriadis, Les Carrefours du labyrinthe, París, Editions du Seuil, 1978, pág. 158, y las
intervenciones de G. Hirsch, «Lenguaje y pensamiento matemáticos: lo que nos muestra la historia de las matemáticas», págs.
35-37, y J.-M. Lévy-Leblond, «Uso y abuso del lenguaje: matemática, didáctica, física...», págs. 199-217, en Langage et Pensée
mathématique, Actas, Coloquio Internacional, junio de 1976, Centro Universitario de Luxemburgo.

36
ficacián se tenga nunca en cuenta. La probabilidad de presencia de un signo sirve para medir la cantidad
de información —sin significación— aportada por ese signo: cuanto más improbable es, a priori, en un
mensaje, la aparición de un signo particular, más informativa es, a posteriori, su aparición. A la inversa, si
era seguro, a priori, que el signo debía encontrarse allí, su aparición no aportaría, a posteriori, ninguna
información suplementaria.
La utilización por Shannon de las probabilidades para medir la información sin significación es idéntica a
la de Boltzmann para medir el grado de desorden molecular de una muestra de materia. En ambos casos,
la medida de la incertidumbre media, que puede expresar el desorden o la información, utiliza la misma
expresión matemática pi log pi (suma de las probabilidades de presencia p, de signos de índice i, cada una
de ellas multiplicada por su logaritmo log pi). Pero la fórmula de Shannon (H = —£ pi log pi) utiliza esta
expresión tal cual —signo más signo menos— y se reduce, pues, a una función de probabilidades. Por el
contrario, la fórmula de la entropía (S = — k £ p i log pi) utiliza esta misma expresión multiplicándola por
una constante física universal k, llamada constante de Boltzmann. Es esa constante k (igual a 3,3 X 10 -24
caloría/ grado, aunque poco importa aquí ese número), la que, en el plano de las unidades, constituye la
bisagra entre una medida de orden reducida a meras probabilidades (números sin dimensión), y una
cantidad de «calor no utilizable», medida en calorías por grado, es decir, energía por unidad de
temperatura (números con dimensión). Sin la constante k, la medida estadística de la entropía física sería
rigurosamente idéntica a la de la información o «entropía de mensaje» como la había denominado
Shannon. Pero entonces no tendría relación alguna con la medida energética de la entropía como calor no
utilizable, la que se utiliza en los balances termodinámicos desde que el estudio de las máquinas impuso
su paradigma al conjunto del mundo físico.
Se han formulado muchas preguntas sobre la significación de esta constante n. Para algunos, es posible
prescindir de su naturaleza energética —atribuyendo a la temperatura la significación y la dimensión de
una energía—, lo que significaría la supresión de la
11
Véase H. Atlan, L'Organisation biologique et la Théorie de l'information, op. cit.

37
naturaleza energética o calorífica de la propia entropía 12. De este modo, las dos funciones, H de
Shannon y S de Boltzmann, se hacen idénticas, reducidas ambas a meras medidas de incertidumbre
probabilista. Esta tendencia se corresponde con el carácter operatorio, casi idealista, de la definición de
las magnitudes físicas a partir de las operaciones de observación y de medida en las que las condiciones
de ejercicio del observador no pueden ser ignoradas. La parado-ja de Gibbs sobre la entropía de mezcla
que hemos citado más arriba nos lo ha manifestado en lo que concierne a la entropía. Pero hoy se sabe
que siempre fue igual en lo que se refiere a magnitudes físicas muy aceptadas, sin embargo, como parte
integrante de la «realidad»: velocidad, fuerza, energía 13.
Para otros, por el contrario, esta constante k expresa en el nivel microscópico la presencia de la
experiencia macroscópica, sensorial, de la materia y de la energía. El calor y la energía son
considerados como propiedades de la propia materia, y los flujos de calor son percibidos, al igual que
corrientes eléctricas o flujos de materia, como desplazamientos de cargas térmicas bajo el efecto de una
fuerza o diferencia de potencial, a saber, aquí, una diferencia de temperatura. Para Jean Thoma 14,
retomando y desarrollando la vieja idea de Carnot con la ayuda de los modernos conceptos de
termodinámica en redes 15, k representa un quantum de carga térmica, un grano de entropía, la más
pequeña cantidad posible de calor desplazable por unidad de temperatura, agarrada, por decirlo así, a
cada molécula. Es la medida de la incertidumbre probabilista sobre los estados energéticos de las
moléculas que, al multiplicar ese quantum, produce el calor no utilizable macroscópico. Este
caracteriza entonces, por término medio, no ya una sola molécula sino el inmenso conjunto que
constituye todo fragmento de materia observable. Esta concepción tiene la ventaja de conservar a la
entropía su carácter de magnitud física «objetiva». Sería, pues, más esencialista, más materialista, al
menos en el nivel microscópico: el calor encon-
12
D. A. Bell, «Physical entropy and information», Journal of AppliedPhysics, 23, núm. 3, 1952, pág. 372.
13
Véase más arriba, pág. 19.
14
J. U. Thoma, «Bond graphs for thermal energy transport and entropy flow», Journal of the Franklin Institute, 1971, 292,
págs. 109-120; Introduction to bond graphs and their application, Nueva York, Pergamon, 1975.
15
Véase más adelante, págs. 113-114.

38
trado en la materia macroscópica ya no desaparecería en unas probabilidades intangibles. De hecho,
esta concepción está estrecha-mente unida a una definición operatoria y restringida de la utilidad y del
posible uso del calor. En este sentido no hace más que resaltar el carácter operatorio de las magnitudes
físicas vinculadas a las condiciones de observación y de medida, lo que por otro lado parecía haber
eliminado. El mismo J. Thoma 16 ha mostrado cómo, si se abandona el restringido campo de la
termodinámica de las máquinas para abordar una termodinámica de sistemas más globales (de las
ciudades por ejemplo), la noción de calor no utilizable se renueva por completo. Este calor, «no
utilizable» por las máquinas que producen trabajo, electricidad, química y demás, puede muy bien ser
utilizado... ¡para la calefacción! Del mismo modo, a escala más pequeña, en un automóvil, por ejemplo,
el calor no utilizable de la termodinámica habitual está asociado al funcionamiento del motor donde
aparece como una imperfección vinculada a los inevitables rozamientos. Pero si se aborda el sistema
más global que contiene el coche, su conductor y los
pasajeros, entonces una parte al menos de este «calor no utilizable» se hace útil para la calefacción y
reaparece en un balance más general. Se ve, pues, que la noción de calor no utilizable hace resurgir lo
operatorio en la definición, en relación a las condiciones precisas de utilización para el observador-
usuario.
De hecho, esta concepción aparentemente esencialista del papel de k supone la proyección de una
significación sobre la medida probabilista de un orden inicialmente sin significación. En efecto, todo
ocurre como si la multiplicación por k transformara la medida de un orden probabilista sin
significación en medida de orden de cara a su utilización energética en una máquina. Puede decirse
que k, comprendido como quantum de entropía aparentemente «objetiva», desempeña de hecho el
papel de quantum de significación que transforma el orden sin significación de las probabilidades en
orden utilitario para la buena marcha de las máquinas térmicas.
La primera concepción de k, más abiertamente operatoria, actúa como si pudiera prescindirse de tomar
en cuenta la significación del orden y del desorden. La otra es aparentemente esencialista porque actúa
como si una significación utilitaria, limitada a las máquinas,
16
J. U. Thoma, Energy, Entropy and Information, International Institute for Applied Systems Analysis, Laxenburg, Austria,
Research Memorandum, 1977, RM 77-32.

39
estuviera contenida <objetivamente» en la materia. Sin embargo, esta significación es, por lo menos en
parte, proyectada por el observador en función de las condiciones de utilización que él define.
Numerosas consecuencias, físicas y filosóficas, se han extraído de esta estrecha relación entre las
fórmulas de Shannon y de Boltzmann10. No nos ocuparemos aquí de ello. Recordemos sólo que, en
cualquier caso, la significación —de la información, del orden— está excluida. En el mejor de los
casos, como acabamos de ver, la significación sólo está presente siempre idéntica a sí misma y reducida
a la utilización posible de la materia en una máquina para transformar energía.
Ahora bien, de hecho, se sabe que un mensaje sin significación no tiene interés y en último término, no
existe. Y esta información shannoniana reducida a la incertidumbre probabilista no tiene más interés
que el operatorio: en ciertas situaciones bien precisas el problema que debe resolverse es el mismo, sea
cual sea la significación del mensaje, y de ahí el interés de poner entre paréntesis esta significación. Se
trata, por ejemplo de los problemas de telecomunicaciones en los que los mensajes deben ser
transmitidos fielmente, sean cuales sean, y sin tener en cuenta su importancia o su trivialidad, al igual
que el servicio de Correos sólo debe preocuparse de distribuir las cartas sin tener en cuenta su
contenido, perfectamente ignorado. Aunque situaciones de este género son mucho más frecuentes de lo
que se cree y pueden generalizarse a gran número de problemas 11, no puede olvidarse que la
significación del mensaje sigue estando ahí. Su puesta entre paréntesis sólo puede ser provisional,
únicamente para permitir una descripción «que funcione» de ese fragmento — limitado— de la
realidad en la que se puede ignorar dicha significación. Una descripción y una comprensión de una
realidad más amplia no pueden ya evitar tenerla en cuenta, aunque, para ello, los métodos disponibles
son mucho menos simples.
Es importante comprender que lo mismo sucede en lo que con-cierne a la medida del orden en la
naturaleza, tal como nos la sugiere la física. Tomar como medida del desorden la magnitud «entro

10Véase, entre otros, L. Brillouin, La Science et la Théorie de l'information, París, Masson, 1959; J. Monod, Le Hassard et la
nécessité, op. cit.; hay trad. esp. El azar y la necesidad, 2.a ed., Orbis, 1987; 3.a ed., Tusquets, 1986; 9.a ed., Barral, 1987; H.
Atlan, L'Organisation biologique..., op. cit., pág. 171 y nota de la pág. 185.
11H. Atlan, op. cit.

40
pía» implica una definición del orden puramente probabilista de la que la significación o bien está
ausente o bien, como hemos visto, queda reducida e uniformizada. Se trata, también ahí, de una
definición operatoria que funciona en situaciones donde puede hacerse abstracción de las
significaciones. (De hecho no es posible elegir, pues no se las conoce, ya que no se conoce,
individualmente, el estado de cada molécula y, por tanto, el efecto de sus movimientos sólo puede ser
observado globalmente; y, por tanto, se conoce me-nos todavía el efecto del movimiento de cada una
de ellas tomada individualmente, sobre una cualquiera de sus vecinas.) Ahora bien, también aquí,
aunque se ignore, sigue estando la significación. Un orden observado en la naturaleza sólo aparece
como tal para el observador que proyecta en él significaciones conocidas o supuestas. De este modo,
medir el desorden físico por la entropía implica que sólo se contempla un aspecto muy particular del
orden. Bien por-que, en la fórmula que lo expresa, k sea concebido como un número sin dimensión
(¿quantum de absurdo?) y la entropía es entonces la medida de un desorden en relación a un orden
puramente probabilista del que está ausente toda significación. O bien porque k tenga la función de un
quantum de significación de uso, y la entropía es entonces la medida del desorden de un sistema físico
desde el punto de vista de esta mera significación de uso de una máquina térmica artificial,
arbitrariamente extendida a toda la naturaleza. En cualquier caso, la riqueza de las significaciones
naturales, posibles o realizadas, está ausente 19.
Veremos más adelante cómo la observación más general de órdenes naturales en sistemas materiales no
construidos por el hombre, sistemas auto-organizadores, debe hacernos tomar en cuenta las
significaciones implícitas siempre presentes; al igual que el análisis de las comunicaciones no puede
evitar, a partir de cierto grado de generalidad y profundidad, tomar en cuenta la significación de los
mensajes.
19
Llegaremos, por un camino distinto, a una proposición de J. Tonnelat (Thermodynamique et Biologie, op. cit.) según la que
la entropía física (que este autor quiere definir de modo esencialista como una propiedad de la materia misma) no debe
comprenderse como una medida del desorden, sino más bien de la complejidad. Salvo que ésta tampoco puede ser totalmente
disociada del conocimiento que tiene —o mejor que no tiene— el observador físico de las compulsiones interiores de un
sistema. (Véase más adelante, pág. 82, nota 25).

41
Y deberemos entonces plantearnos la cuestión, siempre abierta, de la realidad y el lugar de tales
significaciones: ya sea la propia del mismo sistema observado, ya sea el resultado de las proyecciones
del observador a quien la realidad le parece ordenada, ya sean ambas reunidas en la operación de
observación.

42

3
DEL RUIDO COMO PRINCIPIO DE AUTO-ORGANIZACION 12
«...porque se han portado conmigo al azar, también yo
me portaré con ellos al azar...». Levítico, XXVI, 40-41.

«Hago hervir en mi marmita todo lo que es azar. Y


sólo cuando el azar está bien cocido le deseo la
bienvenida para convertirlo en mi alimento. Y, en
verdad, mucho azar se acercó a mí como dueño: pero
mi voluntad le habla de modo todavía más
imperioso —y enseguida se ponía de rodillas ante mí
suplicando—, suplicándome que le diera asilo y
cordial hospitalidad, y hablándome de modo
halagador: "Ya ves, Zarathustra, sólo un amigo
puede presentarse así en casa de un amigo".»
F. Nietzsche, Así hablaba Zarathustra, III, 5-3.
Máquinas naturales y artificiales
Desde los orígenes de la cibernética, que se está, por lo general de acuerdo en reconocer en la obra de
N. Wiener [1] en 1948, una especie de neomecanicismo se ha impuesto, progresivamente, en biología,
consistente en considerar los organismos vivos como máquinas de un tipo particular, llamadas máquinas
naturales, por referencia a las máquinas artificiales concebidas y fabricadas por los
1
Este texto reproduce, con modificaciones de poca importancia, un artículo publicado en 1972, en la revista Communications,
18, págs. 21-36. Las referencias bibliográficas, señaladas con corchetes [], se incluyen al final del capítulo.
2
El ruido se toma aquí en su sentido derivado del estudio de las comunicaciones: se trata de todos los fenómenos aleatorios,
parásitos que perturban la transmisión correcta de los mensajes y que, por lo común, se intenta eliminar al máximo. Como
veremos, hay casos en que, pese a una paradoja que sólo es aparente, puede reconocérsele un papel «benéfico».

43
hombres. Sin embargo, sería erróneo considerar esta actitud como una prolongación del mecanicismo
del siglo XIX y comienzos del XX. Tanto por sus consecuencias en el orden de los conocimientos
biológicos como por sus implicaciones metodológicas, se distingue fundamentalmente de él, por la
misma naturaleza, radicalmente nueva, de estas máquinas artificiales, que se constituyen como las
referencias con respecto a las que son observadas y analizadas no sólo las similitudes sino también y
sobre todo las diferencias.
Estas máquinas, aunque producidas por los hombres, no son ya sistemas físicos simples y transparentes,
de forma que sus diferencias con los organismos sean tan bastas y evidentes como para no enseñar nada.
Como decía W. R. Ashby [2] en 1962, «hasta épocas recientes no teníamos experiencia de sistemas de
complejidad media; o se trataba de sistemas en los que, como en el reloj y el péndulo, sus propiedades
nos parecían limitadas y evidentes, o, como en el perro y en el ser humano, sus propiedades nos
parecían tan ricas y notables que las creíamos sobrenaturales. Sólo en los últimos años hemos sido
gratificados con los ordenadores universales de sistemas suficientemente ricos como para ser
interesantes y, sin embargo, suficientemente sencillos como para ser comprensibles... El ordenador es
un regalo del cielo. Pues permite tender un puente sobre el enorme abismo conceptual que separa lo
simple y comprensible de lo complejo e interesante». Además, la ciencia de estas máquinas artificiales
está muy lejos de cerrarse, de modo que este neomecanicismo no consiste en una superposición pura y
simple de esquemas mecánicos sobre organismos vivos, sino más bien en un vaivén de esta ciencia a la
ciencia biológica y viceversa, con interpretación y fecundación recíprocas, cuyas consecuencias se
hacen sentir sobre la evolución y los progresos de ambas ciencias. En la medida que los modelos
cibernéticos están extraídos de una ciencia en continuo desarrollo y donde nuevos conceptos están, aún,
por descubrir, su aplicación a la biología no puede desembocar en una reducción a un mecanicismo
elemental del tipo como el del siglo pasado.

La fiabilidad de los organismos

Antes incluso de abordar los problemas de auto-organización y auto-reproducción, una de las diferencias
más importantes adverti-

44
das entre las máquinas artificiales y las máquinas naturales era la aptitud de estas últimas para integrar el
ruido. Desde hacía tiempo, la fiabilidad de los organismos [3] había aparecido como una función sin
rango de comparación con la de los ordenadores. Una fiabilidad como la del cerebro, capaz de funcionar
con continuidad cuan-do cada día mueren células sin ser reemplazadas, con inesperados cambios de riego
sanguíneo, con fluctuaciones de volumen y presión, y eso sin hablar de amputaciones de partes
importantes que sólo de modo muy limitado afectan a las funciones del conjunto, no admite,
evidentemente, comparación con ningún autómata artificial. Este hecho había impresionado ya a J. Von
Neumann [4, 5] que intentaba mejorar la fiabilidad de los ordenadores y que no podía concebir tal
diferencia de reacción ante los factores de agresiones aleatorias del entorno que constituyen el «ruido»,
más que como una consecuencia de una diferencia fundamental en la lógica de la organización del
sistema. Los organismos, en su facultad de «integrar» el ruido, no podían ser concebidos sólo como
máquinas algo más fiables que las máquinas artificiales conocidas, sino como sistemas en los que sólo
principios de organización cualitativamente distintos podían explicar la fiabilidad. Ahí nació todo un
campo de investigación, inaugurado por Von Neumann [4] y proseguido por muchos otros, especialmente
por Winograd y Cowan [3, 6], con el objetivo de descubrir principios de construcción de autómatas cuya
fiabilidad fuera mayor que la de sus componentes. Estas investigaciones desembocaron en la definición
de las condiciones necesarias (y suficientes) para la realización de tales autómatas. La mayoría de estas
condiciones (redundancia de los componentes, redundancia de las funciones, complejidad de los
componentes, deslocalización de las funciones) [6, 7] desembocan en una especie de compromiso entre
determinismo e indeterminismo en la construcción del autómata, como si cierta cantidad de
indeterminación fuera necesaria a partir de cierto grado de complejidad para permitir al sistema adaptarse
a cierto nivel de ruido. Eso, evidentemente, no deja de recordar un resultado análogo obtenido por el
propio Von Neumann [8] en la teoría de los juegos.

El principio del orden a partir del ruido


Un paso más en esta dirección se daba, durante investigaciones formales sobre la lógica de los sistemas
auto-organizadores, al atri-

45
buir a los organismos no sólo la propiedad de resistir el ruido de modo eficaz, sino también de utilizarlo
hasta transformarlo en factor de organización. H. Von Foerster [9] fue el primero, que sepamos, en
expresar la necesidad de un «principio del orden a partir del ruido» para dar cuenta de las propiedades
más singulares de los organismos vivos en tanto que sistemas auto-organizadores, especialmente de su
adaptabilidad. El «principio del orden a partir del orden», implícito en las teorías termodinámicas
modernas de la materia viva inauguradas por el ensayo de Schrodinger [10], What is Life?, en 1945, no le
parecía suficiente3. «Los sistemas auto-organizadores no sólo se nutren de orden, también tienen ruido en
su menú... No es malo tener ruido en el sistema. Si un sistema se inmoviliza en un estado particular, es
inadaptable, y ese estado final puede muy bien ser malo. Será incapaz de ajustarse a algo que fuera una
situación inadecuada» [9].
Una serie de trabajos de W. R. Ashby [11, 2] llevan en la misma dirección aunque no se haga
explícitamente hincapié en esta idea del papel organizativo del ruido. Este autor ha establecido,
rigurosamente, una ley de los sistemas de regulación a la que ha denominado «ley de la variedad
indispensable» [11]. Esta ley es importante para la comprensión de las condiciones mínimas de estructura
necesarias para la supervivencia de todo sistema expuesto a un entorno, fuente de
agresiones y perturbaciones aleatorias.
Supongamos un sistema expuesto a cierto número de perturbaciones distintas posibles. Tiene a su
disposición cierto número de respuestas. Cada sucesión perturbación-respuesta pone al sistema en un
estado determinado. Entre todos los estados posibles, sólo algunos son «aceptables» desde el punto de
vista de la finalidad (aparente al menos) del sistema, que puede ser su simple supervivencia o la
realización de una función. La regulación consiste en elegir entre las posibles respuestas las que sitúen
al sistema en un estado aceptable. La ley de Ashby establece una relación entre la variedad de las
perturbaciones, la de las respuestas y la de los esta-
3
Desde entonces, la termodinámica del no-equilibrio se ha enriquecido con un principio «de orden por fluctuaciones», muy
próximo del orden por el ruido al menos en sus implicaciones lógicas, aunque el formalismo utilizado sea muy distinto (véase
más adelante, pág. 110).
4
La variedad se define como el número de elementos distintos de un conjunto. La cantidad de información le está vinculada,
puesto que considera el logaritmo de este número y pondera, además, cada elemento distinto por su probabilidad de

46
dos aceptables. La variedad de las respuestas disponibles debe ser tanto mayor cuanto más grande sea
la de las perturbaciones y pequeña la de los estados aceptables. Dicho de otro modo, es indispensable
una gran variedad en las respuestas disponibles para asegurar una regulación de un sistema destinado a
mantenerlo en un número muy limitado de estados cuando se ve sometido a gran variedad de
agresiones. O también, en un entorno fuente de agresiones diversas imprevisibles, una variedad en la
estructura y las funciones del sistema es un factor indispensable de autonomía.
Pero, por otro lado, se sabe que uno de los métodos eficaces para luchar contra el ruido, es decir, para
detectar y corregir eventuales errores en la transmisión de los mensajes, consiste, por el contrario, en
introducir cierta redundancia, es decir, una repetición de los símbolos en el mensaje. Por ello, en
sistemas complejos el grado de organización no podrá ser reducido ni a su variedad (o a su cantidad de
información5), ni a su redundancia, sino que consistirá en un compromiso óptimo entre estas dos
propiedades opuestas.
El mismo autor, estudiando además [2] la significación lógica del concepto de auto-organización, llega
a la conclusión de la imposibilidad lógica de una auto-organización en un sistema cerrado, es decir, sin
interacción en su entorno. En efecto, una máquina puede ser formalmente definida del modo más
general posible para un conjunto E de estados internos y un conjunto I de entradas (inputs). El
funcionamiento de la máquina es el modo como las entradas y los estados internos en un instante dado
determinan los estados internos en el instante siguiente. En la terminología de la teoría de los conjuntos
puede, pues, ser descrito por una función f, que es la proyección del conjunto producido I X E sobre E;
la organización funcional de la máquina puede ser así identificada por f Se hablará de auto-
organización en sentido estricto si la máquina es capaz de cambiar por sí misma la función f sin
ninguna intervención del entorno de modo que esté siempre mejor adaptada a lo que hace. Si esto fuera
posible significaría que f se cambia a sí misma como consecuencia de E tan sólo. Pero esto es absurdo,
pues si se pudie-

aparición en un conjunto de conjuntos estadísticamente homogéneos al considera-do. La cantidad de información definida


por Shannon es un modo más elaborado y más rico en aplicaciones de expresar la variedad de un mensaje o de un sistema
tal como lo había definido Ashby.
5
Véase nota anterior.

47
ra definir tal cambio de f como consecuencia de E, este mismo cambio sólo sería una parte de otra ley
de proyección de f. Eso significaría que la organización de la máquina está regida por otra función f
que, por su parte, sería constante. Para tener una proyección f que realmente cambie debe
definirse una función £ (t) del tiempo, que determine esos cambios a partir del exterior de E.
Dicho de otro modo, los únicos cambios que pueden afectar a la propia organización —y no ser sólo
cambios de estados del sistema que formaran parte de una organización constante— deben producirse
fuera del sistema. Pero esto es posible de dos modos distintos: o un programa preciso, inyectado en el
sistema por un programador, determina los cambios sucesivos de f; o éstos son determinados todavía
desde el exterior, pero por factores aleatorios en los que ninguna ley que prefigure una organización
pueda ser establecida, ninguna pauta que permita discernir un programa. Es entonces cuando podrá
hablarse de auto-organización, aunque no en un sentido estricto.
Ese es, pues, otro modo de sugerir un principio de orden a partir del ruido en la lógica de sistemas auto-
organizadores.
Pueden también encontrarse otras sugerencias, especialmente en el análisis del papel de lo aleatorio en
la organización estructural (es decir, las conexiones) de redes neuronales complejas que se deben en
particular a R. L. Beurle [13] y que el propio W. R. Ashby [12] retomó más tarde.
En el marco de trabajos anteriores [14, 15, 7] hemos intentado dar al principio del orden a partir del
ruido una formulación más precisa 6, con la ayuda del formulismo de la teoría de la información, y nos
proponemos ahora exponer sucintamente las principales etapas.

Recordando la teoría de la información aplicada al análisis de los sistemas


Uno de los principales teoremas de esta teoría, debida a C. E. Shannon [16], establece que la cantidad
de información de un men-
6
Veremos más adelante que esta formulación ha constituido, de hecho, una verdadera inversión de la noción de orden con
respecto a la definición que daba Von Foerster (véase pág. 88).
De una producción de orden repetitivo, en ese autor, hemos pasado a una producción de orden diversificado, de
variedad, que mide precisamente la función H de
Shannon.

48
saje transmitido por un vía de comunicación perturbada por un ruido no puede más que decrecer en una
cantidad igual a la ambigüedad introducida por este ruido entre la entrada y la salida de la vía. Los
Códigos correctores de errores, al introducir cierta redundancia en el mensaje, pueden disminuir esta
ambigüedad de modo que en último término la cantidad de información transmitida sea igual a la
cantidad emitida, pero en ningún caso podrá ser superior. Si, como muchos autores han propuesto, se
utiliza la cantidad de in-formación de un sistema asimilado a un mensaje transmitido a un observador
como una medida de su complejidad o, por lo menos, parcialmente, de su grado de organización, este
teorema parece excluir, pues, cualquier posibilidad de un papel positivo, organizativo, del ruido. Hemos
podido mostrar que no es así [14, 15], precisamente a causa de los postulados implícitos con cuya
ayuda la teoría de la información es aplicada al análisis de sistemas organizados, cuando su campo de
aplicación, en su forma primitiva, parecía limitado a los problemas de transmisión de mensajes en vías
de comunicaciones.
La cantidad de información total de un mensaje es una magnitud que mide, en gran número de
mensajes escritos en la misma lengua con el mismo alfabeto, la probabilidad media de aparición de las
letras o símbolos del alfabeto, multiplicada por el número de letras o símbolos del mensaje. La cantidad
de información media por letra se designa a menudo con el nombre de cantidad de información o
entropía del mensaje, gracias a la analogía entre la fórmula de Shannon, que la expresa a partir de las
probabilidades de las letras, y la fórmula de Boltzmann que expresa la entropía de un sistema físico con
la ayuda de las probabilidades de los distintos «estados» en los que el sistema puede encontrarse. Esta
analogía, objeto de numerosos trabajos y discusiones, está, entre otras razones, en el origen del rápido
desbordamiento de la teoría de la información del marco de los
problemas de comunicaciones en el campo del análisis de la complejidad de los sistemas. La cantidad de
información de un sistema, compuesto de partes, se define entonces a partir de las probabilidades que
pueden asignarse a cada uno de sus componentes, en un conjunto de sistemas que se suponen
estadísticamente homogéneos los unos con los otros; o también a partir del conjunto de las combinaciones
que es posible realizar con sus componentes, lo que constituye el conjunto de los estados posibles del
sistema [17]. En cualquier caso, la cantidad de informa-

49
ción de un sistema mide el grado de improbabilidad de que el ensamblaje de los distintos componentes
sea resultado del azar: cuanto mayor es el número de elementos distintos que componen un sistema,
mayor es su cantidad de información, pues más grande es la improbabilidad de constituirlo tal cual es,
ensamblando al azar sus constituyentes. Por ello, esta magnitud ha podido ser propuesta como una
medida de la complejidad7 de un sistema, al constituir una medida del grado de variedad de los elementos
que lo forman. Un teorema de la teoría dice que la cantidad de información en unidades «bit» de un
mensaje escrito en un alfabeto cualquiera re-presenta el número mínimo medio de símbolos binarios por
letra de este alfabeto, necesarios para traducir el mensaje de su alfabeto de origen al lenguaje binario.
Transpuesto al análisis de un sistema, eso quiere decir que cuanto más elevada sea la cantidad de
información, mayor será el número de símbolos necesarios para describirla en un lenguaje binario (u
otro); de ahí también la idea de que éste es un medio de medir la complejidad. Señalemos enseguida las
reservas con las que conviene recibir esta conclusión, especialmente a causa del carácter estático y
únicamente estructural de la complejidad de que se trata, con exclusión de una complejidad funcional y
dinámica, vinculada no al ensamblaje de los elementos de un sistema sino a las interacciones funcionales
entre estos elementos [18]. El problema de la definición precisa de la noción de complejidad como
concepto científico fundamental (análogo a los de energía, entropía, etc.) sigue, pues, planteado. Sin
embargo, como advertía Von Neumann [19] cuando planteaba este problema subrayando su importancia,
«este concepto pertenece, evidentemente, al campo de la información».

Ambigüedad-autonomía y ambigüedad destructora


Sea como sea, la aplicación de la teoría de la información al , análisis de los sistemas implica un
deslizamiento de la noción de información transmitida por una vía de comunicaciones hacia la de la
información contenida en un sistema organizado. El formalismo de la teoría de la información sólo se
aplica a la primera de estas
7
Véase más adelante, pág. 83.

50
nociones, y ese deslizamiento, cuya legitimidad ha sido discutida, sólo puede justificarse asimilando, al
menos implícitamente, la estructura del sistema a un mensaje transmitido por una vía que parte del
sistema y termina en el observador. Ello no implica necesaria-mente la introducción de caracteres
subjetivos ni de valor, que están por definición excluidos del campo de la teoría, si se considera este
observador como el físico ideal habitual, que sólo interviene en operaciones de medida, pero
interviniendo de todos modos en estas operaciones.
En estas condiciones es posible mostrar que la ambigüedad introducida por factores de ruido en una vía
de comunicaciones situada en el interior de un sistema tiene una significación distinta (su

Figura 1

signo algebraico es distinto), según se contemple la información transmitida por la propia vía o la
cantidad de información contenida en el sistema (donde la vía es una entre muchas relaciones entre
numerosos sistemas). Sólo en el primer caso la ambigüedad se expresa por una cantidad de
información afectada por un signo me-nos, de acuerdo con el teorema de la vía con ruido del que
hemos hablado. En el segundo caso, por el contrario, la cantidad de información que mide no tiene ya
en absoluto el sentido de una información perdida, sino, por el contrario, de un aumento de .variedad
en el conjunto del sistema o, como se dice, de una disminución de redundancia.
En efecto, sea una vía de comunicaciones entre dos sub-sistemas A y B en el interior de 'un sistema S
(fig. 1). Si la transmisión de A a B se efectúa sin ningún error (ambigüedad nula), B es una copia
exacta de A, y la cantidad de información del conjunto A y B sólo es igual a la de A. Si la transmisión
se efectúa con un número de errores tal que la ambigüedad se hace igual a la cantidad de información
de A, ésta se ha perdido por completo durante la transmisión; de hecho, ya no hay transmisión de
información alguna de A a B. Eso quiere decir que la estructura de B es totalmente indepen-

51
diente de la de A, de modo que la cantidad de información del conjunto A y B es igual a la de A más la
de B. Ahora bien, en la medida en que la propia existencia del sistema S depende de la de las vías de
comunicaciones entre los sub-sistemas, una independencia total entre éstos significa, de hecho, una
destrucción de S como sistema. Por ello, desde el punto de vista de la cantidad de información de este
sistema, se realiza el óptimo cuando existe una transmisión de información no nula entre A y B, pero
con cierta cantidad de errores que producen una ambigüedad también no nula.
En estas condiciones, mientras la cantidad de información transmitida de A a B es igual a la de B
privada de la ambigüedad, la cantidad de información del conjunto A y B es igual a la de B con esta
ambigüedad añadida. En efecto, la magnitud que mide la ambigüedad no es más que la cantidad de
información de B en tanto que B es independiente de A: es, pues, normal que esta cantidad se considere
perdida desde el punto de vista de la transmisión de A a B y, por el contrario, se considere un
suplemento desde el punto de vista de la cantidad de información total (es decir, de la variedad ) del
conjunto del sistema.
Vemos así cómo un papel positivo, «organizativo», del ruido puede concebirse en el marco de la teoría
de la información, sin contradecir por ello el teorema de la vía con ruido: disminuyendo la transmisión
de información en las vías de comunicaciones en el interior del sistema, los factores de ruido
disminuyen la redundancia del sistema en general y precisamente por ello aumentan su cantidad de
información. Es evidente, sin embargo, que el funcionamiento del sistema está unido a la transmisión de
información en las vías de un sub-sistema a otro, y que junto a ese papel «positivo» del ruido, factor de
complejificación, el papel destructor clásico no puede ser ignorado. Se trata, pues, de dos clases de
efectos de la ambigüedad producida por el ruido sobre la organización general de un sistema, clases a
las que hemos llamado ambigüedad destructora y ambigüedad-autonomía, debiendo contarse
negativamente la primera y positiva-mente la segunda. Una condición necesaria para que ambas
coexistan es, a nuestro entender, que el sistema sea lo que Von Neumann llamaba un «sistema
extremada y altamente complicado [5] 12».

12Es lo que Edgar Morin [22] llamó, de modo probablemente más correcto (véase pág. 201), «sistema hipercomplejo».
52
Aunque los conceptos de complejidad y complicación no se hayan definido clara y precisamente
todavía 9, la vaga e intuitiva idea que tenemos de ellos nos hace percibir los autómatas naturales como
sistemas de una complejidad extrema al poder ser el número de sus componentes extremadamente
elevado (10 mil millones de neuronas para un cerebro humano), y al poder las relaciones entre esos
componentes estar extremadamente entrelazadas, pudiendo cada componente, en principio, estar
conectado directa o indirectamente a todos los demás. Sólo en tales sistemas el papel positivo del ruido
puede coexistir con su papel destructor, gracias a la mediación de la ambigüedad-autonomía. En efecto,
si se considera un sistema limitado a una sola via de comunicaciones entre A y B, la autonomía de B
con respecto a A sólo puede significar un mal funcionamiento del sistema y su destrucción: en este
caso, una cantidad de información de B es tanto que B es independiente de A no tiene ninguna
significación desde el punto de vista del sistema, puesto que éste se reduce a esa via. Para que tenga
alguna significación es preciso imaginar que A y B no sólo están unidos el uno al otro por esta vía, sino
cada uno a gran número de otros sub-sistemas por gran número de otras vías, de modo que incluso una
independencia total de B con respecto a A no suponga la desaparición del sistema. Este, debido a sus
numerosas interconexiones, y siempre que su redundancia inicial sea lo bastante grande, será todavía
capaz de funcionar y su cantidad de información total habrá aumentado. Este aumento puede, entonces,
ser utilizado para la realización de funciones más amplias, especialmente en lo que se refiere a las
posibilidades de adaptación a situaciones nuevas, gracias a una mayor variedad de respuestas posibles
a estímulos diversificados y aleatorios del entorno 10.
Al expresar estas ideas de modo más cuantitativo de lo que aquí podemos hacerlo, pudimos mostrar
[14, 15] que, en el marco de algunas hipótesis simplificadoras, una condición suficiente para que la
ambigüedad-autonomía sea capaz de sobrecompensar los efectos de la ambigüedad destructora es la
existencia de un cambio de alfabeto con un aumento del número de letras, cuando se pasa de un tipo de
sub-sistema a otro con una vía de comunicaciones entre ambos. Este resultado puede comprenderse
como una explicación posible del cambio de alfabeto efectivamente observado en todos los
9
Véase más adelante, pág. 78.
10
Véase más arriba, ley de la variedad indispensable de Ashby.53

organismos vivos cuando se pasa de los ácidos nucleicos, escritos en un «lenguaje» de cuatro símbolos
(las cuatro bases nitrogenadas), a las proteínas, escritas en el lenguaje de 20 símbolos de los
aminoácidos.
Auto-organización por disminución de redundancia [7]
De modo más general puede concebirse la evolución de sistemas organizados, o el fenómeno de la
auto-organización, como un proceso de aumento de complejidad a la vez estructural y funcional
resultante de una sucesión de desorganizaciones alcanzadas seguidas, cada vez, por un
restablecimiento a un nivel de variedad mayor y de menor redundancia. Esto puede expresarse, con
bastante sencillez, por medio de la definición precisa de la redundancia en el marco de la teoría de la
información.
Si H representa la cantidad de información de un mensaje que contiene cierto grado de redundancia R,
y si Hmax, representa la cantidad de información máxima que contendría este mensaje si ninguno de sus
símbolos fuera redundante, la redundancia R se define como:

_ _ Umax — H H
de modo que la cantidad de información H del mensaje puede escribirse:

H = Umax (1 —R)
Definimos un proceso de organización no programada por una variación de H en el tiempo bajo el efecto
de factores aleatorios del entorno. Esta variación es representada por la cantidad
dH
=M- dt
Diferenciando la ecuación precedente se obtiene una expresión para
f(t):

[1] dt
dt dt
La tasa de variación de la cantidad de información
dH
dt
es así la suma

54
de dos términos que corresponden, esquemáticamente, a los dos efectos opuestos del ruido o a los dos
tipos de ambigüedad. El primer término expresa la variación de la redundancia. Si ésta es inicial-mente
bastante elevada, disminuirá bajo el efecto de la ambigüedad- autonomía, de modo que
dR
dt
será negativo y que el primer término
/ tj dR. \ j
será positivo, contribuyendo así a un aumento de la cantidad de información H del sistema. El segundo
término expresa la variación Hmax, es decir, la desviación con relación al estado de complejidad
maximal que puede alcanzarse por el sistema sin tener en cuenta su grado de redundancia. Se puede
demostrar [7] que el proceso de desorganización con relación a un estado dado (instantáneo) de
organización, bajo el efecto de la ambigüedad destructora, se expresa por una función decreciente de
Hmax de tal manera que
dt
y el segundo entero completo son negativos, contribuyendo a una disminución de la cantidad de
información H del sistema.
Estos dos términos dependen ellos mismos de dos funciones
dR , dW max f ¿ v

srf'wy-srfiw
del tiempo, dependiendo de los parámetros que expresan formalmente la naturaleza de la organización
de que se trata. Así, para algunos valores de estos parámetros, la curva de variación de la cantidad de
información H en función del tiempo será tal que H comienza aumentando, alcanza
un máximo en un tiempo ÍM sobre cuya significación volveremos más adelante, y luego disminuye. Este
tipo de variación es el que podrá aplicarse a un tipo de organización que es la de los organismos, donde
una fase de crecimiento y maduración, con posibilidad de aprendizaje adaptativo, precede a una fase de
envejecimiento y de muerte. El punto interesante, aquí, es que ambas fases, precisamente cuando se
efectúan en direcciones opuestas desde el punto de vista de la variación H, son el resultado de las
respuestas del organismo en distintos estadios de su evolución a los factores de agresiones aleatorias del
entorno: estos mismos factores, responsables de la desorganización progresiva del sistema que conduce
ulteriormente a su muerte, son los que han «nutrido» antes su desarrollo con complejificación progresiva.
Naturalmente, según el valor de los parámetros que deter-

55
minanf yf este efecto se observará o no, y si se observa, se percibirá de modo cuantitativamente muy
distinto según la «organización» del sistema de que se trate. Por ello hemos propuesto utilizar
precisamente este formalismo para definir cuantitativamente el propio concepto de organización, de modo
que la propiedad de auto-organización, es decir, de aumento de complejidad aparente-mente espontánea
(de hecho provocado por factores aleatorios del entorno), sea un caso particular.

Hacia una teoría formal de la organización [20]


De este modo, el estado de organización de un sistema es definido no sólo por su cantidad de información
H, que sólo expresa un carácter estructural, sino también por su organización funcional;
ésta puede ser descrita por la tasa de variación
da
dt
de cantidad de información del sistema en el curso del tiempo, suma, asimismo, de dos funciones f1 yf en
relación, una, con la tasa de disminución de la redundancia y, la otra, con la tasa de disminución de la
cantidad de información máxima. Los distintos tipos de organización posibles están caracterizados por
valores distintos de los parámetros característicos de estas funciones. Es posible mostrar [7, 20] que dos
de ellos desempeñan un papel particularmente importante: la redundancia estructural inicial y la
fiabilidad. El primero es todavía una característica estructural, mientras que el segundo expresa la eficacia
de la organización en su resistencia a los cambios aleatorios, y es así una característica funcional. Existe,
es verdad, una relación (entre fiabilidad y redundancia, pues la primera depende de la segunda, y por ello
se establece la relación necesaria entre organizaciones estructural y funcional. Sin embargo, la una no
puede ser reducida a la otra, y la distinción que nos vemos obligados a establecer puede ser comprendida,
entre otras, por la referencia que Winograd y Cowan [6] han introducido entre «redundancia de los
módulos» y «redundancia de las funciones» en su estudio sabre la fiabilidad de los autómatas: la
redundancia inicial sería una redundancia de módulos, simple repetición de elementos estructurales,
mientras la fiabilidad sería una redundancia de funciones.
Para que un sistema tenga propiedades auto-organizadoras es preciso que su redundancia inicial tenga un
valor mínimo porque

56
estas propiedades consisten en un aumento de complejidad por destrucción de redundancia. Sólo en estas
condiciones la curva de variación H (t) podrá tener una parte inicial ascendente. Entonces, la
fiabilidad medirá también la duración de esta fase ascendente, es decir, el tiempo tM tras el que se
alcanza el máximo, tanto más largo cuanto más grande es la fiabilidad. Así, si tM es muy corto, la
destrucción de redundancia se efectúa demasiado rápidamente como para poder ser observada, el
máximo se alcanza casi intantáneamente y se observa un sistema cuya cantidad de información,
aparentemente, sólo disminuye. Pese a una redundancia inicial suficiente, todo ocurre como si el sistema
no fuera auto-organizador. Por otra parte, si la redundancia inicial es insuficiente pero la fiabilidad es
grande, entonces el sistema que, evidentemente, no puede ser auto-organizador, tiene, sin embargo, gran
longevidad: su fiabilidad sólo tiene entonces la significación habitual de resistencia a los errores que
puede expresarse por la inversa de una velocidad de envejecimiento. Así, de acuerdo con los valores de
estos dos parámetros, pueden distinguirse distintos tipos de sistemas organizados o, si se quiere,
distintos «niveles de organización» que pueden representarse por curvas de formas distintas (fig. 2).

Principios de auto-organización de la materia y de evolución por selección


En un largo tratado sobre la posible naturaleza química de procesos de auto-organización de la materia,
M. Eigen [21] llega por un método y un formalismo distintos, enraizados en la cinética química, a un
resultado lógicamente muy similar. Inspirándose en los mecanismos conocidos de replicación de los
ADN, en la síntesis de las proteínas y en la regulación enzimática, analiza el devenir de las
«poblaciones» de macromoléculas portadoras de información, tanto en el plano de la cantidad de
información total de la población como de la de las distintas clases de macromoléculas sintetiza-das.
Uno de los problemas así estudiados es el de las condiciones en las que ciertas macromoléculas
portadoras de información pueden ser seleccionadas a expensas de otras en un sistema donde la única
restricción es que la síntesis de estas moléculas se efectúa por copia de moléculas idénticas. Por primera
vez, el concepto de selección

57
orientada, fundamento de las teorías de la evolución, adquiere un contenido preciso, susceptible de ser
expresado en términos de cinética química y distinto del círculo vicioso habitual en el que se cae

Fig. 2.-Distintos tipos de organizaciones representadas por distintas formas posibles de curvas H (t) de variación de
cantidad de información en función del tiempo, obtenidas a partir de la ecuación [1].
H0, cantidad de información inicial, está vinculada a la redundancia inicial R0 por la relación
Hü= Hmax0 (1- R0).
tu, tiempo tras el que se alcanza un valor máximo Hm de H, por agotamiento de la redundancia inicial, es también una
medida de la fiabilidad del sistema.
En los casos, no representados aquí, de sistemas auto-organizadores por redundancia inicial demasiado débil, la curva H (t)
sería la de una función decreciente monótona donde la velocidad media de disminución expresaría la inversa de la fiabilidad
[7].

58
cuando se describe la selección natural como la supervivencia de los más adaptados, cuando estos
últimos sólo pueden definirse por el hecho de que sobreviven.
Es así como un valor de selección es definido a partir de magnitudes Ai, Di, Qi, ellas mismas definidas
para cada tipo i de portadores de información, del modo siguiente.
Ai es un factor de ampliación que determina la velocidad de reproducción repetitiva del portador i;
multiplicado por una constante Ko, expresa la velocidad de la reacción de replicación en molde por la
que i es sintetizada.
Qi es un factor de calidad entre 0 y 1 que expresa la precisión y la fidelidad de estas replicaciones: si
ningún error se produce en las copias, Q¿ = 1 ; de modo general Q¿ es la fracción de los A¿, copias
reproducidas sin error, mientras que (1 — Q¿) es la fracción de las copias que presentan errores, dicho
de otro modo «mutantes» producidos por replicación errónea de i. Di es un factor de descomposición
que, multiplicado por la misma constante K 0 expresa la velocidad de las reacciones por las que la
macromolécula i es destruida.
Según distintas condiciones iniciales contempladas, el valor selectivo de una especie i es entonces
definido bien por AiQi — Di,
es decir, que expresa bien sea de modo absoluto, bien sea de modo relativo, un exceso de la producción
sobre la destrucción de la especie macromolecular contemplada.
En todos los casos, el resultado al que llega el análisis de la evolución de una población donde distintas
especies i están presentes es el mismo: una de las condiciones necesarias para que la cantidad de
información total de la población aumente con selecciones sucesivas de algunas especies es que los
factores Qi sean distintos de uno, permaneciendo, sin embargo, mucho más cercanos a 1 que a 0. Eso es
sólo la consecuencia de que en ausencia de errores de replicación no puede aparecer ninguna novedad.
Y si, además, se tiene en cuenta que las reacciones químicas son, en el nivel molecular, fenómenos
estocásticos donde el papel de las fluctuaciones es tanto más importante cuanto más se trate de
pequeños números de moléculas interactuantes, entonces, en ausencia de Qi < 1, no sólo la cantidad de
información total no aumenta, por ausencia de innovación, sino que ni siquiera puede mantenerse en
estado estacionario, y disminuye hasta que todas las especies presentes hayan desaparecido sin por ello
ser reemplazadas por otras nuevas. Ello proviene

59
de que siempre existe una probabilidad no nula para que, bajo los efectos de las fluctuaciones en las
velocidades instantáneas de reacciones, una especie sea, en un momento cualquiera de la evolución del
sistema, destruida más deprisa de lo que es reproducida, hasta el punto de que no haya ya copia
disponible para una reproducción ulterior y desaparezca así definitivamente.
Uno de los resultados más espectaculares a los que llega M. Eigen aplicando esta teoría a sistemas
constituidos por un acopla-miento de dos sub-sistemas de propiedades complementarias como son los
conjuntos de ácidos nucleicos y los conjuntos de proteínas es una explicación posible de la
universalidad del código genético: se-ría el resultado inevitable de una evolución en la que sólo ese
código podría ser seleccionado, y M. Eigen sugiere, finalmente, cierto número de «experimentos de
evolución» con el fin de comprobar su teoría.
El ruido como acontecimiento
Así, en principio al menos, se ve cómo una producción de in-formación bajo el efecto de factores
aleatorios nada tiene de misterioso: es sólo la consecuencia de producciones de errores en un sistema
repetitivo, constituido de modo que no sea destruido casi inmediatamente por un número relativamente
débil de errores.
En los hechos, por lo que concierne a la evolución de las especies, no es concebible ningún mecanismo
al margen de los sugeridos por tales teorías donde acontecimientos aleatorios (mutaciones al azar) son
responsables de una evolución orientada hacia una mayor complejidad y una mayor riqueza de la
organización. Por lo que concierne al desarrollo y a la maduración de los individuos, es muy posible que
estos mecanismos desempeñen también un papel no desdeñable, sobre todo si se incluyen en ellos los
fenómenos de aprendizaje adaptativo no dirigido, donde el individuo se adapta a una situación
radicalmente nueva, para la que es difícil apelar a un programa preestablecido. De todos modos, esta
noción de programa preestablecido aplicada a los organismos es muy discutible, en la medida en que se
trata de programas «de origen interno», fabricados por los propios organismos, y modificados durante su
desarrollo. En la medida en que el genoma es proporcionado desde el exterior (por los padres) a menudo
se lo asimila a un programa de ordenador, pero esta asimilación nos parece absolutamente abusiva.

60
Si una metáfora cibernética puede ser utilizada para describir el papel del genoma, nos parece mucho
más adecuada la de memoria que la de programa, pues esta última implica todos los mecanismos de
regulación que no están presentes en el propio genoma. Sin ello no se evita la paradoja del programa que
necesita productos de su ejecución para ser leído y ejecutado. Por el contrario, las teorías de la auto-
organización permiten comprender la naturaleza lógica de sistemas donde lo que hace las veces de
programa se modifica sin cesar, de modo no establecido, bajo el efecto de factores «aleatorios» del
entorno, productores de «errores» en el sistema.
Pero qué son esos errores? Según lo que acabamos de ver, precisamente a causa de sus efectos positivos,
no parecen ya ser por completo errores. El ruido provocado en el sistema por los factores aleatorios del
entorno no sería ya un verdadero ruido a partir del momento en que fuera utilizado por el sistema como
factor de organización. Eso querría decir que los factores del entorno no son aleatorios. Pero lo son. O
más exactamente, depende de la reacción ulterior del sistema en relación a ellos para que, aposteriori,
sean reconocidos como aleatorios o parte de una organización. En efecto, apriori, son cadenas de
causalidad independientes: las causas de su producción nada tienen que ver con el encadenamiento de
los fenómenos que ha constituido la historia anterior del sistema hasta entonces. Es por ello que su
aparición y su reencuentro con éste constituyen un ruido, desde el punto de vista de los intercambios de
información en el sistema, y sólo son susceptibles de producir erro-res. Pero a partir del momento en
que el sistema es capaz de reaccionar a éstos, de modo que no sólo desaparezca, sino que también se
modifique a sí mismo en un sentido que le sea beneficioso, o que, como mínimo, preserve su
supervivencia ulterior, o dicho de otro modo, a partir del momento en que el sistema es capaz de integrar
estos errores en su propia organización, entonces, éstos pierden, a posteriori, algo de su carácter de
errores. Sólo lo conservan desde un punto de vista exterior al sistema, por el hecho de que (efectos del
entorno sobre éste) ellos mismos no corresponden, a ningún programa preestablecido contenido en el
entorno y destinado a organizar o desorganizar el sistema Por el contrario, desde un pun-
11
Los mecanismos termodinámicos de orden por fluctuaciones parecen hacer hincapié en el carácter interno del ruido
organizativo. Esta distinción no es real, pues estas fluctuaciones «internas» son también el resultado del efecto del
entorno (temperatura) sobre sistemas que sólo pueden ser «abiertos» atravesados, por tan-
61
to de vista interior, en la medida en que la organización consiste precisamente en una sucesión de
desorganizaciones superadas, no aparecen como errores más que en el momento preciso de su aparición
y en relación a un mantenimiento que sería tan nefasto como imaginario de un síaíu quo del sistema
organizado, que se representa en cuanto puede darse una descripción estática. De otro modo, y a partir
de este instante, son integrados, recuperados como factores de organización. Los efectos del ruido se
convierten entonces en acontecimientos de la historia del sistema y de su proceso de organización.
Aunque siguen siendo, sin embargo, efectos de un ruido al ser imprevisible su producción.
Así pues, bastaría considerar la organización como un proceso ininterrumpido de desorganización-
organización, y no como un estado, para que el orden y el desorden, lo organizado y lo contingente, la
construcción y la destrucción, la vida y la muerte, no fueran ya tan distintos. Y, sin embargo, no es así.
Los procesos donde se rea-liza esta unidad de los contrarios es el propio movimiento del proceso y nada
más que eso lo que constituye la «síntesis» —ya que ésta no se produce como un nuevo estado, síntesis
de la tesis y de la antítesis—, tales procesos sólo pueden existir en tanto que los errores son, apriori,
verdaderos errores, que el orden en un momento dado es realmente perturbado por el desorden, que la
destrucción, aunque no total, sea real, que la irrupción del acontecimiento sea una verdadera irrupción
(una catástrofe o un milagro o ambas cosas). Dicho de otro modo, esos procesos que se nos aparecen
como uno de los fundamentos de la organización de los seres vivos, resultado de una especie de
colaboración entre lo que solemos llamar la vida y la muerte, sólo pueden existir en tanto que nunca se
trate, precisamente, de colaboración, sino siempre de oposición radical y de negación.
Por ello la experiencia inmediata y el sentido común en lo que concierne a estas realidades no pueden
ser eliminados como ilusiones en beneficio de una visión unitaria de una gran corriente de «vida» que
los arrastra a ambos, aunque esta corriente sea igual-mente real. La conciencia simultánea que nos es
dada de esos dos niveles de realidades es, probablemente, la condición de nuestra libertad o del
sentimiento de nuestra libertad: nos está permitido
to, por flujos provinentes del exterior (véase más adelante pág. 110 y pág. 176, nota 10).

62
adherirnos, sin contradecirnos a nosotros mismos, a procesos que significan tanto nuestra supervivencia
como nuestra destrucción. Una ética auténtica, al permitirnos utilizar del mejor modo esta libertad, sería
la ley que nos permitiera en cada instante saber cómo intervenir en ese incesante combate entre la vida y
la muerte, el orden y el desorden, de modo que evitáramos siempre un triunfo definitivo de uno sobre
otro, que es, de hecho, uno de los dos modos posibles de morir por completo, si así puede decirse, por la
detención del proceso, bien en un orden definitivamente establecido, inamovible, o bien en un desorden
total. Es notable que mientras nuestras vidas reúnen en su corriente procesos de «vida» y de «muerte»,
realizando así dos modos de estar vivos, nuestros cadáveres reúnen también dos modos de estar
muertos: la rigidez y la descomposición.

BIBLIOGRAFIA
1. N. Wiener, Cyberneíics, or Control and Communicaíion in íhe animal and íhe machine, Nueva York,
J. Wiley & Sons, 1948.
2. W. R. Ashby, «Principles of the self organizing system», Principies of Self Organizaíion, Von
Foerster et Zopf (eds.), Pergamon, 1962, págs. 255-278.
3. J. D. Cowan, «The problem of organismic reliability», Progress inBrainResearch, vol. 17,
Cybernetics and the Nervous System, Wiener et Schade (eds.), Amsterdam, Elsevier, 1965, págs. 963.
4. J. Von Neumann, «Probabilistic logics and the synthesis of re-liable organisms from unreliable
components», in Automata Studies, C. E. Shannon et J. McCarth (eds.), Princeton, Prince-ton
University Press, 1956, págs. 43-98.
5. J. Von Neumann, Theory of Self-reproducing Automata, A. W.
Burks (ed.), Urbana, Illinois, University of Illinois Press, 1966.
6. S. Winograd y J. D. Cowan, Reliable Computation in thepre- sence of noise, Cambridge, Mass.,
MIT, press, 1963.
7. H. Atlan, L'Organisation biologique et la Théorie de l'information, París, Hermann, 1972.
8. J. Von Neumann y O. Morgenstern, Theory of Games and

63
Economic Behavior, Princeton, Princeton University Press, 1944.
9. H. Von Foerster, «On self-organizing systems and their environments», en Self-organizing Systems,
Yovitz et Cameron (eds.), Pergamon, 1960, págs. 31-50.
10. E. Schrodinger, What is Life?, Londres, Cambridge University Press, 1945.
11. W. R. Ashby, «Requisite variety and its implications for the control of complex systems»,
Cybernetica, vol. 1, núm. 2, Namur, 1958, págs. 83-99.
12. W. R. Ashby, «The place of the brain in the natural world», en Currents in modern biology, 1,
Amsterdam, Nort Holland Publ., 1967, págs. 95-104.
13. R. L. Beurle, «Functional organization in random networks», en Principles of Self-organization,
Von Foerster et Zopf (eds.), Nueva York, Pergamon, 1962, págs. 291-314.
14. H. Atlan, «Applications of Information theory to the study of the stimulating effects of ionizing
radiation, thermal energy, and other environmental factors. Preliminary ideas for a theory of
organization», Journal of Theoretical Biology, 21, 1968, págs. 45-70.
15. H. Atlan, «Role positif du bruit en théorie de l'information appliquée á une définition de
l'organisation biologique», Annales dephysique biologique et médicale, 1, 1970, págs. 15-33.
16. C. E. Shannon y W. Weaver, The mathematical theory of communication, Urbana, University of
Illinois Press, 1949.
17. H. J. Morowitz, «Some order disorder considerations in living systems», Bulletin of
MathematicalBiophysics, vol. 17, 1955, págs. 81-86.
18. S. M. Dancoff y H. Quastler, «The information content and error rate of living things», en
Information theory in biology, H. Quastler (ed.), Urbana, University of Illinois Press, 1953, págs. 263-
273.
19. J. Von Neumann, op. cit., 1966, pág. 78.
20. H. Atlan, «On a formal theory of organization», Journal of Theoretical Biology, 45, 1974, 295304.
21. M. Eigen, «Self-organization of matter and the evolution of biological macromolecules», Die
Naturwissenschaften, 58, 1971, 465-523.
22. E. Morin, Le Paradigme perdu: la nature humaine, París, Editions du Seuil, 1973.

4
LA ORGANIZACION DE LO VIVO Y SU REPRESENTACION 1

BIOLOGIA Y MATEMATICAS
A veces sucede que el lenguaje matemático es utilizado por los biólogos de modo incorrecto y, sin
embargo, «funciona». Ocurre así
porque se trata, a menudo, de metáforas y esta utilización corresponde a necesidades —o bloqueos —
propiamente biológicos, es de-
La organización de lo vivo, como la de todo sistema natural, es un estado y un proceso que aparecen como tales a quien
observe su naturaleza. Pero es también el resultado de la actividad organizadora de este observador. Esta actividad estuvo en
el origen de las antiguas clasificaciones míticas y funcionales, filosóficas luego, y científicas. El círculo se cierra cuando se
observa el espíritu humano organizando la naturaleza siendo el mismo un resultado de un proceso organizador natural. Y, sin
embargo, el círculo no está por completo cerrado, pues este observador del observador es, también, el «yo» que soy capaz de
observar la naturaleza y de observarme observándola (véase, más adelante, págs. 103-104). La práctica científica es un avatar
de esta actividad organizadora del espíritu humano, organizando lo real al descubrir su organización, donde el «yo», aunque
existente y actuante, se supone neutro y sin efectos: objetividad científica. Ahí, y probablemente por esta razón, esta actividad
funciona sobre paradigmas lógicos donde las matemáticas han desempeñado siempre un papel privilegiado, aunque ambiguo.
Este texto retoma, ampliándolo, el contenido de varios artículos y comunicaciones: «Source and transmission of
information in biological networks», en Stability and Origin of biological information (Conferencia de A. Katkzir-
Katchalsky, 1973), I. R. Miller (Ed.), Nueva York, Wiley & Sons, 1975, págs. 95-118; «Los modelos dinámicos de redes y las
fuentes de información en biología», en Structure et Dynamique des systemes (Seminarios del Colegio de Francia, 1973), A.
Lichnerowicz, F. Perroux y G. Gadoffre (Ed.), París Maloine-Douin, 1976, págs. 95-131; Crises de bruit, coloquio IRIS-
ENST, Universidad Paris-Dauphine, 1976; «Sources of Information in Biological Systems», en Information and Systems, B.
Dubuisson (Ed.) (Proceed. IFAC Workshop, Compiegne, 1977), en Actas del Congreso AFCET, 1977, Modélisation
etMaitrise des systemes, Ed. Hommes et Techniques, 1977, págs. 118-150; «The Order from noise principle in hierarchical
self-organization», International Conference on applied Systems Research, 1977, SUNY Binghampton, reproducido en
Autopoiesis: A Theory of living organizaíion, M. Zeleny (Ed.), North Holland, publ. (en prensa).

65
cir, a cuestiones planteadas por el desarrollo de la propia biología. Cuando se advierte que la metáfora
es errónea, lógicamente desagrada, aunque sea operativa durante algún tiempo, ya que se transforma en
la medida en que se cree demasiado en ella en un obstáculo para los futuros avances. Se intenta
entonces desenmascararla y analizar los deslizamientos de sentido que acompañan su utilización. Eso
puede tener como resultado, entre otros, regresar a los métodos matemáticos y formularse nuevas
preguntas acerca de lo que fue metaforizado para intentar justificar, a posteriori, los deslizamientos
inicialmente involuntarios de la metáfora.
Así sucede en lo que concierne a ciertos formalismos surgidos de las matemáticas, que se han intentado
utilizar para mejor determinar los problemas que plantea la lógica de la organización biológica 13.
Una observación previa se requiere referente a la propia cuestión de la organización. Es sabido que esta
cuestión tiene una historia3. Hubo un tiempo en el que lo organizado era sinónimo de lo vivo, porque la
organización era la característica propia, irreductible, que diferenciaba la materia viva — la de los seres
«organiza-dos»— de la materia inanimada. Así, en este contexto vitalista, no podía plantearse la
cuestión de la lógica de la organización. La situación se ha renovado por completo con la fabricación de
máquinas organizadas por una parte y, por la otra, con el descubrimiento de substratos moleculares, es
decir físico-químicos, de criterios de organización celular responsables de propiedades que parecían,
has-ta entonces, las más irreductibles de la materia viva: la reproducción, hereditaria y la manifestación
de los caracteres genéticos.
En esta renovación, la teoría de la información y la cibernética desempeñaron un papel no desdeñable,
al menos en el nivel de los conceptos, puesto que de ellas fueron tomados los conceptos de in-formación
genética, de código y de programa genéticos, de errores de biosíntesis, de bucles reguladores, etc. Pero
esos préstamos son
vivo y Matemáticas», en Langage et Pentée mathématique, Coloquio Internacional, Centro Universitario de
Luxemburgo, 1976, págs. 366-389, y «Thermodynamics of Ageing in Drosophila Melanogaster», Mechanisms of Ageing
andDevelopment, 5, 1976, págs. 371-387.
3
F. Jacob, La Logique du vivant, París, Gallimard, 1970. J. Schiller, La Notion d'organisation dans lhistoire de la biologie,
Maloine-Doin, 1978. Hay trad. esp. La lógica de los vivientes, Laia, 1977.

66
ejemplos típicos de estas metáforas de las que hablábamos al principio, en las que los conceptos de
información, de programa, son utilizados en un sentido por completo distinto, aunque cercano, al que
tienen en la teoría matemática donde han sido definidos. Eso no es malo, muy al contrario, cuando se
es consciente de ello, pues permite regresar a la teoría matemática para cuestionarla y ver lo que, en
13Véase también nuestro análisis de las teorías matemáticas y termodinámicas del envejecimiento: «Organización de lo
cierto modo, le faltaría para responder a la utilización que imponen las necesidades de los biólogos.
Por ello, nuestra primera cuestión, abordada ya en el capítulo precedente, será la del papel del azar o dé
lo aleatorio —el ruido— en la organización biológica, tal como puede ser planteado en el formalismo
de la teoría de la información, prolongada y ampliada por las necesidades causales. Veremos cómo las
constricciones impuestas por las condiciones de la observación biológica nos han llevado a tomar en
serio el carácter probabilista de esta teoría y el papel del observador en su funcionamiento. Esto nos ha
permitido extenderla a nuevos dominios en los que sus fundadores habían vislumbrado, es cierto, que
debería llegarse, pero no habían indica-do el camino para hacerlo. Quiero hablar de las sugerencias
que, el principio de orden por el ruido expuesto en el capítulo precedente (convertido de hecho en
complejidad por el ruido), puede aportar a la cuestión de la significación de la información, en
particular, en un sistema natural constituido en distintos niveles jerarquizados, es decir, en niveles de
integración y de generalidad que se engloban los unos en los otros.
Luego, y por diferencia, veremos cómo el uso de un formalismo determinista (no probabilista)
recientemente desarrollado con el nombre de termodinámica de redes, debe ser modificado y ampliado
por efectos de constricciones similares. Tal vez aparezca una inter-sección fecunda de dos tipos de
métodos que la nueva problemática de las redes estocásticas permiten entrever.

I. AZAR Y ORGANIZACIÓN, REPRESENTACIÓN DE LO NUEVO

1. Ruido organizativo y diferencias de puntos de vista


Desde que hemos emprendido su estudio sistemático, el papel del azar en la organización ha excitado
la imaginación y ha estimulado bastantes ejercicios lógicos. En efecto, tradicionalmente, azar y
67

aleatorio eran siempre considerados como antinómicos de orden y organizado. Pero cierto número de
reflexiones provenientes de la biología molecular por una parte y de la cibernética por la otra permitían
sospechar que cierta clase de organizaciones, a las que pertenecían la de los seres vivos, debía
obedecer a una lógica particular en la que el azar y lo aleatorio tenían que contribuir de cierto modo a
la organización del sistema.
Además, el estudio de los sistemas lejos del equilibrio, especial-mente por la escuela de Prigogine 4,
había mostrado que ciertas fluctuaciones en un sistema abierto podían ser seleccionadas, amplificadas
y mantenidas para que dieran origen a una estructura dinámica macroscópica, superpuesta a la
disipación de energía libre necesaria para el mantenimiento del sistema lejos del equilibrio, y cuyo
primer ejemplo era proporcionado por el fenómeno bien conocido en hidrodinámica de los torbellinos
de Bénard.
Todo ello mostraba que la oposición clásica entre lo organizado y el azar debía ser revisada. Von
Foerster5 imaginó la expresión principio del orden a partir del ruido (order from noise principle) sin
dar de él, no obstante, una formulación muy rigurosa. Como veremos se atribuían a la noción de orden
significaciones contradictorias.
En este contexto, y en 1968, el estudio de los efectos estimulantes de débiles dosis de radiaciones
ionizantes sobre diversos sistemas vivos, así como de los mecanismos del envejecimiento, nos llevó a
dar una formulación más precisa, utilizando el formalismo de la teoría de la información de Shannon 6' 7.
Hoy estas ideas se han extendido mucho, hasta el punto de que a veces se presentan como evidencias
primarias, como por ejemplo que la creación de la información no puede realizarse más que a partir del
ruido, lo que es una lástima, pues se olvida lo que consti-
4
P. Glansdorff y I. Prigogine, Structure, Stabilité et Fluctuations, París, Masson, 1971. Véase más adelante pág. 110.
5
H. Von Foerster, «On self organizing systems and their environments», en Self-organizing Systems, Yovitz et Cameron
(Eds.), Nueva York, Pergamon Press, 1960, págs. 31-50.
6
C. E. Shannon y N. Weaver, The Mathematical Theory of Communication, Urbana, University of Illinois Press, 1949.
7
H. Atlan, «Application of information theory to the study of the stimulating effects of ionizing radiation, thermal energy
and other environmental factors. Preliminary ideas for a theory of organization», Journal of Theoretical Biology, 1968, 21,
págs. 45-70.
68
tuye su mayor interés, es decir: cómo y en qué condiciones puede resolverse la paradoja. Dicho de otro
modo, cómo y en qué condiciones la oposición entre organizado y aleatorio puede ser reemplazada por
una especie de cooperación en la que inevitablemente el concepto de organizado y el de aleatorio
adquieran nuevos contenidos. En este sentido es también útil recordar las condiciones que,
evidentemente, se desprenden del propio formalismo de la teoría de la información y de sus
significaciones explícitas o implícitas.
La teoría de Shannon ha sido muy criticada porque no es una verdadera teoría de la información, al
dejar de lado algunas características muy importantes de lo que es la información. Esquemáticamente,
puede afirmarse que la teoría de Shannon en su forma, ya clásica, dejaba de lado tres clases de
problemas que, sin embargo, difícilmente pueden evitarse cuando se habla de información:
1. Los vinculados a la creación de información: el segundo teorema de Shannon, del canal con ruido,
enuncia explícitamente que la información transmitida por un canal no puede crearse, puesto que no
puede sino ser destruida por los efectos del ruido, y que en el mejor de los casos sólo puede
conservarse.
2. Los vinculados a la significación de la información: la fórmula de Shannon no permite cuantificar la
información media por símbolo de un mensaje sino a condición de desdeñar el sentido eventual de este
mensaje.
3. Finalmente, los vinculados a las formas jerárquicas de organización: en la medida en que la fórmula
de Shannon puede servir de medida de organización, ignora por completo los problemas de inclusión,
unos en otros, de los distintos niveles de organización más o menos integrados.
Pero, junto a lo que dejó de lado, el poder de la teoría de Shan-.
on, como útil cuantitativo, es bastante como para que no sólo no se la rechace, sino que se intente
extenderla a estos dominios; evidentemente este procedimiento puede contestarse diciendo que si la
metáfora es falsa, si la información en biología no se reduce a la de la teoría de Shannon, no hay razón
para seguir aferrados a esta teoría y mejor es intentar definir la información a partir de nuevas bases de
un modo directamente más adecuado. Tal vez. Pero sucede que la metáfora no es por
completo falsa. En efecto, existen muchos casos en biología molecular, bastante aislados pero
importantes, de transmisiones de información en el sentido más riguroso de la Teo-

69
Leyes de conservación:
1. En CO y en y = T (x; y) = H (x) — H (x/y) = H (y) — H (y/x)
2. En MC y en x = H (x, y) = H (y) + H (x/y) = H (x) + H (y/x)
Las funciones de Shannon, ambigüedad y equivocación, son definidas a partir de las probabilidades condicionales p (j| i),
probabilidades de encontrar un símbolo o elemento j en un mensaje de salida y cuando el símbolo o elemento i se encuentra
en el lugar correspondiente del mensaje de entrada x, por las fórmulas:

H (y|x) = — S p (¡) p<j|i) logp p (j| t)


.. 'i
para la ambigüedad y, simétricamente:
H(x|y) = — S p ( j ) p (>li) log; p (¡|j)

para la equivocación.
La cantidad de información total H (x,y) es definida a partir de las probabilidades unidas p (i,j), probabilidades de tener
i a la entrada y j a la salida, en el mismo lugar del mensaje, por la fórmula:
H (x,y) = — X p (i,j) log; p (i,j)
Ü_ . .
generalización de la función información de Shannon

70
El gráfico permite encontrar las relaciones clásicas establecidas entre todas estas funciones admitiendo leyes de
conservación en las cimas del gráfico.
En particular, las cimas CO y y nos proporcionan la cantidad de información transmitida de x a y:
T (x; y) = H (x) — H (x/y) = H (y) — H (y/x)
donde la ambigüedad H (y/x) (así como la equivocación) aparece con un signo negativo.
Donde las cimas MC y x nos proporcionan la cantidad de información total:
H (x, y) H (y) + H (x/y) = H (x) + H (y/x)
donde la ambigüedad (y la equivocación) aparece con un signo positivo.

ría de Shannon: así el proceso que constituye la replicación de los ADN o el que constituye la síntesis
de las proteínas. Hay en ellos, efectivamente, mensajes de entrada y de salida, escritos en alfabetos
cuyos símbolos elementales (las bases nucleotídicas de los ADN-ARN y los aminoácidos de las
proteínas) se conocen. En un primer nivel, esos procesos pueden ser descritos cuantitativamente como
lugares de transmisión de información probabilista shannoniana donde inciden los efectos del ruido en
forma de errores de aparea-miento y de errores de síntesis. Lo que significa que las metáforas
informacionales no son completamente falsas ni siquiera en referencia a la propia teoría de Shannon. Es
también interesante ver hasta dónde es posible llegar a partir del formalismo de esta teoría para realizar
la conjunción con lo que ella ha desdeñado.
Hemos visto en el capítulo precedente cómo una solución posible al primer problema (creación de
información) puede hallarse en la expresión de una lógica de la auto-organización por disminución de
la redundancia bajo el efecto de los factores del ruido. La posibilidad de aumento de la cantidad de
información transmitida de un sistema al observador, bajo el efecto del ruido creador de ambigüedad,
podía ser utilizada como medio de expresar un mecanismo de información a partir de perturbaciones
aleatorias. Esto era construido con el propio formalismo de la teoría de Shannon, sin contradecir por
ello el teorema del canal con ruido: el cambio de signo de la función ambigüedad 8 que permite esta
operación proviene de

8
Véase capítulo precedente: «Del ruido como principio de auto-organización», ambigüedad-autonomía y ambigüedad
destructora, y, para más detalles, H. Atlan, L'Organisation biologique et la Théorie de l'information, París, Hermann, 1972.

71
un cambio de punto de vista sobre el papel de la ambigüedad de las comunicaciones en el interior del
sistema.
Este cambio de punto de vista puede ser interpretado de dos modos: el más simple apela a la posición
del observador y a su papel en la definición de los objetos físicos. El papel del observador, o más
exactamente de la medida, es absolutamente central en la definición de los objetos físicos, como lo
muestra, por ejemplo, la cuestión de la entropía de mezcla de dos depósitos del mismo gas que hemos
citado ya. El papel de las posibilidades de observación y de medida debe ser tenido en cuenta en la
propia definición de los objetos físicos como habían ya subrayado Scilard, Brillouin y otros. Así, no es
sólo un «truco» ad hoc utilizar, como hemos hecho, los efectos de la posición del observador sobre el
signo de la ambigüedad en un canal de comunicación. Una representación gráfica de las funciones de
Shannon imaginada recientemente por M. Bourgeois 9 permite, entre otras cosas, una visualización
bastante sencilla de este punto (véase fig. 1). En este gráfico, el observador en relación al que se
evalúan las probabilidades de los símbolos de los mensajes de entrada y de salida es representado,
asimismo, a la salida de un canal, que Bourgeois llama metacanal, por el que observa la vía o canal (x;
y), lo que posibilita mostrar cómo las fórmulas de Shan-non implican una circulación de la
incertidumbre entre el observador y el sistema. En esta circulación, la incertidumbre se conserva y las
ecuaciones de conservación en las distintas cimas del gráfico permiten encontrar las ecuaciones de
Shannon. Se ve claramente cómo las funciones ambigüedad y equivocación llevan signos distintos
según su lugar en el gráfico.
2. Diferencias de niveles: sistemas diferenciales y ruido organizacional

Pero se puede intentar ir más lejos. Un segundo modo de interpretar el cambio de punto de vista
permite dar un paso más y aportar algo al análisis de la tercera clase de problemas (organización en
niveles jerárquicos de integración) comprobando que esta diferencia de puntos de vista puede no ser
sólo lógica.

En efecto, puede tratarse también de puntos de vista distintos


9
M. Bourgeois, comunicación personal.

72
correspondientes a niveles distintos en una organización jerárquica.
Una de las cuestiones más difíciles que se encuentra por todas partes en biología a propósito de este
problema capital de las organizaciones jerárquicas es la siguiente: ¿cómo se pasa de un nivel a otro, o
más precisamente, cuáles son las determinaciones causales que dirigen el paso de un nivel de
integración a otro? En un sistema dinámico descrito por un sistema de ecuaciones diferenciales, las
funciones (soluciones del sistema) caracterizan el nivel en el que se está interesado, las condiciones en
los límites caracterizan el nivel superior. Se comprende así cómo las condiciones en los límites,
impuestas por las constantes de integración, determinan las funciones soluciones del sistema. Pero, a la
inversa, ¿cómo las funciones pueden influenciar las condiciones en los límites? En otras palabras,
¿cómo en la matemática un nivel inferior —menos integrado—puede influenciar el nivel superior?
¿Cómo representar el efecto del nivel molecular sobre las células, de las células sobre los órganos, de
los órganos sobre el organismo, cuando se trata del día a día de la observación biológica?
De hecho, todo el punto de vista reduccionista, físico-químico, reposa sobre el postulado tantas veces
verificado experimentalmente de que las propiedades del conjunto del sistema vivo tienen su origen en
la de sus componentes físico-químicos en niveles de integración mucho más elementales. Este punto
de vista, resultado de la observación experimental, debería, para ser formulado matemáticamente,
implicar una relación causal tal que las funciones soluciones de los sistemas de ecuaciones
diferenciales debieran determinar sus propias condiciones en los límites y no lo contrario.
Pero al mismo tiempo, la experiencia matemática habitual de que las condiciones en los límites
determinen las funciones, lo que corresponde de hecho a un punto de vista holístico, se impone tam-
bién por numerosas observaciones experimentales en las que las propiedades globales del sistema
aparecen como el resultado no sólo de sus componentes elementales, sino de la organización o co-
nectividad de sus componentes que, abordados en un nivel más integrado, es la que determina
justamente las condiciones en los límites de los niveles elementales.
Dicho de otro modo, todo ocurre como si existiera una oposición entre el punto de vista empírico
reduccionista según el cual el detalle engendra lo general y el punto de vista matemático, clásico

73
al menos, que describe un sistema a cierto nivel por un sistema de ecuaciones diferenciales. Se observa
a menudo que es evidente que el nivel superior debe actuar sobre el nivel inferior. Como acabamos de
ver, esta evidencia se impone de modo muy preciso cada vez que se aborda un sistema de ecuaciones
diferenciales. Sin embargo, la evidencia empírica opuesta (de lo inferior hacia lo superior) se impone
por la observación y el sentido cómun, pero es mucho más difícil 10 de formalizar. De esta cuestión del
paso de lo global a lo local y viceversa se habla, en la teoría de los modelos, en términos de
proyección, donde los criterios de validez son criterios de homomorfismos. Se trata aquí de las
determinaciones causales durante tales transiciones, abordadas en términos de condiciones en los
límites y de funciones soluciones de ecuaciones diferenciales. El matemático A. Douady observaba que
se trata de un problema análogo al de la esfera vibrante donde la integración se efectúa incluso cuando
no hay bordes.
Cambiando de formalismo y regresando al de la teoría de Shannon, se advierte cómo los mecanismos
de creación de información a partir del ruido de los que hemos hablado pueden suponer cierto
progreso.
Hemos visto más arriba cómo estos mecanismos implican de hecho un cambio del punto de vista de la
observación, con superposición de dos puntos de vista: el del canal elemental (x; y) sobre el que se
ejerce el ruido, y el del canal del sistema S con el observador que mide la cantidad de información del
sistema.

10 En los sistemas humanos, esta dificultad reviste una forma particular, bien conocida, por otra parte,
la del paso del sentido y las determinaciones del individuo a lo social: éste aparece, a la vez, como el
resultado de la composición de los efectos de los individuos y el marco englobador que los condiciona.
Autores como H. Von Foerster y J.-P. Dupuy han intentado analizar las condiciones tales en que los
individuos que constituyen una sociedad puedan «reconocerse» o no en lo que esta sociedad les
devuelve. Este paso es el que constituye, al menos en parte, lo que C. Castoriadis estudia bajo el
nombre de imaginario social, donde se juega, entre otras cosas, la sublimación de las pulsiones de las
que un psicoanálisis demasiado purista (demasiado encerrado en el individuo) no puede dar cuenta.
(Véase más adelante pigs. 100-101;H. Von Foerster (Ed.), Iníerpersonal RelaíionalNetworks, CIDOC,
cuaderno núm. 1014, Cuernavaca; J.-P. Dupuy, «La economía de la moral o la moral de la economía»,
Revue d'économiepoliíique, núm. 3, mayo-junio 1978; C. Castoriadis, L'lnsíiíution imaginaire de la
sociéíé, Editions du Seuil, 1975; hay trad. esp. La Institución imaginaria de la sociedad (tomo I),
Tusquests, 1983, y Les Carrefours du Iabyriníhe, Editions du Seuil, 1978.

76
Estos procesos actúan no sólo en los «reconocimientos de for-mas» que caracterizan nuestro sistema
cognitivo, sino también en la constitución y el funcionamiento del sistema inmunitario, verdadera
máquina de aprendizaje e integración de lo nuevo, esta vez en el nivel de formas celulares y
moleculares. En efecto, el sistema inmunitario constituye una red celular donde las células —los
linfocitos— están conectadas —entre sí y con los antígenos que constituyen sus estímulos exteriores—
por mecanismos de reconocimiento molecular al nivel de sus membranas. También ahí se trata de un
sistema de aprendizaje no dirigido cuyo desarrollo está condiciona-do por la historia de los encuentros
con distintos antígenos, historia evidentemente no programada y aleatoria, al menos en parte. Ahora
bien, el reconocimiento de los antígenos por los linfocitos es el resultado, en el nivel molecular y
celular, de una selección de linfocitos preexistentes con sus estructuras membranosas adecuadas, cuya
multiplicación es puesta en marcha por el encuentro con un antígeno dado (selección clonal). De este
modo, la posibilidad de una variedad prácticamente infinita e imprevisible de reacciones inmunitarias a
partir de un número finito de linfocitos determina-dos implica la cooperación de varios niveles
distintos de reconocimiento. Y una combinación de diferentes células pertenecientes a distintos niveles
multiplica, entonces, considerablemente la variedad de las respuestas posibles (Jerne 18). En fin,
también en esto una redundancia inicial en estas cooperaciones —transmisión de información entre los
distintos niveles de la red celular que constituye el sistema inmunitario— permite tal vez explicar el
desarrollo con aumento de diversidad y de especificidad 19. Lo que desemboca, a fin de cuentas, en la
constitución de la individualidad molecular de cada organismo, y que en el caso del hombre se sabe
que es prácticamente absoluta. Esta está, en efecto, condicionada por los encuentros en parte aleatorios
con estructuras moleculares y celulares aportadas por un entorno siempre renovado, al menos,
parcialmente.
3. Ruido organizativo y significación de la información
Pero es posible ir más lejos todavía. El formalismo de la teoría
18
N. K. Jeme, «Towards a network theory of the immune system», Annales d'Immunologie (Instituto Pasteur), 1974,
125 C, págs. 373-389.
19
N. M. Vaz y F. J. Valera, «Self and non sense: an organism-centered approach to immunology», Medical Hypothesis, 1978,
vol. 4, núm. 3, págs. 231-267.

77
de la información es un formalismo probabilista que nos es impuesto porque tratamos con sistemas que
sólo podemos conocer global e imperfectamente. Como hemos visto más arriba a propósito de la
historia del despacho desordenado, la idea del sentido y de la significación está siempre presente tanto
en la noción de orden como en la de la información. Sin embargo, también hemos visto que la teoría de
Shannon sólo ha permitido cuantificar la información al precio de poner entre paréntesis su
significación. El principio de orden a partir del ruido en sus sucesivas formulaciones cuantitativas (H.
Von Foerster, 1960; H. Atlan, 1968, 1972, 1975 20) ha utilizado también la teoría de Shannon de la que
están ausentes las preocupaciones de significación. De hecho, el problema del sentido y de la
significación sigue ahí aun cuando se crea eliminado. Está, lógica-mente, en las nociones de
codificación y descodificación. Pero está también de modo implícito-negativo y como una sombra en
cualquier utilización de las nociones de cantidad de información o de entropía para apreciar el estado
de complejidad, de orden o de des-orden de un sistema. Finalmente veremos que el principio de orden
a partir del ruido, aunque expresado en un formalismo puramente probabilista, del que está ausente el
sentido, reposa implícitamente en la existencia de la significación e, incluso, de varias significaciones
de la información. Dicho de otro modo, se trata de una vía de aproximación posible hacia la solución
del último de los problemas que la teoría de Shannon había desdeñado: el de la significación de la
información21.
Para ello, en un principio es mejor comprender el giro que hemos efectuado con respecto a la
formulación inicial de Von Foerster cuando hemos expresado el principio del orden por el ruido como
un aumento de variedad, de información de Shannon, de complejidad, unido a una disminución de
redundancia. Se trataba en efecto de un principio de organización o de complejidad por el ruido, y de
una manera parcialmente errónea lo hemos inscrito en continuidad con Von Foerster y su principio del
orden por el ruido: éste pretendía un aumento del orden repetitivo, de la redundancia, mientras que
aquí se trata del de la información, que es el opuesto y sirve
20
H. Von Foerster, 1960, op. cit.; H. Atlan, 1968-1972, op. cit., y 1975, «Organización en niveles jerárquicos e
información en los sistemas vivos», Réflexions sur de nouvelles approches dans l'étude des systémes, Coloquio ENSTA,
París, págs. 218-238.
21
Véase más arriba, pág. 68.

78
para medir la complejidad. Sin embargo, su famoso ejemplo de los imanes agitados en una caja sigue
ayudándonos a proporcionar una representación por imágenes del ruido organizativo. Y es que las
nociones de orden, de complejidad y de organización no carecían de ambigüedad. En especial, el
concepto contradictorio de la organización implicando a la vez redundancia y variedad tenía que
participar de esta conjunción hasta que fuese definido claramente.
Al desentrañar ahora, en la medida de lo posible, estas nociones, obtendremos el beneficio
anunciado con respecto al sentido y a la significación. Por ello, debemos regresar a las nociones de
entropía, orden, complicación y complejidad, para estar en las mejores condiciones de progresar
descubriendo nuevas implicaciones de la teoría del ruido organizacional. Y como veremos, al igual que
Von Foerster, parece hoy más legítimo reservar el término orden a lo que se mide por una redundancia,
dado que la variedad y la complejidad son medidas por la información, función H de Shannon.
3.1. Complejidad, complicación y otras nociones asociadas

3.1.1. Complejidad y niveles de organización


Sabemos desde Brillouin que la cantidad de información de un sistema (la función H) es la medida de la
información que nos falta 22, la incertidumbre sobre este sistema. Y es por esta razón que mide la
complejidad. Pero hay ahí una paradoja aparente: ¿cómo es posible medir y, por tanto, determinar, algo
que no se conoce, en este caso la información que no se posee sobre el sistema (o también el déficit de
información, la incertidumbre sobre el sistema)? Es posible hacerlo si se conocen los elementos
constitutivos del sis-tema y su distribución de probabilidades, es decir, la frecuencia con que se observa
cada elemento en el análisis de una clase de sistemas supuestamente homogéneos desde el punto de
vista estadístico.
A partir de esta información mínima (que se posee) es posible calcular la información que nos falta
para ser capaces de reconstruir el sistema a partir de sus elementos, es decir, comprenderlo. Es por ello
por lo que la función H de Shannon, llamada cantidad de in-
22
Véase H. Atlan, 1972, op. cit.

79
formación, o más precisamente entropía, incertidumbre e información que nos falta, mide la
complejidad de este sistema para nosotros los observadores. Se comprende entonces por qué esta
medida depende de modo crítico del nivel de observación, o más exacta-mente de la elección de lo que
se consideran los elementos constitutivos. Esta propiedad es considerada, a menudo, como un defecto
suplementario del concepto clásico de cantidad de información de un sistema. El valor numérico de H
puede variar considerablemente pues depende de la elección de los elementos constitutivos: partículas
elementales, átomos, moléculas, macromoléculas, orgánulos, células, órganos, organismos, unidades de
producción y de consumo, sociedades, etc., pero veremos que es ahí, precisamente, donde se alberga la
significación (para el sistema) de la información (para el observador, es decir, la información que no
tiene), incluso cuando ésta es medida de modo probabilista, que ignora la significación: ello proviene de
que se trata, todavía, de una información que no se tiene sobre el sistema. La elección, al principio, se
deja a la decisión del observador. Si se trata, por ejemplo, de describir un sistema a partir de sus átomos
constitutivos, H medirá la información suplementaria necesaria cuando sólo se conoce el tipo de átomos
encontrados en un conjunto estadísticamente homogéneo de sistemas idénticos v su frecuencia en este
conjunto. Esta información necesaria es, evidentemente, muy grande con respecto a la que se necesita-
ría si se describiera el sistema a partir de sus moléculas. Y es que, en ese caso, se utilizaría una
información suplementaria que ya se posee sobre el modo como los átomos se asocian en moléculas.
Otra tanta complejidad que desaparece con respecto al caso precedente. Dicho en otras palabras, en la
práctica, por lo general, se conoce algo más de los átomos encontrados y su distribución de
probabilidades.
Se conoce también, al menos, parcialmente, cómo son utilizados estos átomos por el sistema para
construir moléculas, cómo algunas moléculas se utilizan para construir macromoléculas, etc. Cuanto
más se conoce el modo cómo los elementos están ensamblados para construir el sistema —cuanto más
verdadera información, con su significación, se posea sobre el sistema— más disminuye la
función H.
El mejor ejemplo es el de la cantidad de información, o complejidad, de un organismo que es
considerablemente sencillo si se admite que dicho, organismo está por completo determinado por la
estructura informativa de su genoma. La complejidad de este orga-

80
nismo se reduce, entonces, a la de su genoma (Dancoff y Quastler 23. Puede observarse que esta reducción
de la función H corresponde de hecho a tener en cuenta la redundancia del sistema bajo la forma de sus
constricciones organizativas: la construcción de las proteínas no se considera indeterminada —incierta—
en cuanto se conoce el genoma y los mecanismos por los que éste determina la estructura de las proteínas.
El conocimiento de estos mecanismos reduce la información que se posee y, por tanto, la complejidad
aparente del sistema celular, poniendo de relieve las constricciones entre los distintos elementos
constitutivos. Lo que se traduce, como era de esperar, en una reducción de la complejidad medida. Dicho
de otro modo, esta reducción es sólo un caso particular de la oposición entre H y R, entre información y
redundancia: si H mide la complejidad, porque designa la información que no se posee, R mide la
simplificación puesto que expresa una información que se posee, al menos parcialmente, en forma de
probabilidades condicionales.
Así la complejidad es reconocida como una noción negativa: ex-presa que no se conoce, o que no se
comprende un sistema, pese a un fondo de conocimiento global que nos hace reconocer y denominar ese
sistema. Un sistema que podemos especificar explícitamente, y cuya estructura detallada conocemos no es
realmente complejo, digamos que puede ser más o menos complicado.
La complejidad implica que se tenga, al mismo tiempo, una percepción global con la percepción de que
no se le domina en sus detalles. Por ello se la mide por la información que no se posee y que sería
necesaria para especificar el sistema en todos sus detalles.

3.1.2. Complejidad y complicación

Se ve, pues, que la complejidad debe distinguirse de la complicación. Esta sólo expresa, como máximo,
un gran número de etapas o de instrucciones para describir, especificar o construir un sistema a partir de
sus constituyentes. En este sentido, la complicación es un atributo de los sistemas artificiales, construidos
o, al menos, construibles por el hombre que conoce y comprende totalmente su estructura y su
funcionamiento. Es medible a partir de los diseños, planos y programas que especifican en sus detalles la
eventual cons-
23
Véase H. Man, 1972, op. cit.

81
trucción del sistema. Hoy, muy a menudo, la complicación es medida por el tiempo de cálculo de
ordenador necesario para realizar un programa: cuanto más largo es ese tiempo (trabajando con el
mismo ordenador) más complicado es el programa y, por tanto, el sis-tema que especifica.
Se sabe que existe un ordenador universal teórico, llamado máquina de Turing 24, capaz de realizar (con
un mínimo de hardware, pero un máximo de instrucciones de programa) lo que cualquier ordenador real
puede efectuar. Es posible, pues, del modo más general, medir la complicación de un sistema por el
número de etapas recorridas por una máquina de Turing y que sean necesarias para describirlo a partir de
sus constituyentes con la ayuda de un pro-grama de construcción. Ello implica, evidentemente, que tal
pro-grama pueda ser escrito, es decir, que se posea del sistema un total conocimiento operativo. En esta
circunstancia se puede verificar, para establecer la coherencia
de nuestras definiciones, que la función H (complejidad, información que no posee sobre el sistema)
podría ser reducida a 0, mientras la redundancia, que expresa las constricciones, fuera máxima e igual a
1. En efecto, en este caso, si se desea, el sistema podría ser descrito con la ayuda de un solo elemento
constitutivo, lo que como sabemos reduciría a 0 la cantidad de información. Este elemento único sería
su programa de construcción. En efecto, nada nos impediría considerar este pro-grama como un único
elemento constitutivo puesto que lo conocemos perfectamente, en sus detalles, y somos capaces de
construirlo, Este conocimiento, pues, se supone previo a la descripción, como cualquier otro
conocimiento previo de las estructuras moleculares que permite describir un sistema material a partir de
sus moléculas constitutivas. Alcanzamos así la diferencia de puntos de vista según se utilice la teoría de
la información para la construcción de sistemas artificiales o para la comprensión y manipulación de
sistemas naturales siempre imperfectamente conocidos.
Volveremos a ello.

3.1.3. Complejidad y desorden

Hacemos hincapié, de paso, en que la función H que mide la complejidad es una generalización de la
entropía de un sistema físi-
24
Véase H. Atlan, 1972, op. cit.

82

co en el que se considera una medida de su desorden molecular (véase más arriba, págs. 30 y 33). Esta
sería, pues, una manifestación de la complejidad. En efecto, el orden sólo aparece en una estructura si
,se la conoce, si se comprenden sus articulaciones, e] código que rige la disposición de los elementos.
Una complejidad ordenada no es, pues, más compleja. Sólo puede ser complicada. Pero, a la inversa, no
todo desorden es necesariamente una complejidad. Un desorden sólo aparece complejo con respecto a
un orden del que tenemos razones para creer que existe, y que se intenta descifrar. Dicho de otro modo,
la complejidad es un desorden aparente donde se tienen razones para suponer un orden oculto; o
también, la complejidad es un orden cuyo código no se conoce.
La relación entre complejidad y desorden 14 aparece claramente cuando se comprende que una
estructura estadísticamente homogénea que se quisiera reproducir tal cual —con estas moléculas y no
otras, si pudieran distinguirse— es la más compleja que existe. Decir, como en termodinámica «que un
sistema físico abandonado a sí mismo evoluciona hacia el mayor desorden, es decir, hacia la mayor
homogeneidad» (entropía máxima), quiere decir: «...evoluciona hacia la mayor complejidad si debiera
especificarse explícitamente.»
Dicho de otro modo, evoluciona hacia un estado donde carecemos totalmente de información. Y para
que esto no sea así, debemos mantenerlo por presiones exteriores en un estado de menor desorden, lo
que significa que no se le deja evolucionar solo, o más aún, que se le imponen desde el exterior ciertas
condiciones que la fuente externa (que las impone) evidentemente «conoce». Estas condiciones hacen
que el sistema —al que se denomina, entonces, abierto y lejos del equilibrio— pueda permanecer
ordenado, es de

14En un reciente libro sobre «Entropía, desorden y complejidad» (Thermodynamique et Biologie, París, Maloine-Doin,
1977), J. Tonnelat ha visto bien el carácter relativo y en parte arbitrario de las nociones de orden y desorden aplicadas a la
realidad física y por ello prefiere eliminarlas del lenguaje termodinámico; para él, la entropía no mide el desorden sino la
complejidad. Hemos llegado a un resultado semejante sin eliminar por ello la problemática del orden y del desorden, aunque
incluyendo en ella esa relatividad debida al papel del observador. Todo eso ha sida posible por la dialéctica de Brillouin (que
Tonnelat rechaza) entre información (que no se posee) y neguentropía-orden molecular (que
no puede ser observado directa-mente). Además, naturalmente, ese tener en cuenta el papel fundador de orden que tiene la
observación nos ha permitido distinguir la complicación (conocida y comprendida) de la complejidad (imperfectamente
conocida aunque observada y manipulada).

83
cir, transmitir una información a su entorno: esta información, en el pleno sentido de su significación,
es, precisamente, el conocimiento de las presiones externas o condiciones que le mantienen lejos del
desorden máximo. El sistema la «transmite» a su entorno sencillamente porque es ese entorno el que las
impone al sistema. Y de esta forma el sistema no hace más que devolver esta información a su entorno
(observador, manipulador) que no lo deja evolucionar por sí mismo.

3.1.4. Complejidad y redundancia

La existencia de ligaduras internas en el interior del sistema equivale a una redundancia. En efecto, a
causa de estas ligaduras el conocimiento de un elemento modifica el que podemos tener sobre otros
elementos. Si este conocimiento está limitado al de sus probabilidades de aparición como elementos
constitutivos del sistema, las ligaduras se miden por probabilidades condicionales (de encontrar un
elemento con la condición de que otro haya sido identificado primero). Estas probabilidades
condicionales sirven para medir la redundancia R que disminuye la función H según la relación H =
HmíK (1 — R) 26. Puesto que ésta es una medida de la complejidad y del «desorden», resulta que la
redundancia es una medida de la simplicidad y del «orden». Así el orden sería más bien repetitivo o
redundante. No es necesario que sea físicamente repetitivo, como en un cristal, en el sentido de un
elemento o motivo único repetido gran número de veces. Basta que sea redundante, es decir,
deductivamente repetitivo: el conocimiento de un elemento nos aporta cierta información sobre los
demás (disminuyendo la incertidumbre a su respecto) y es eso lo que nos hace percibir un orden.

3.1.5. Medidas de la complejidad

Así, la complejidad, tal como hemos intentado determinar sus características, puede medirse por la
función H. Pero ésta puede definirse de tres modos distintos que corresponden a tres clases de intuición
o de percepción de la complejidad de un sistema que sólo co-
26
Véase más arriba, págs. 53-54.

84
notemos imperfectamente a partir de sus elementos constitutivos.
Del modo más inmediato, el sentimiento de complejidad pro-viene primero del encuentro de gran
número de elementos constitutivos distintos. Su medida (que ni siquiera tiene todavía necesidad de ser
probabilista) es dada por la variedad en el sentido de Ashby. Es un caso particular de la función H
limitada al número N de elementos distintos (donde H = log N): el reparto de las frecuencias de los
distintos elementos no se toma en consideración, o, lo que es lo mismo y expresa nuestra ignorancia a
ese respecto, las frecuencias se suponen iguales entre sí.
Luego, podemos tener un conocimiento (imperfecto) de esta re-petición por el intermedio de su
distribución de frecuencias (que se supone idéntica a una distribución de probabilidades). Esta es
entonces utilizada para expresar la función H propiamente dicha por medio de la fórmula Shannon.
Desemboca en un valor más pequeño que en el caso precedente (que corresponde a un máximo de
H, realizado cuando las probabilidades son iguales). Es normal que sea así, porque la distribución de
las probabilidades constituye un aumento del conocimiento que reduce, pues, la complejidad.
Finalmente, el conocimiento de las ligaduras internas eventuales desemboca en una función H más
reducida todavía por la redundancia que mide estas ligaduras. Así, esos tres modos de escribir la
función H expresan tres clases de complejidad. La primera, trivial y máxima, es la variedad dada por H
= log N. La segunda expresa el desorden o la homogeneidad estadística; es dada por la fórmula de
Shannon H = — £ p log p. La tercera es una medida de la falta de conocimiento sobre las ligaduras
internas (o redundancia) del sistema; es dada por H = H max(1 — R).
La medida de la complejidad disminuye de la primera a la tercera a medida que conocimientos
suplementarios (aunque parciales e inciertos) se suponen adquiridos: la segunda es un máximo de la
tercera correspondiente a una redundancia nula: H = H max; la primera es un máximo de la segunda
correspondiente a una distribución supuesta equiprobable, que representa así un maximun maxi- morum
de ignorancia y de complejidad.

3.1.6. Complejidad y codificación


En este contexto queda por comprender de qué forma la función H —cantidad de información
contenida en un sistema—

85
representa de hecho una cantidad de información transmitida, en el sentido de Shannon y por un canal
del sistema al observador, cuando acabamos de recordar que se trata de una información que el
observador no posee, puesto que es la que necesitaría para especificar el sistema. Y es que se trata, una
vez más, de un sistema que no sabemos especificar totalmente, explícitamente, como es, por lo general,
el caso de los sistemas naturales.
La información recibida es, pues, una información cuyo código no se conoce: es una información
transmitida estrictamente en el sentido shannoniano de la transmisión por un canal en la que no nos
ocupamos de la codificación y descodificación de los mensajes a la entrada y a la salida de la vía 15. El
observador del sistema es la salida del canal con los mensajes recibidos sin que sea conocido el
código que permite comprenderlos. Por ello esta información sin código, que es transmitida por un
sistema, es una información que se poseería efectivamente si se conociera el código, pues entonces
podría utilizarse para especificar el sistema. Pero, de hecho, es siempre una información que no se
posee, un déficit de observación, que el sistema transmite, sin embargo, al observador en la medida en
que éste lo observa global y estadísticamente, a partir del conjunto de sus constituyentes y de su
distribución de probabilidades.
Esta observación imperfecta le permite, al menos, medir la in-formación que necesitaría para
especificar el sistema: medida que le es transmitida por la observación posible del sistema y que le
permite, al mismo tiempo, medir la complejidad de este sistema cuyo orden, el código, no conoce
porque no lo comprende.
3.2. Ruido organizativo: complejidad por el ruido y significaciones
3.2.1. Efectos «benéficos» del ruido
El principio de ruido organizacional o de complejidad por el ruido en este contexto quiere decir que el
ruido, al reducir las constricciones en un sistema, aumenta su complejidad. Eso está todavía,
evidentemente, ligado a la percepción del observador y al hecho de que el conocimiento que tenemos de
tales sistemas (naturales) y de sus. mecanismos de construcción es (todavía o siempre) imperfecto. Lo
que se nos aparece como perturbaciones aleatorias en relación a estos mecanismos es, sin embargo,
15En su introducción a la teoría de Shannon, Weaver había distinguido tres niveles en la formalización de la información
transmitida. Había mostrado bien en qué la teoría de Shannon está limitada al nivel A (transmisión fiel de señales por una
vía) con exclusión de los niveles B y C que implican las operaciones de codificación y descodificación en el emisor y el
destinatario, y tienen que ver con la significación y la eficacia de los mensajes, respectivamente. Sin embargo, esos niveles B
y C siguen estando ahí. La teoría de Shannon supone su existencia implícita aun-que no se ocupe de ellos. Por ello, Weaver
no desesperaba de que algún día el desarrollo de esta teoría permita dar cuenta de ello (W. Weaver y C. E. Shannon, 1949,
op. cit.).
86
recuperado por el sistema y utilizado de un modo o de otro (por lo general, además, imprevisible en sus
detalles) para construirse o reconstruirse de un modo nuevo. Esta nueva construcción escapa,
evidentemente y por definición, al detalle de nuestro conocimiento, puesto que es producida por per-
turbaciones aleatorias, es decir, por lo que, para nosotros es un azar 28. Por ello, esta nueva construcción
que ha utilizado ruido ha
28
No tiene aquí importancia que se trate de una azar «absoluto» o de un azar debido a nuestra ignorancia de las series
causales. El azar ha sido definido de múltiples modos. Nos atendremos a la definición clásica de Cournot como el «encuentro
de dos series causales independientes». (Una serie de causas y efectos me hace pasar en el instante t por un lugar x. Otra serie
de causas y efectos, independiente, hace caer una teja de una casa en el mismo instante y en el mismo lugar.) Esta definición es
la que nos hace considerar los efectos de perturbaciones «aleatorias», de origen externo o interno, sobre un sistema organizado
como efectos del azar. En efecto, estas perturbaciones se suponen —y perciben— sin relación coherente, predecible; con el
estado presente del sistema. Están incluidas en series causales independientes de aquellas por las que el sistema aparece
ordenado. Cuando se trata de sistemas complejos imperfectamente conocidos en todos sus detalles, ello implica que esta
percepción del azar puede muy bien ser el resultado de nuestra ignorancia de las compulsiones organizativas del sistema en
todos sus detalles. Eso supone calificar este azar de no absoluto, relativo en el estado de nuestro conocimiento de las series
causales. Según Laplace, un conocimiento exacto de las posiciones y velocidades de todas las moléculas del universo llevaría a
un determinismo absoluto del que estaría excluido cualquier azar. Sea. Pero tal conocimiento es imposible y nada puede ser-
nos conocido fuera de las posibilidades de nuestro conocimiento. Sólo podemos hablar del azar o de lo determinado a través de
tales posibilidades. La cuestión de saber si se trata de un verdadero azar o de un azar aparente nos parece, pues, sin
importancia; al igual que la referente a la posibilidad de algo nuevo verdaderamente nuevo. Si todo está determinado, ninguna
novedad es posible. ¿La novedad de un acontecimiento está vinculada a una ignorancia —irreductible— de los determinis-

87
desembocado en un aumento de complejidad, es decir, en un aumento de la información que nos falta.
Pero, puesto que el sistema continúa existiendo y funcionando, eso quiere decir que, para él, esta
complejidad sigue siendo funcional y le aporta, pues, un suplemento de información que utiliza
eventualmente para una mejor adaptación a las nuevas condiciones 29. Eso es lo que dice el principio de
complejidad por el ruido sobre el que hemos establecido la posibilidad de la auto-organización por
disminución de la redundancia.
Hemos subrayado ya el papel de una organización jerarquizada, en varios niveles de generalidad, en el
funcionamiento de este principio: si el sistema se nos presenta como más complejo a causa de los efectos
del ruido, es que lo observamos desde un nivel de organización más general que el de los canales de
comunicaciones perturbados por el ruido. Este nivel, más general, es el que recibe u «observa» los
efectos positivos del ruido en los canales que contiene.
De hecho, ya Weaver, en su introducción al trabajo de Shannon 30, había observado que los efectos del
ruido sobre las señales en un canal aumentan la cantidad de información a la salida de la vía porque ha
aumentado su incertidumbre. Eso le parecía un «efecto benéfico» paradójico del ruido, inaceptable en el
marco de una teoría de la comunicación cuyo objetivo es transmitir la información con un mínimo de
errores. Sin embargo, hemos visto cómo la situación es distinta cuando se está interesado no por la salida
de un canal, sino por el sistema que contiene este canal como parte constitutiva. Sabemos ahora, pues,
que esta primera intuición de Weaver era correcta y que puede ser el fundamento de la solución del
problema de la creación de información en el marco de la teoría de Shannon.
Pero vamos a ver ahora cómo permite, además, esclarecer un poco la unidad profunda entre los tres
niveles de la información de
mos? También eso, y por la misma razón, nos parece un falso problema (véase nota siguiente).
29
La novedad es evidentemente también apreciada con respecto a nosotros, observadores, al igual que el azar. ¿Se trata de
una novedad relativa a nuestra ignorancia de las series causales? Esta cuestión nos parece como máximo teológica: lo que
está implícito es un conocimiento divino a priori de todas las series causales (al estilo de Laplace o de Maimónides), del que
se sabe que oculta los problemas más que plantearlos.
30
W. Weaver y C. E. Shannon, 1949, op. cit.

88
Weaver, a partir de la estrecha definición limitada al nivel A (véase más arriba, nota pág. 84). Esta
unidad había sido, por otra parte, postulada por el propio Weaver, inmediatamente después de haber
distinguido cuidadosamente esos tres niveles.
Sin embargo, no es inútil volver a ver en detalle las diferencias señaladas más arriba entre nuestro
punto de vista y la formulación inicial de lo que Von Foerster había llamado el principio de orden por
el ruido.

3.2.2. Los imanes de Von Foerster: complejidad (más que orden) por el ruido

En efecto, este autor en un mismo artículo proponía por una parte un modelo particularmente
sugestivo, pero cualitativo: el de los cubos imantados agitados al azar y disponiéndose en formas de
complejidad (para él «orden») creciente (figs. 2 y 3) y, por otra parte, una formulación cuantitativa
restringida al caso simplificado en que las formas producidas se limitaran a parejas de dos cubos
unidos. Esta segunda formulación es la que dejaba aparecer un aumento de redundancia. En realidad,
estas dos situaciones son muy distintas y una no es sólo una simplificación de la otra. Sólo la segunda,
limitada al caso de parejas de cubos, merece el nombre de orden (repetitivo) por el ruido. La primera,
que nos había inducido a adoptar con entusiasmo la terminología propuesta por el autor, consiste de
hecho en una información (complejidad) por el ruido, y nadie ha dado de ella un análisis cuantitativo.
En efecto, en el caso de las parejas de imanes, se sabe al comienzo que los cubos se emparejarán y el
cálculo se efectúa sobre la base de este conocimiento. Ahora bien, eso es lo mismo que saber que los
cubos están imanta-dos e incluso conocer su tipo de imantación. Dicho de otro modo, se supone que
conocemos, en detalle, el mecanismo de construcción de las formas. Pero todo el razonamiento se
basa en la hipótesis de que no se conoce este mecanismo y que vemos producirse formas —
imprevisibles para nosotros en sus detalles— que nos parecen más complejas que el amasijo informe
de cubos del que habíamos partido.
Si se supone conocido el mecanismo, es muy evidente que la complejidad disminuye, como en el caso
abordado más arriba de un organismo determinado por su genoma. Lo que en ese caso aumen
89

ta es el orden repetitivo, como también en el caso de la formación de un cristal. El ruido sólo sirve
entonces para permitir a las constricciones potencialmente contenidas en las fuerzas de atracción re-

90
alizarse efectivamente, de modo que el sistema construido corresponde al conocimiento a priori que
tenemos de sus mecanismos de construcción. Por el contrario, todo el interés de la imagen de los cubos
de Von Foerster reside en la hipótesis de que no se conoce su imantación. Por ello constituyen un
modelo de sistemas que (nos) perecen auto-organizadores, aun cuando dejan entender que en lo
absoluto (es decir, si lo conocemos todo sobre estos sistemas) 31, no pueden existir sistemas auto-
organizadores. Con esta hipótesis, una forma, en la medida en que se nos aparece como más compleja
que el amasijo de partida, nos plantea un déficit de información mayor, es decir, una función H mayor,
como hemos propuesto. ¿Pero por qué una forma nos parece más compleja que un amasijo informe
(además de la percepción intuitiva que tenemos), de modo que des-cubrimos en ella un aumento de H?
El amasijo implica que los pedazos que fragmentan el espacio que ocupan son intercambiables en lo que
se refiere a su probabilidad de ser ocupados o no por cubos, sin que ello modifique la forma global. Esto
quiere decir que el número de elementos distintos que sería necesario especificar para reconstruir un
montón estadísticamente idéntico es muy reducido. Por el contrario, una forma geométrica dada implica
que cada cubo ocupa un lugar bien determinado, lo que quiere decir que algunos fragmentos del espacio
no son intercambiables en lo que se refiere a su probabilidad de estar ocupados o vacíos de cubos. Ello,
lógicamente, supone que la forma se perciba como un miembro de un conjunto de formas homogéneo
desde el punto de
vista estadístico y sobre el que tales probabilidades pueden apreciarse, sin que pueda conocerse,
detalladamente, el mecanismo de su construcción. Por ello, en la práctica, el cálculo sobre el modelo de
Von Foerster no ha sido realizado. Von Foerster sólo pudo calcular un ejemplo en el que la forma fue
reducida a parejas separadas de cubos. Pero esto invierte completamente la problemática en la medida
que se supone conocido el detalle del mecanismo de construcción de la forma.

3.2.3. Significación de la información en un sistema jerarquizado

En un sistema jerarquizado en distintos niveles de generalidad, el principio de complejidad por el ruido


expresa que un aumento de
31
Véase nota 28, pág. 86.91

91
información (complejidad) es percibido en el paso de un nivel inferior (más elemental) a un nivel más
general, más global. Ahora bien, hemos visto también que, normalmente, este paso es acompañado por
una reducción de la complejidad puesto que entonces se toma en cuenta una información implícita que
se considera poseída sobre la construcción del nivel más global a partir del nivel elemental (por
ejemplo, de las moléculas a partir de los átomos). De ello se desprende que si lo que percibimos como
ruido (en relación a este conocimiento previo) no destruye la organización, sino que, por el contrario, la
permite desarrollarse hacia un nuevo estado más i) complejo, ello significa que, de hecho; el
conocimiento implícito que pensábamos poseer es imperfecto. Asimismo el conocimiento que tenemos
del paso de un nivel a otro comporta también un déficit de información que aparece bajo la forma de
una complejidad (para nosotros) producida en el nivel global por ruido (para nosotros) en el nivel
elemental. Ello quiere decir también, como antes, que este aumento de complejidad, por lo que
concierne al propio sistema al tratarse de una complejidad funcional, le aporta, del nivel elemental al
nivel más global, un suplemento de información. Esta información, que, evidentemente, no es
inaccesible (es la que no poseemos, la complejidad), sería en cierto modo la que el sistema posee sobre
sí mismo, sobre sus niveles elementales y su disposición en el nivel más general. Ella es la que aumenta
bajo el efecto de perturbaciones que, para nosotros, se muestran y seguirán siempre mostrándose
aleatorias.
Podemos comprender ahora que esta información que el sistema poseería sobre sí mismo y que le
permite funcionar y existir evolucionando, es de hecho la significación de la información transmitida
por los canales de comunicación que lo constituyen.
En efecto, puede definirse, del modo operativo más simple y más general, la significación de la
información como el efecto de la recepción de esta información sobre su destinatario. Este efecto puede
aparecer o bien en forma de un cambio de estado, o bien en la de un output de ese mismo destinatario
contemplado como un sub-sistema. De este modo, la significación de la información genética es, en el
nivel más simple del sistema de síntesis de las proteínas, el efecto de la recepción de los codones-señal
sobre la estructura de las proteínas enzimáticas y, por ello, sobre su estado funcional en el interior del
metabolismo celular. Del mismo modo, la significación de la información que llega a nuestro sistema
cognitivo —lo

92
que llamamos el contenido semántico de los mensajes y discursos— puede ser percibida como un
caso particular de significación de la información según la definición general que proponemos: se
trataría del efecto de la recepción de la información sobre el estado o las producciones ( outputs) de
nuestro sistema cognitivo.
La información que un sistema tendría sobre sí mismo, que como hemos visto puede aumentar bajo el
efecto de lo que se nos presenta como ruido (y que se mide entonces por una información que nos falta),
es lo que permite al sistema funcionar e, incluso, existir como sistema. Se trata, pues, del conjunto de
los efectos, estructurales y funcionales, de la recepción de la información transmitida en el sistema,
sobre los distintos sub-sistemas y distintos niveles de organización del mismo. Se trata efectivamente de
la significación de esta información para el sistema.
Es precisamente porque la información es medida (por nosotros) por una fórmula de la que está
ausente el sentido, por lo que su contrario, el ruido, puede ser creador de información. Ello nos
permite expresarlo siempre por la misma función H incluso cuando su significación es diferente pues es
recibida en dos niveles distintos de organización. La información tiene un sentido en un nivel elemental,
que desdeñamos cuando la medimos por las fórmulas de Shannon, pero que se traduce por sus efectos
sobre su destinatario, a saber, la estructura y las funciones de este nivel, tal como las percibimos. En
cambio, los efectos de esta misma información sobre un nivel más general, más global, en la
organización del sistema deben ser distintos de lo que podemos extrapolar teniendo en cuenta lo que
conocemos. (De lo contrario, lo que nos aparece como ruido con efectos positivos —el «ruido
organizacional»— no nos aparecería como ruido, sino como señales.) Resulta, por ello, que el sentido
de esta información que nos falta, y que el sistema tendría sobre sí mismo, es distinto según el nivel en
el que es recibida en el sistema. El sentido de la información transmitida por los canales de
comunicación intra-celulares no es el mismo para la célula que para el órgano, el aparato o el organismo
de los que esta célula forma parte. Pero como, en todos los casos, la medida de la información que
utilizamos ignora estos sentidos, es posible y no contradictorio que lo que aparece como destrucción de
información en un nivel elemental sea visto como una creación de información en un nivel global.
Destrucción y creación —por el ruido— sólo conciernen, en efecto, a una información que no tenemos,
cuyos códigos y signifi-
93
caciones no conocemos, al igual que el ruido —destructor y creador— es lo que nosotros
percibimos como aleatorio.
De este modo, el principio de complejidad por el ruido, es decir, la idea de un ruido con efectos
positivos, es el modo indirecto que tenemos de introducir los efectos del sentido, la significación, en
una teoría cuantitativa de la organización.
Naturalmente, el sentido está ahí sólo de modo negativo, como su sombra, porque sólo es teorizado a
través de los efectos del ruido, es decir, de una negación de la información. Pero, de todos modos, está
ahí porque se trata de la negación de una negación puesto que todo ocurre como si la información
shannoniana negara el sentido, que no es más que otro modo de decir que mide lo que no
comprendemos del sistema.
Es ahí donde podemos encontrar, al parecer, una respuesta a la objeción que Piaget había opuesto a
nuestro principio del ruido organizacional. En su libro Adaptation vitale etPsichologie de l'inte-
lligence 32, Piaget subrayaba con razón que los factores de ruido no pueden ser, verdaderamente, ruido
para el sistema pues están forzosamente integrados en su organización dinámica en la medida en que
contribuyen a ella. Por nuestra parte, hemos visto que el principio de complejidad por el ruido
corresponde a lo que se percibe por el observador con respecto a la información eficaz transmitida de
un nivel jerárquico a otro en el interior del sistema. Esta información eficaz es portadora de sentido
porque vehicula, en el interior del sistema, su significación en la forma de los efectos que produce en él.
Es, pues, muy distinta de la negativa y sin significación, que recibe el observador del sistema, cuya
complejidad mide. Como muy bien recuerda J.-P. Dupuy 33, el uso de las funciones H y R «sólo está
justificado porque es imposible el conocimiento total del sistema. Si fuera posible, para nosotros no
existiría ruido alguno y a fortiori, ningún efecto complejificador del
ruido: los acontecimientos singulares se ajustarían al conjunto como una pieza de un juego de Meccano,
según reglas inmutables. De hecho, nuestro no conocimiento del modo de construcción del sistema no es
total (de ahí H), ni nulo (de ahí R). Y la disminución de R debido a lo que se nos aparece como ruido es el
signo de que algo nuevo ha aparecido
32
Jean Piaget, Adaptation vitale et Psychologie de l'intelligence, París, Hermann, 1974.
33
Jean-Pierre Dupuy, «Autonomía del hombre y estabilidad de la sociedad», Economie appliquée, núm. 1, 1977.
94
en las reglas de construcción, algo nuevo con respecto al orden antiguo. El detalle de las condiciones de
emergencia de estas nuevas reglas se nos escapa siempre: un acontecimiento singular ha venido a
perturbar la comunicación en un canal del sistema y ha surgido un sentido; este nuevo sentido, mezclado
con muchos otros en los de-más canales, ha sido comunicado al nivel más global; de esta forma las reglas
de disposición de los elementos del nivel inferior que conforman el nivel más global se han visto
modificadas haciendo aparecer un nuevo sentido en este nivel, y por último esto ha repercutido en el nivel
inferior. Pero todos estos nuevos sentidos constituyen significaciones para el sistema, no para nosotros,
que no los conocemos».
Tras haber analizado los límites de nuestra lógica habitual («conjuntista e identitaria»), C. Castoriadis 34
reclama una nueva lógica a la que llama «lógica de los magmas». Se trataría de «forjar un lenguaje y unas
"nociones" a la medida de estos objetos que son las partículas "elementales" y en el campo cósmico, la
auto-organización de lo vivo, lo inconsciente o lo social histórico: una lógica capaz de tomar en cuenta lo
que no es, en sí mismo, ni caos desordenado... ni sistema... "cosas" bien determinadas y bien colocadas
unas junto a otras 35...». Esta nueva lógica mantendría con nuestra lógica habitual, conjuntista e identitaria,
«una relación de circularidad» tal que debería de todos modos incorporar su lenguaje. Evidentemente, es
ahí, en esta articulación de dos lógicas, donde reside la principal dificultad. Una vía de aproximación
consistiría, tal vez, en tomar en cuenta el hecho de que nuestro discurso se aplica, a la vez, a lo que
conocemos y a lo que ignoramos, sabiendo que lo ignoramos. Nuestro análisis de las transferencias de
significaciones en sistemas jerarquizados y de sus relaciones con el principio del ruido organizacional nos
parece que procede en cierto sentido de tal lógica. En especial, la teoría de los autómatas y de los sistemas
auto-organizadores choca con la difícil noción de «clausura informacional» 36: la auto-organización o
«autopoiesis» implica que las reglas de organización sean interiores al sistema, figurando así
informativamente
34
C. Castoriadis, L 'Institution imaginaire de la société, op. cit.
35
C. Castoriadis, Les Carrefours du labyrinthe, op. cit., pág. 210.
36
F. Varela, Principles of biological autonomy, Nueva York, Elsevier-North, Holland, 1979; H. Maturana y F. Varela,
«Autopoietic Systems: A characterization of the living organization», Biological Computer Lab. Report, 9.4, 1975, University of
Illinois, Urbana.

95
cerrado (...¡incluso cuando está termodinámicamente abierto!). Eso es lo que con fuerza expresa C.
Castoriadis:
«Lo que, en primer lugar, caracteriza lógica, fenomenológica y realmente a un autómata —y a lo vivo en
general— es que éste establece en el mundo físico un sistema de partituras que sólo vale para él (y, en una
serie de encajes decrecientes, para sus "semejan-tes") y que, siendo sólo uno entre la infinidad de tales
sistemas posibles, es totalmente arbitrario desde el punto de vista metafísico. El rigor de los razonamientos
contenidos en los Principia mathematica no interesa a las polillas de la
Biblioteca nacional. La iluminación ambiental no es pertinente para el funcionamiento de un ordenador.
[...] Evidentemente, sólo este sistema de partituras [...] permite definir en cada caso lo que, para el
autómata, es información
y lo que es ruido o nada en absoluto; es también lo que permite definir en el interior de lo que es
información en general para el autómata, la información pertinente, el peso de una información, su valor,
su "significación" operativa y, finalmente, su significación a secas. Estas distintas dimensiones de la
información [...] muestran por fin que en el sentido que interesa el autómata no puede ser pensado nunca
más que desde el interior, desde lo que constituye su marco de existencia y de sentido, desde lo que es su
propio a priori, en resumen, que estar vivo es ser para sí, como algunos filósofos habían afirmado hace
ya mucho tiempo 37.»
Y, sin embargo, los sistemas vivos son, de todos modos, pensados desde el exterior. ¿Dónde se
encuentra, pues, la articulación entre esta lógica en la que no «pueden» ser pensados desde el exterior y
la de los biólogos, de los físico-químicos, que de hecho los piensan desde el exterior? Parece que el
principio del ruido organizacional nos permite aportar algún elemento de respuesta, en la medida en que
se trata de un punto de vista explícitamente exterior sobre un sistema del que se sabe que está cerrado
sobre sí mismo en lo que concierne a su sentido y su finalidad, pero, sin embargo, este punto de vista
tiene en cuenta dicho conocimiento, y lo tiene en cuenta al establecer la articulación entre las dos lógicas
en el nivel del sentido supuesto, pero ignorado, y que por el contrario desde el punto de vista de la lógica
identitaria se percibe como un sin sentido, como mero azar. Como veremos algo más adelante, una de las
consecuencias de esta articulación concierne a la percepción que po-
37
C. Castoriadis, Les Carrefours du labyrinthe, op. cit., pág. 181.

96
demos tener de nosotros mismos —individuo o grupo social— como producto del azar.

4. Sistemas humanos

4.1. La crisis y la organización

Hemos visto cómo el principio de información (complejidad) por el ruido puede ser útil para la
comprensión de la lógica de la organización, de la auto-organización y de la integración de lo nuevo;
dicho de otro modo, constituye un principio de organización, digamos normal, para todo sistema natural
dotado de facultades de auto-organización y de adaptación por aprendizaje no dirigido. Sin embargo, la
tentación de interpretar las crisis como efectos del ruido sobre la organización, y el eventual efecto
positivo de las crisis como un caso particular de aplicación de este principio parece conducir por una
pista falsa. Los efectos del ruido son permanentes, positivos y negativos, y forman parte de la
organización del sistema, incluso en ausencia de toda crisis.
En realidad, lo que pensamos es que una crisis corresponde, por el contrario, a un funcionamiento
invertido del principio de complejidad por el ruido, a una producción de ruido por la información.
Todo ocurre entonces como si los distintos niveles de organización no se comprendiesen entre sí en
el interior del mismo sistema, y lo que es información en un nivel es percibido como ruido en otro
nivel. Se comprende así que no se trata sencillamente de destrucción de información por el ruido,
como en todo canal ocurre, sino que se trata, en efecto, de la creación de ruido (por el sistema) a
partir de la información (para un observador a quien se impone entonces la noción de crisis).
Cuanto más información transmite el nivel elemental, más ruido percibe el nivel general, y viceversa. ]
Para el observador, la cantidad de información del sistema, o dicho de otro modo su complejidad,
disminuye en la misma medida en que hay crisis. Eventualmente, esta disminución de complejidad puede
ser recuperada aumentando la redundancia, lo que podría ser un modo de recuperar la crisis y de poner en
marcha de nuevo el sistema a partir de un nivel de redundancia más elevado, lo que ya se ha visto que
constituye un potencial de auto-organización más importante (véase pág. 53). La redundancia implica, en
efecto, una
97
multitud de significaciones posibles cuyas diferencias son borradas desde el punto de vista de una teoría
que no tiene en cuenta la significación. La crisis (recuperada o evitada) desempeñaría entonces el papel de
una nueva carga de redundancia o potencial de auto-organización, después que ésta se hubiese
inicialmente agotado. Hemos propuesto en otra parte una interpretación en estos términos del papel del
sueño y la ensoñación en el funcionamiento de nuestro aparato cognitivo (véase capítulo «Conciencia y
deseos en los sistemas auto-organizadores», pág. 141).
Sea como sea, el estado de crisis (paroxístico o prolongado) estaría caracterizado por una separación
semántica entre los distintos niveles de organización: no sólo las significaciones de la información no son
las mismas en los distintos niveles, sino que ya no hay posibilidades de codificación-descodificación de
una significación en la otra. Ciertamente, el estado normal, que implica como hemos visto significaciones
diferentes, implica, evidentemente, códigos distintos según el nivel. Pero estos códigos deben tener
forzosamente posibilidades de comunicación para que el sistema exista y funcione: el código individual
debe poder ser reducido al código del grupo y viceversa. Ciertamente, el principio de información por el
ruido se basa en- la ignorancia parcial en la que nos hallamos de estos códigos y, sobre todo, de su
comunicación. Pero la propia existencia del sistema y su desarrollo expresan que las transmisiones de
información de un nivel a otro están acompañadas por el paso del sentido. Como hemos visto, el utilizar
un formalismo del que está ausente el sentido es para soslayar nuestra ignorancia que expresamos este
paso, esta comprensión que el sistema tiene en sí mismo, en forma de ruido informacional. Si este paso del
sentido es interrumpido en la crisis, lo expresamos, pues, en este mismo formalismo por una inversión del
principio del ruido informacional: el ruido por la in-formación. Por ejemplo, en la organización social en
crisis, el código del individuo sería incomprensible e intraducible para el código social y viceversa. La
variedad, la ausencia de constricciones observadas en el nivel global serían fuentes de ruido para el propio
sistema en el nivel de los individuos. De esta forma, las diferencias entre individuos, en lugar de constituir
una capacidad de adaptación y regulación para el sistema, sólo podrían ser perturbaciones, o dicho de otro
modo, ruidos en las comunicaciones entre los individuos que constituyen el sistema. Para el observador,
todo ocurriría como si la información (complejidad) contenida en el sistema se trans-

98

formara en ruido impidiendo las comunicaciones en el sistema contribuyendo de este modo a destruirlo 38.

4.2. Los sistemas humanos


La crisis puede describirse, pues, en el formalismo del principio de complejidad por el ruido, y de la teoría
de la organización que de él se desprende, como un funcionamiento invertido de este principio. Las causas
se sitúan en el nivel de la transmisión del significa do de la información (siempre ignorado, al menos
parcialmente por el observador), de un nivel al otro de la organización. Pero es ya tiempo de recordar
algunas evidencias referentes los distintos tipos de sistemas con los que tratamos y las condiciones de
validez de este formalismo.
Una primera distinción, clásica, debe establecerse entre los sis. temas artificiales —cuya estructura y
funciones comprendemos porque las hemos fabricado— y los sistemas naturales que observamos, y de
los que sólo tenemos una comprensión imperfecta, sobre todo cuando se trata de sistemas organizados
jerárquicamente en varios niveles de integración. Ahí, además de las dificultades inherentes a la
«apertura» de las «cajas negras» de cada nivel de organización, todo ocurre como si en una especie de
movimiento pendular de comprensión y de ignorancia sólo pudiéramos representarnos el detalle de la
organización en un nivel olvidando los: pasos de un nivel a otro y, a la inversa, sólo pudiéramos
represen.
38
Esta observación debe compararse con una conjetura de H. Von Foerster: (Interpersonal relational networks, CIDOC,
cuaderno núm. 1014, Cuernavaca, México) retornada por J.-P. Dupuy y J. Robert (La Trahison de l'opulence, PUF,
1976 sobre las consecuencias de una representación de Ios individuos por máquinas triviales, es decir, máquinas con
comportamiento perfectamente previsible, tales que un estímulo x sólo puede corresponder una respuesta y. El
comportamiento de los individuos puede entonces ser perfectamente predicho por un observador exterior Sin embargo, los
individuos no se reconocen en la imagen que reciben de la sociedad. Al contrario, si son máquinas no triviales, su parte de
indeterminación le permitirá «adaptarse» al comportamiento del conjunto y reconocerse, mientras que éste se habrá hecho
impredecible para un observador exterior.
Cuando el sentido no pasa y el individuo no se reconoce en la imagen de s mismo que le devuelve la sociedad, hemos llegado
a la conclusión de que la complejidad de la sociedad es destruida. Un recurso consiste entonces en trivializar a lo individuos,
de modo que la estructura social pueda parecer controlable y predecible al menos para algunos que desempeñan el papel de
observadores-actores más menos exteriores.

99
tarnos la organización global olvidando tales detalles. Sea como sea, todo lo que hemos dicho
concierne evidentemente a los sistemas naturales y sólo puede aplicarse a los sistemas artificiales si se
olvida, por exigencia del «guión» que nosotros los hemos fabricado, que sus programas de construcción
y de funcionamiento han salido de cerebros humanos y, por tanto, que su significación operativa es
perfectamente conocida. (En efecto, en ciertos casos como los que se encuentran en ciertas técnicas de
comunicaciones puede ser favorable desdeñar este aspecto y limitarse a una descripción global,
probabilista, que actúa como si no se conociera el sentido de los mensajes transmitidos y recibidos.)
Pero por lo que se refiere a los sistemas naturales no tenemos elección y por ello las aproximaciones de
la termodinámica estadística y de la teoría probabilista de la información son inevitables. Es importante
entonces extraer las consecuencias de la posición exterior del observador, como hemos in tentado
hacer.
Pero hay otra distinción, muy importante de hacer aquí, entre sistemas naturales observados y sistemas
naturales humanos en los que el observador es, al mismo tiempo, parte o totalidad del sistema. Hemos
visto que nuestro punto de vista supone que no conocemos la información que el sistema tiene sobre sí
mismo, con sus distintas significaciones posibles. Es decir, que trasladado a los sis-temas humanos,
sociales en particular, implica un punto de vista especial en el que actuamos como si no conociéramos
el sentido para nosotros de lo que nosotros mismos vivimos, bien como individuos organizados o bien
como elementos del sistema social. Este punto de vista no es más que el postulado o prejuicio de
objetividad, consecuencia de la extensión del método científico a los fenómenos de nuestra vida. Se
advierte así cómo ese prejuicio desdeña una parte importante, tal vez esencial, de la información de que
podemos disponer. Aquí sólo queremos apuntar los límites de este método trasladado al análisis de los
fenómenos humanos: con este método voluntariamente, e incluso cuando tenemos elección y podemos
actuar de otro modo, desdeñamos lo subjetivo para considerar tales fenómenos humanos sólo desde el
punto de vista de un observador exterior, que no tuviera ninguna información del tipo de la que el
sistema posee sobre sí mismo. Como si el observador no se confundiera con la totalidad del sistema,
cuando se trata del Individuo, o con uno de sus componentes cuando se trata del sistema social.
100
Como ejemplo de tales tentativas podemos mencionar breve-mente las aplicaciones de las ideas citadas
más arriba a la organización psíquica. Nuestra teoría de la auto-organización ha servido primero para
analizar los papeles respectivos de la memoria y de Ios procesos de auto-organización en la constitución
de la psique por aprendizaje, y más generalmente para lo que Piaget llama «asimilación» en el sentido
biológico o psicológico. Podrían ex-traerse algunas conclusiones interesantes sobre la naturaleza del
tiempo biológico o psicológico (véase más adelante el capítulo «Sobre el tiempo y la irreversibilidad»).
En su forma más general, el principio de complejidad por el ruido ha podido proporcionar una
comprensión «cibernética» de la idea freudiana aparentemente paradójica de pulsión de muerte 39
(Canguilhem). Asimismo, en sus aplicaciones al problema de la significación en una organización
jerárquica, este principio ha podido sugerir un mecanismo por el que lo que aparece como sin sentido y
ruido para el observador del nivel consciente son de hecho mensajes llenos de sentido a partir del nivel
inconsciente (Serres) 40. Sin embargo, nuestra observación sobre los límites de estas tentativas encuentra
su lugar en este punto de la aproximación psicoanalítica: en efecto, el observador (de ambos niveles) es
de hecho el resultado de una interacción del psicoanalista y del propio paciente. Este es precisamente
llamado el sujeto (Lacan) 41 pues está en la posición gramatical del que habla, es decir, del que envía
mensajes de su sistema psíquico entero mientras está aparentemente sometido a la observación objetiva
del psicoanalista. Por ello el psicoanálisis ha visto cómo se le atribuía un estatuto por completo especial
en lo que a su cientificidad se refiere. ¡Mientras pretendía siempre diferenciarse de la magia y de la
religión por su carácter científico, se diferenciaba también de la ciencia por el estatuto particular de su
objeto que resulta ser el del sujeto! M. Foucault 42 lo llamaba por esta razón una anticiencia (como la
etnología). J. Lacan, por su par-
39
G. Canguilhen, articulo sobre «Vida», París, Encyclopaedia Universalis, 1975.
40
M. Serres, «El punto de vista de la biofísica», en La Psychanalyse vue du dehors, Critique, 1976, 265-277, y Hermes IV, La
Distribution, París, Editions de Minuit, 1978.
41
J. Lacan, Ecrits, París, Editions du Seuil, 1966. Hay trad. esp. Suplemento de escritos, trad. Acevedo, Hugo, Argot, 1984.
42
M. Foucault, Les Mots et les Chores, París, Gallimard, 1966. Hay trad. esp. Las palabras y las cosas,
Planeta/Agostini, 1985.

101

te, intentaba resolver la dificultad atribuyendo un estatuto primordial a reglas lingüísticas en la creación
de la organización psíquica. Su primer ejemplo que muestra cómo tales reglas pueden ser la base de una
realidad simbólica «auto-engendrada» nos parece, aposteriori, otra aplicación del principio de
complejidad por el ruido: una serie aleatoria de + y de — puede dar origen a un conjunto de símbolos
que obedecen reglas muy precisas cuando se la observa a un nivel de integración distinto en donde las
unidades están hechas de grupos de signos (Séminaire sur la lettre volee).
Como bien ha mostrado C. Castoriadis 43 el estatuto particular del psicoanálisis proviene probablemente
de que comparte con las religiones y las ideologías el carácter de «propósito de transformación» más
que de «propósito de saber»; al mismo tiempo que se diferencia de ellas por un intento de utilización de
—y de enraizamiento en— el método científico... Desde este punto de vista, no escapa a la dificultad
inherente del análisis científico de todo sistema jerarquizado que hemos señalado ya: el paso de lo local
a lo global. Esta misma dificultad 44 se encuentra en la
imposibilidad para la teoría psicoanalítica de dar cuenta del contenido de la sublimación y, más
generalmente, del contenido del principio de realidad. La realidad se plantea como presencia de lo social
«alrededor» del individuo, al igual que el nivel global se plantea como condiciones a los límites que
determinan lo local. Es un «dato definido en otra parte». «El psicoanálisis no puede dar cuenta de la
prohibición del incesto, debe presuponerlo como socialmente instituido... Muestra cómo el individuo
puede acceder a la sublimación de la pulsión pero no cómo puede aparecer esta condición esencial de la
sublimación, el objeto de conversión de la pulsión: en los casos esenciales este objeto sólo aparece como
objeto social instituido» 45. De este modo, Castoriadis, autor de estas líneas, puede retomar ventajosamente
por su cuenta el reconocimiento por Freud de las insuficiencias de la teoría psicoanalítica en lo que se
refiere a la sublimación.
Sin embargo, el psicoanálisis comparte el estatuto particular de su objeto con toda disciplina o método que
se desee más o menos científico aplicándose a un sistema humano. En efecto, pese a todas
43
C. Castoriadis, L'Institution imaginaire de la société, op. cit., pág. 371, y Les Carrefours du labyrinthe, op. cit., pág. 29.
44
Véase más arriba, pág. 73, nota 10.
45
Les Carrefours du labyrinthe; op. cit., págs. 60-61.

102
las tentativas de división del individuo en un cuerpo objeto de la biología, un psiquismo objeto de la
psicología —experimental, analítica, comportamental u otra—, una glotis, un cerebro y una lengua objetos
de una lingüística, una envoltura que le define como ele-mento de una sociedad objeto de ciencias
sociales, económicas y etnológicas según el campo de comportamiento considerado, no por ello el objeto
deja de ser también el sujeto.
Dicho de otro modo, en los sistemas humanos, el observador no es sólo un elemento del sistema
(eventualmente extendido al sistema entero), sino que es también un metasistema que lo contiene, en la
medida en que lo observa. En los sistemas sociales, las relaciones entre el nivel elemental y el nivel global
se han, por tanto, invertido: el contenido es al mismo tiempo el continente. El individuo está contenido en
el sistema desde el punto de vista de una observación «objetiva», es decir, si se olvida que es el
observador. De hecho, su situación de observador hace que el código individual sea al mismo tiempo más
general que el código social, en la medida en que la observación engloba lo observado. Esto es una fuente
de dificultades y, al mismo tiempo, de riqueza organizativa suplementaria propia de los sistemas sociales:
los individuos que constituyen el sistema disponen de significaciones que se sitúan a la vez en el nivel
elemental (de los constituyentes del sistema) y en el nivel más general posible de un metasistema que
engloba la sociedad (¡e incluso el universo!) que es el del observador.

4.3. La prevención de la crisis

Hemos visto que las crisis de organización, las «crisis» de los sistemas sociales o psíquicos, pueden
considerarse como resultantes de una interrupción del paso del sentido de un nivel al otro, división
psicótica en un sistema cognitivo. Así, en un sistema social, se trataría de que el código individual no
podría ser ya descodificado en el nivel de la colectividad y viceversa. Desde este punto de vista puede ser
imaginado un mecanismo interesante por el que se puede evitar la llegada de una crisis que destruya el
sistema sin que se trate, por eso, de una verdadera solución, es decir, sin que se restablezca la transmisión
del sentido entre los códigos individual y colectivo que seguirían siendo distintos. Este mecanismo
preventivo tendría, entonces, por efecto el mantenimiento de un estado de cri-

103
sis latente y prolongada a costa de una modificación crónica de la organización social. Situación de la
que las sociedades desarrolladas nos dan, tal vez, dos tipos de ejemplos extremos.
La crisis puede evitarse gracias a la transferencia de un sentido proveniente del código individual sobre
los objetos de la realidad social, sin que por ello ese sentido corresponda al de la organización social.
De hecho, dicho sentido niega la organización y la pone en peligro, en la medida en que proviene de
significaciones interiores propias del deseo de los individuos. En una terminología freudiana, todo
ocurre como si el principio de placer (deseo individual) fuera proyectado sobre los objetos de la
realidad social, como si no se opusiera al principio de realidad que impone, entre otros, la organización
de la sociedad. Tal transferencia está en el fondo de la ilusión de una llamada sociedad de consumo —
en la que todos quieren convencerse de que la organización social no valora más que la satisfacción del
deseo individual—. Esta situación de contenido y continente, de observador y observado al mismo
tiempo, permite la proyección por la que el individuo intenta dominar una organización social que ya
no comprende: dicha proyección institucionaliza su propio deseo pero sólo hasta cierto punto ya que la
organización social real se mantiene y resiste, aunque sólo sea debido a las oposiciones y
contradicciones entre deseos individuales.
Pero la crisis puede evitarse también por un mecanismo simétrico en el que un código social se
proyecte sobre el código individual. De hecho, el sentido no siempre se transmite pues el código social
no hace sino imponerse a los individuos envolviéndoles en un sistema totalitario que niega y destruye
los códigos individuales. Y también esto es sólo posible hasta cierto punto por la situación de
contenido-continente que permite al código social verse más o me-nos interiorizado en forma de
ideología, de la que los individuos acaban por estar «convencidos», de grado o por fuerza.
En ambos casos, la supresión de un código por el otro permite evitar la crisis en su forma aguda y
mantener el sistema en un estado de crisis prolongada. Hemos visto más arriba que ese estado implica,
desde el punto de vista aquí desarrollado, una disminución de la complejidad a la que puede
corresponder, eventualmente, un aumento de la redundancia. Es interesante comprobar que, en ambos
casos extremos y simétricos, que hemos contemplado, sociedades llamadas de consumo y sociedades
totalitarias, se observa un aumento de redundancia en forma de una tendencia a la uniformi-

104
zación de los individuos en lo que se llama ahora las masas. Tendencia que por lo común es atribuida a
la aplastante influencia de los mass-media como medios de «comunicaciones» sociales. ¿Pero tal vez el
desarrollo de estos medios, a expensas de otros modos de comunicaciones —más significados
interiormente— era necesario para evitar el estallido de estas sociedades en crisis?

4.4. Los «yo» del azar

Al mismo tiempo, la observación «lúcida» de este sistema nos conduce a la idea paradójica según la
cual nosotros mismos, como individuos o como grupo social dado, somos producto del azar al menos
en una parte. Ya se trate del encuentro aleatorio del espermatozoide y el óvulo del que salimos, o se
trate de la forma particular que ha tomado el grupo social al que pertenecemos con sus particularidades
y sus diferencias, frutos de acontecimientos históricos de ruido (y de furor) en los
que la cuota de azar es por lo menos tan grande como la de «leyes» históricas o voluntades deliberadas,
la conclusión inevitable de la observación de estos fenómenos es que nuestra propia existencia es fruto
del azar. Pero esta conclusión es, literalmente, impensable. En efecto, supone decir que «yo» soy
producto del azar, olvidando que «yo» soy tanto el que habla como aquel del que se habla, como si se
me observase (por mí mismo) desde el exterior. Ahora bien, desde el punto de vista de mi cono-
cimiento de mí mismo o de mi grupo social, desde el punto de vista del conocimiento que yo tengo del
sistema desde su interior (único conocimiento que, en principio, puede ser pensado 46 y que no puede
serlo más que el interior de estos sistemas), «yo» soy el origen de todas las determinaciones, de todos
los conocimientos puesto que la misma noción de lo «aleatorio» y de lo «determinado» dependen de
«mis» posibilidades —como observador real o potencial— de cono-cimiento y comprensión de la
realidad. De hecho, del interior de mí mismo, como cualquier sistema auto-organizado, tengo un «cono-
cimiento» —inconsciente, «corporal», por las transferencias de in-formaciones y de significaciones—
mucho más completo que el que yo podría tener de cualquier otro sistema. En el conocimiento de mi
interior nada queda al azar puesto que lo que aparece como azar y
46
Véase más arriba, pág. 95.105

ruido para el observador exterior es integrado como factor de auto-organización y de significaciones


nuevas. «Yo» soy a la vez «el conocedor, el conocido y el conocimiento» 16.
De este modo, según se favorezca tal o cual punto de vista sobre el sistema auto-organizado que «yo»
soy, -o bien soy el resultado de una o varias tiradas de dados 17, del puro azar, o por el contrario, soy el
único centro del mundo de las percepciones y de las determinaciones, origen creador del juego de dados
y de la percepción de un orden o del azar.
II. SISTEMAS DINÁMICOS, REPRESENTACIONES DETERMINISTAS

1. Límites de las representaciones probabilistas


Hemos visto que, con ayuda de métodos probabilistas como los de la teoría de la información y la
termodinámica estadística, es posible representar sistemas naturales de lo que sólo se posee un
conocimiento global e imperfecto en los detalles. Tales métodos pueden prestar servicio en las distintas
ciencias de lo vivo (biología, sociología, economía...) donde pueden servir para definir mejor los
conceptos y proporcionar un adecuado marco de interpretación.
Por ejemplo, la interpretación de datos experimentales referentes a los mecanismos del desarrollo y del
envejecimiento ha podido beneficiarse de ello 18 en la medida en que se trata de fenómenos integrados,
que ponen en juego la organización global (y la desorganización) de sistemas complejos. Otro ejemplo
es proporcionado por un método que permite, en un sistema económico complejo, determinado por un
gran número de factores, agrupar a éstos en sub-conjuntos en el interior de los cuales las ligaduras e
interdependencias son más grandes, aunque no se conozca la naturaleza de dichas ligaduras e
interdeterminaciones 50. Situación que conduce, evidentemente, a una cierta simplificación del análisis.
Pero es preciso comprender bien que se nos imponen diferentes condiciones de análisis según se traten
de distintas clases de sistemas.
Por el contrario encontramos ahora, en biología, cada vez más situaciones en las que el detalle de las

16Maimónides definía así el conocimiento divino. El «conocimiento» que todo sistema auto-organizador tiene de sí
mismo sería así, desde este punto de vista, por definición, un conocimiento divino.
17¿Tirados por quién, si no por mí que los observaba como tales situándome en el exterior de mí mismo? En el plano de la
relación con el otro —individuo o grupo social— eso supone integrar y vivir la paradoja, articulación del sentido y del sin
sentido del que hablábamos más arriba (pág. 94), según la cual cada uno —individual y socialmente— es realmente el centro
del mundo. Encuentro por nuevos vericuetos con un ego-sociocentrismo universal, paradoja de la que algunos pensadores
han comprendido la necesidad de analizarla en profundidad (véase C. Castoriadis, L'Institution imaginaire de la société, op.
cit., pág. 47; y también A. I. Hacohen Kook, Orot, Jerusalén, Mossad Harav Kook, 3.a edición, 1963, págs. 102-118; y
OlatReiya, t. I, Jerusalén, Mossad Harav Kook, 3.a ed., 1969, págs. 314-319).
18G. A. Sather, «The Complementarity of entropy terms for the temperature dependance of development and ageing»,
Annals of the New York Academy of Sciences, 138, 1967, págs. 680-712; B. Rosenberg y otros, «The Kinetics and Ther-
modinamics of death in multicellular organisms», Mechanisms of Ageing and De-
106
interacciones físico-químicas (moleculares o celulares) puede ser conocido de modo bastante preciso.
Nada nos impide entonces servirnos de una representación determinista (y no probabilista) que tiene la
ventaja de ser predictiva en el detalle. En efecto, es posible entonces, por cálculos y deducciones,
predecir el comportamiento del sistema observado de modo cuantitativo. El acuerdo o el desacuerdo de
la predicción teórica con la observación experimental valida (provisionalmente) o invalida el modelo
que nos ha servido para «comprender» y para representar el sistema. Las condiciones de validación de
los modelos comienzan a ser ampliamente analizadas y debatidas 51 por lo que remitimos al lector a la
abundante literatura especializada en este tema. Queremos solamente indicar algunos ejemplos del tipo
de preguntas que pueden hacerse y del tipo de formalismos deterministas que podemos vernos
obligados a utilizar para plantearlas mejor... y, eventualmente, responderlas.
Hemos dicho ya algo con respecto al sistema de ecuaciones diferenciales en las que las funciones
pueden ser, por ejemplo, las concentraciones de distintas especies moleculares en el tiempo y el es-

velopment, 2, 1973, págs. 275-293; H. Atlan y otros, «Thermodynamics of aging in Drosophila


Melanogaster», Mechanisms of Ageing andDevelopment, 5, 1976, págs. 371-387.
50
J. Dufour y G. Gilles, «Applications of some concepts of the information theory to structural
analysis and partition of macro economic large scale systems», en Information and Systems, B.
Dubuisson (Ed.) (Proceed. IFAC Workshop, Compiégne, 1977), Pergamon, 1978, págs. 19-28.
51
H. Atlan, «Modelos de organización cerebral», Revue d'EEG et de neurophysiologie, 5, 2, 1975,
págs. 182-193; Modélisation etMaitrise des systémes, Congreso AFCET, 1977, op. cit.; y L'Elaboration
et la Justification des modeles en biologie, Coloquio CNRS, 1978.

107
pacio de una célula. Estas funciones expresan tanto la cinética de las reacciones químicas que hacen
que esas especies se transformen unas en otras, como las distintas clases de transporte por las que son
desplazadas de un micro-compartimento a otro.
Existen ya numerosas situaciones en biología donde la acumulación de los datos bioquímicos hace, de
hecho, necesaria una aproximación sistemática para dar cuenta del comportamiento. En efecto, en el
nivel de una célula, por ejemplo, el comportamiento es no sólo la consecuencia de la existencia de
interacciones moleculares específicas, sino también del modo en que estas distintas interacciones son
funcionalmente acopladas. Todo ocurre como si, coloca-dos ante un aparato de televisión cuyo
principio de funcionamiento se desconoce, se conocieran cada vez mejor las propiedades de los
distintos constituyentes (transistores, tubos catódicos, resistencias eléctricas, capacidades,
autoinducciones, etc.). En esta situación el conocimiento y la «comprensión» del sistema sólo llegaría
con la de los modos de conexión y de acoplamiento de estos constituyentes que condicionan y expresan
la lógica de su organización.
De este modo y muy a menudo una descripción linealmente causal, como se hace en biología
clásica donde se intenta aislar un parámetro que se hace variar mientras los demás se suponen cons-
tantes, es inadecuada. Por ejemplo, la causa de un cambio de estado de la célula en un momento dado
deberá buscarse en el estado de la célula en el instante precedente, y no en una modificación de un solo
componente aislado del resto del sistema. Se trata, pues, como en el análisis de sistemas artificiales, de
escribir las ecuaciones de estado que representen las variaciones simultáneas de las magnitudes
características del sistema para luego resolverlas y poder predecir la evolución en el tiempo del conjunto
del sistema.

2. Complejidad media en biología: acoplamientos de reacciones y de transportes

Existen, en especial, toda una clase de fenómenos en los que se advierte la necesidad de tales métodos
porque no se trata de fenómenos elementales que puedan aislarse y estudiarse por separado, sino que
son subsistemas cuya complejidad puede ser fácilmente reducida a una complicación dominable,
dándose así las mejores condiciones para comenzar a utilizar y probar en ellos los métodos

108
descritos anteriormente. Tales subsistemas son ciertos fenómenos de acoplamiento entre reacciones
bioquímicas y procesos de transporte (de materia y de cargas eléctricas) en las membranas vivas.
Algunos de estos fenómenos aparecen como sistemas de complejidad media. Pueden servir, pues, de
etapa intermedia entre el estudio de las interacciones moleculares aisladas y estudiadas in vitro y las de
células enteras, por ejemplo, en las que la complejidad es ya muy elevada.
Un ejemplo de lo más espectacular de tales acoplamientos es el de la respiración celular acoplada a la
síntesis de moléculas donde se almacena la energía metabólica, tal como puede observarse en las
mitocondrias.
Esos son pequeños orgánulos presentes en todas las células vi-vas, y cuyo espacio está casi por
completo ocupado por una membrana replegada sobre sí misma. Esta membrana, como todas las
membras vivas, presenta propiedades de transporte activo, es decir, que funciona como una bomba
capaz de hacer pasar iones (moléculas o átomos eléctricamente cargados) de un lado a otro y acumula
así energía en forma de una diferencia de potencial eléctrico. Por otra parte, las mitocondrias se conocen
desde hace mucho tiempo como sede de las reacciones de oxidación que caracterizan la respiración
celular. Estas oxidaciones están asimismo acopladas a otras reacciones llamadas fosforilaciones, por las
que se efectúa la síntesis de un compuesto ubicuo, el ATP (adenosín-trifosfato) que constituye la forma
más adecuada de almacenar la energía química que se utiliza en la mayoría de las reacciones del
metabolismo celular. Este acoplamiento, que se designa con el nombre de fosforilación oxidativa,
desemboca, pues, en que las oxidaciones producen la energía necesaria para la síntesis de moléculas del
ATP. Y la ulterior de-gradación de estas moléculas producirá, según las necesidades, la energía cuya
utilización es necesaria para el cumplimiento de las distintas funciones que caracterizan una célula viva.
Lo más notable en este asunto es el vínculo establecido, en fe-chas recientes, entre la estructura de
membranas de las mitocondrias y las reacciones de fosforilación oxidativa. En efecto, cuando se quiso
establecer el mecanismo de estas reacciones acopladas rápidamente se advirtió que era imposible
reproducirlas experimentalmente en ausencia de las estructuras membranales, aun cuando todos los
elementos moleculares constitutivos de las mitocondrias estuvieran presentes. Como mínimo son
necesarios fragmentos de
109
membranas. Hoy sabemos que el acoplamiento de las fosforilaciones con las oxidaciones necesita una
etapa intermedia, constituida precisamente por la acumulación de energía eléctrica resultante del
transporte activo de la membrana. Al autor de este descubrimiento 52 le costó mucho trabajo que lo
aceptaran, pues no correspondía a la idea comúnmente admitida de que reacciones específicas sólo
pueden producirse por mediación de enzimas, moléculas proteicas que es posible aislar y cuya
estructura espacial explica las propiedades enzimáticas. En nuestro caso, todas las tentativas para aislar
la molécula responsable han fracasado mientras que aparecía poco a poco la noción de acoplamiento de
flujo en la que la velocidad de ciertas reacciones es regulada por la del transporte de materia y de cargas
a través de las membranas, dependiente a su vez de la velocidad de otras reacciones. Y allí el
responsable no es una sola molécula sino un conjunto molecular como los que se encuentran en la
mayoría de las membranas vivas, siendo las funciones de síntesis y de transporte estrechamente
dependientes de la estructura global de la membrana... cuya construcción y renovación son, a su vez, en
cierta medida y a distinta escala de tiempo reguladas por dichas funciones.
Este tipo de fenómenos se ha encontrado, después, en el nivel de los cloroplastos, orgánulos encargados
de la fotosíntesis de las plantas, así como en ciertas bacterias cuya membrana desempeña un papel
similar. En fin, parece que tales acoplamientos entre transportes de iones y reacciones biosintéticas
existen también al nivel de las membranas citoplásmicas que rodean las células animales 53.
52
P. Mitchell, «Chemiosmotic coupling in oxydative and photosensitive phosphorylation», Biol. Ref Cambridge Phil. Soc.,
1966, 41, 445-502; «A chemiosmotic molecular mechanism for proton-translocating adenosine triphosphatases», FEES
Letters, 1974, 43, 189, 149.
53
C. W. Orr, M. Yoshikawa-Fukuda y S. D. Ebert, Proc. Natl. Acad. Sci. USA, 1972, 69, págs. 243-247. T. F. McDonald, H. G.
Sachs, C. W. Orr y S. D. Ebert, Develop. Biol., 1972, 28, págs. 290-303. H. K. Kimbelberg y E. Maynew, J. Biol. Chem., 1975,
250, págs. 100-104. H. K. Kimbelberg y E. Maynew, Biochim. Biopy. Acta., 1976, 455, págs. 865-875. S. Toyoshima, M. Ywata
y T. Osawa, Nature, 264, 1976, págs. 447-449. B. A. Horwitz y J. M.
Horowitz, Amer. J. Pysiol., 1973, 224, págs. 352-355. M. Herzberg, H. Breitbart y H. Atlan, Eur. J. Biochem., 1974, 45, págs.
161-170.

110
3. Redes químico-difusoras, sistemas dinámicos y «orden por fluctuaciones»
En la mayoría de estos ejemplos se trata de redes químico-difusoras 54 relativamente simples todavía
porque el número de procesos acoplados no excede a algunas unidades. Pero anuncian redes mucho más
complejas como las que constituyen, por ejemplo, una
célula completa con su metabolismo, sus micro-compartimentos y los intercambios que se efectúan.
Ahora nos ocuparemos de los problemas particulares que plan-tea el análisis cuantitativo de estas redes.
Veremos que algunos de estos problemas pueden servir de punto de partida para tentativas de
generalización para el análisis de no importa qué sistema, siempre que sea asimilable a una red donde
cosas (o seres) circulan y son transformados.
Para tratar este tipo de cuestiones existen, evidentemente, varios métodos matemáticos algunos de ellos
clásicos, utilizados desde hace mucho tiempo 55.
Estos últimos años se han multiplicado, en particular, investigaciones sobre las condiciones de
estabilidad de sistemas diferenciales bajo el efecto de débiles perturbaciones aleatorias. Estos trabajos
han conseguido poner en evidencia la existencia de mecanismos llamados del «orden por fluctuaciones»
56
por los que algunos sistemas inestables evolucionan hacia estados oscilantes en el tiempo, en el
espacio, o en ambos. Así se ha podido describir cuantitativamente cómo sistemas homogéneos
(químico-difusores, por ejemplo) pueden transformarse «espontáneamente» en sistemas heterogéneos.
Estos pueden estar caracterizados, por ejemplo, por verdaderas on-
54
Las redes químico-difusoras asocian reacciones químicas entre sí y con procesos de transportes donde la difusión de las
moléculas desempeña siempre un papel fundamental, asociada o no a otros mecanismos.
55
Véanse los trabajos precursores de A. M. Turing, «The chemical basis of morphogenesis», Phil. Transactions of the Royal
Society, Londres, B. 237, 1952, págs. 37-72.
56
P. Glandsforff e I. Prigogine, Structure, Stabilité et Fluctuations, París, Mas-son, 1971; P. Glansdorff e I. Prigogine, «Entropía,
estructura y dinámica», en Sadi Carnot et l'Essor de la thermodynamique, 1976, París, Editions du CNRS, págs. 299-315; I.
Prigogine, «Order through fluctuations, self organization and social
systems», en Evolution and Conciousness, E. Jantsch y C. H. Waddington (Eds.), Reading Mass. Addison Wesley,
1976, págs. 93-131.

111
das de concentraciones donde la materia se distribuye según funciones oscilantes —por tanto, de modo
heterogéneo— en el espacio y en el tiempo. Estos mecanismos de «ruptura de simetría», como los ha
llamado Prigogine, constituyen una forma de auto-organización en sistemas determinados donde las
perturbaciones aleatorias des-empeñan, sin embargo, un papel decisivo. Estos sistemas son de-terminados
porque todo lo que a ellos se refiere es conocido. Sin embargo, la estructura precisa a la que darán
nacimiento no puede ser prevista con detalle pues consiste de hecho en una fluctuación particular,
imprevisible —entre un gran número de posibilidades—, amplificada y estabilizada por las propiedades
del sistema. Hasta ahora, la mayoría de estas investigaciones han sido llevadas a cabo, una tras otra,
examinando las propiedades de inestabilidad de ciertos sistemas de ecuaciones y buscando su
comportamiento gracias a soluciones numéricas por ordenador. Los intentos analíticos sistemáticos que
permiten desprender una comprensión más general de estos procesos son objeto de investigaciones
matemáticas mucho más complicadas, como la teoría de las bifurcaciones y la teoría de las catástrofes de
R. Thom (véase más adelante pág. 231).
Sea como sea, el «orden por fluctuaciones» de Prigogine debe distinguirse del ruido organizacional, u
orden por el ruido convertido en complejidad por el ruido, del que hemos hablado en páginas precedentes,
precisamente porque aparece en representaciones deterministas de sistemas dinámicos cuando el ruido
organizacional es un principio de representación probabilista de sistemas mal conocidos.
En el «orden por fluctuaciones» la indeterminación aparece como consecuencia de que los sistemas de
ecuaciones —deterministas— que representan el comportamiento dinámico tienen a veces varias
soluciones, y las que representan evoluciones hacia estados distintos también son realizables. La
realización de una solución más que de otra, siendo decisiva, pues orientará todo el porvenir del sistema,
es indeterminada y se atribuye a la existencia de fluctuaciones termodinámicas. Es así, en particular, que
las distintas características de estabilidad o inestabilidad («asintótica» si sólo concierne al comportamiento
del sistema, estructural si se trata de su misma estructura) son estudiadas como respuestas de un sistema
determinado a las perturbaciones, que se suponen pequeñas y aleatorias, sobre las variables o los
parámetros (respectivamente). Es decir, que estos tratamientos implican de todos modos el conoci-

112
miento del sistema de ecuaciones que define de modo determinista la organización estructural y dinámica
del sistema.
Un paso más en el análisis de estos sistemas consiste en tomar en consideración estadística el tipo de
fluctuaciones de que se trata. En efecto, existen varias clases de ruido 57 caracterizadas por distintas
distribuciones de las probabilidades de aparición de distintas fluctuaciones. Según el tipo de
ruido al que está expuesto un sistema, si la probabilidad de grandes o pequeñas fluctuaciones es distinta,
la probabilidad de evolución hacia un estado más que hacia otro en una bifurcación puede ser distinta.
Puede concebirse así que, por el conocimiento del tipo de ruido que se trate, la evolución de un sistema
dinámico hacia uno de sus estados posibles a partir de una inestabilidad pueda ser todavía algo menos
indeterminada (H. Haken) 58
Además, la expresión «orden por fluctuaciones» contiene la misma ambigüedad que la de «orden por el
ruido» de Von Foerster que hemos analizado más arriba (véase pág. 88) ya que en la medida que
expresa un mecanismo de transformación de un sistema macroscópicamente homogéneo en un sistema
macroscópicamente heterogéneo, dicho «orden por fluctuaciones» constituye un proceso de creación de
variedad, diversidad, entropía, es decir, de lo que hemos denominado complejidad y hemos medido por
la función H de Shannon. Sin embargo, la mayoría de los procesos efectivamente estudiados hasta hoy
no son, de hecho, más que procesos oscilantes (en el tiempo o en el espacio, o ambos) que realizan la
repetición regular de un mismo motivo, del que el ejemplo de las células de Bénard fue el primero y ya
clásico. Es decir, que se trata de un orden repetitivo, muy parecido al de los cristales salvo,
naturalmente, que se trata de un sistema abierto, dinámico, lejos del equilibrio.
Tal vez más interesante aún que este punto de vista y más próximo a la realidad de los sistemas
biológicos sean los sistemas de turbulencias aperiódicas, que algunos han llamado, erróneamente,
57
Se analizan los espectros de las fluctuaciones después de la transformación de Fourier y se distinguen así, con frecuencia,
tres clases de ruido: ruido «blanco», donde las fluctuaciones de toda frecuencia tienen iguales posibilidades; ruido «en 1/f 2»,
donde su probabilidad es inversamente proporcional al cuadrado de la frecuencia, realizando así una distribución de Gauss;
y ruido «en 1/f», donde la probabilidad es inversamente proporcional a la frecuencia.
58
H. Haken, Synergetics. An Introduction, Berlín-Nueva York, Springer-Verlag, 2.a edición, 1978.

113
«caos», pues evocan este tipo de organización extremadamente di-versificada, mezcla de desorden y
organización en el que se piensa inevitablemente cuando se observa el hormigueo citoplasmático de una
célula viva al microscopio, o también la agitación desordenada y aperiódica pero organizada de un
hormiguero 19. Estas nociones han sido retomadas y desarrolladas recientemente por H. Haken en la
segunda edición de un libro consagrado a la auto-organización en física, química y biología 60. Este
autor propone, además, una elegante manera de abordar el estudio de los sistemas jerarquizados basa-da
en órdenes de magnitud diferentes en los tiempos de relajación de los distintos niveles de integración.
Se trata de una observación ya antigua de B. C. Goodwin 61 sobre la organización temporal de las
células que Haken ha generalizado y sistematizado de modo interesante.
Un método de tratamiento bastante similar, en el fondo, a estos métodos clásicos de análisis de sistemas
dinámicos, pero de enfoque distinto, denominado «termodinámica en redes», fue inventado
recientemente por A. Katchalsky 62 y sus colaboradores, con quienes tuvimos el privilegio de estar
asociados. Este método, menos conocido, presenta cierto número de ventajas a la vez en el plano
didáctico y conceptual, y por ello discutiremos aquí sus grandes líneas.

4. Termodinámica de redes

4.1. Cuestiones de lenguaje


Este método utiliza el lenguaje de la termodinámica de los fenómenos irreversibles y ésta es su primera
ventaja, pues se trata de cibernéticos a la coordinación en los insectos sociales», Insectes sociaux, vol. XIII, núm. 2, 1966,
págs. 127-138) que mostraba la necesidad de cierto ruido de fondo en esta organización «para realizar la independencia de
los distintos subsistemas». Otro ejemplo particularmente evocador del ruido organizativo.
60
H. Haken, ibid.
61
B. C. Goodwin, Temporal Organization in cells, Nueva York, Academic Press, 1963.
62
G. F. Oster, A. S. Perelson, A. Katchalsky, «Network thermodynamics, dynamic modelling of biophisical systems»,
Quarterly Review of Biophisics, 6, I, 1973, págs. 1-134.

114
un lenguaje unificado que cubre todos los campos de la física y de la química tratándolos en términos de
corrientes de energía y de entropía.
Además, utiliza una técnica de gráficos especialmente potente que le da, a la vez, las ventajas de una

19Esta había, por otra parte, dado lugar a un estudio notable de J. Meyer («Intento de aplicación de ciertos modelos
representación esquemática en imágenes y de una representación abstracta cuantitativa.
En efecto, uno de los defectos de las representaciones habituales de la organización celular es que oscila
entre imágenes muy sugestivas pero puramente cualitativas y sistemas de ecuaciones que permiten un
análisis cuantitativo numérico pero cuya lógica es, por lo general, bastante poco evidente. Las
representaciones cualitativas más frecuentes están hechas de yuxtaposiciones, en manuales, de mapas
metabólicos (donde redes de flechas representan las distintas rutas o ciclos metabólicos por donde las
moléculas orgánicas se transforman unas en otras) y de imágenes microscópicas donde aparece más o
menos claramente la estructura espacial de los micro-volúmenes y compartimentos donde se efectúan
estas reacciones. Pero estas representaciones cualitativas no permiten, entre otras cosas, prever cómo
perturbaciones de tal o cual reacción en un rincón del mapa metabólico, apareciendo en determinado
lugar de la célula, serán sentidas por otras reacciones, indirectamente acopladas, en otro lugar del
sistema celular.
En el otro extremo, las representaciones cuantitativas que permiten tales predicciones, al menos en sub-
sistemas menos complicados, comienzan a ser utilizadas. Se reducen, por lo general, a sistemas de
ecuaciones diferenciales que representan la cinética de reacciones bioquímicas y de transportes de los
reactivos y de los productos de estas reacciones. Estos sistemas de ecuaciones rápida-mente se hacen
extremadamente complicados debido al gran número de reactivos en presencia. De este modo, por lo
general, sólo desembocan en soluciones numéricas por ordenadores, es decir, soluciones, caso a caso,
que permiten pocas generalizaciones analíticas y donde la lógica de la organización, las relaciones entre
la estructura y el comportamiento sólo aparecen muy difícilmente.
Por el contrario, una de las ventajas de la termodinámica de redes es la utilización de una representación
gráfica particular, la de los gráficos de unión.
Como veremos, éstos presentan las ventajas de un lenguaje intermedio, a la vez representación
cualitativa y lógica, que nos habla por sus flechas, y lenguaje numérico porque se pueden leer, de

115
modo automático, las ecuaciones que representan la dinámica del sistema.
Por último la termodinámica de redes constituye una síntesis, extremadamente satisfactoria en el plano
conceptual, de técnicas de análisis de redes corrientemente utilizadas en las ciencias de la ingeniería y
los modos de análisis termodinámico mucho más familia-res a los físico-químicos. De ahí su nombre,
que su inventor Aharon Katzir-Katchalsky 63; le atribuyó en la que fue su última obra científica:
Termodinámica de redes (network thermodynamics), pues en muchos aspectos engloba los resultados de
la termodinámica del no-equilibrio. En efecto, puede extender el análisis termodinámico a los
fenómenos no lineales y que aparecen en fase no homogénea, y constituye así una generalización de los
útiles termodinámicos, un poco al modo como la termodinámica del no-
equilibrio era una generalización de la termodinámica del equilibrio.
Las técnicas de cálculo y de análisis de redes han desembocado en las ciencias de la ingeniería, entre
otras cosas, por la realización de estas unidades particulares que son los rectificadores eléctricos, los
amplificadores, los osciladores, las unidades de cálculo y las unidades lógicas y finalmente los propios
ordenadores.
Es posible imaginar que en un futuro, tal vez no demasiado lejano, el desarrollo de estas técnicas en
físico-química puedan producir no sólo rectificadores químicos —que ya existen— sino también
osciladores químicos, amplificadores químicos, etc., y finalmente ordenadores químicos. La idea está
todavía muy alejada pero comienza a dibujarse e, independientemente de su interés tecnoló gico, que
depende esencialmente de la miniaturización, se tratará de modelos físico-químicos de sistemas
biológicos mucho más aproximados que los modelos analógicos utilizados actualmente.

4.2. Flujo y esfuerzo

En principio, mientras en la termodinámica del equilibrio las variables de estado que caracterizan los
sistemas son magnitudes
63
G. F. Oster, A. Perelson, A. Katchalsky, <Network thermodynamics», Nature, 234, 1971, págs. 393-399; y Quarterly Review of
Biophysics, 1973, op. cit. Su obra se vio desgraciadamente interrumpida por un asesinato colectivo, absurdo e indiscriminado
(Lod, Israel, 1972). Sus principales trabajos en ese terreno sólo pudieron publicarse después de su muerte.

116
estáticas, tales como: concentración de materia o de carga, volumen, calor, etc., en la termodinámica del
no-equilibrio y también en el análisis de las redes, las magnitudes elegidas como variables de estado son
magnitudes dinámicas, es decir, corrientes y fuerzas. Cada elemento de un sistema es así caracterizado por
una corriente o flujo que lo atraviesa y por la fuerza conjugada responsable de esta corriente, más
correctamente llamada esfuerzo.
Así, en lugar de ocuparse de cantidades estáticas y ver, secundariamente, cómo cambian en el tiempo, se
ocupa directamente de los flujos, es decir de las tasas de variaciones en el tiempo, tales como el flujo de
materia o de cargas, o también de volumen o de calor, etcétera, y de los esfuerzos conjugados
responsables, tales como las diferencias de potencial químico, o las diferencias de potencial eléctrico, o las
diferencias de presión o de temperatura, etc.
Elctif ka CDfCiftflU i Valuje V
CUADRO E
Cjcgi f
Met^nkí Garricjiiv Jtesión P Valonen V
ds Jos fluida* devalarían £3
Dominio Cnmenrc ¡Fuerza Dfüplkiíi 111 rí LmpjEse
Dilusu:ci Cúrrieme de PorffMiál Masi lito
m,
JE energía ¿Geiierilnada
u ¿v ¿fiítríJiiidi
químico NúramgfiKfJililJ-.il ¿eüeriiizub

muera /, de CTKJIH n,
Flujo $
Reacción Imputa de\ íl:K.i:liiÍ
pratfa T
r
AJinidad Aníwí
qufmfcj de jci LVÍVI /, A S1. (U,
Wrdnára VeluciJad s-1 F*rrt* F teplimnirtiLC.
Impuls
(craiLetfm
M cónica Vetocidid Pir-íiá r ücsplaLZimimi
c- e p
fruraciánj angular* iíiü&hc 1
Térmica Flojo Tempemiunai T
dt S M'.nTim

tij
Según G, F. Üswr. .V 5. Ferelson y A. Kuttlulily 1■íftlwtak tlwLQioilr- Tiamic¡>, Qsurrttly
angular
Rfriw 5/ Biophtrki, «vj. ¡-I +4; y J. L\ Tbran*, - Bond ürapl.i fo[ thwrnuJ ffjiíi# ind fjvrinpj
Floral, (]VT L >, Jasr. c} fnmiüm ífljrtinte,
WH IW 120; ¡txfoJtfttiv’r te to*k firjpiií &¡d thtir jppbcjtinn. Mutua Torlj,
1ÍÍJ.
Como podemos ver en el cuadro I, cada proceso energético puede ser descompuesto en un flujo de
alguna cosa y el esfuerzo res-

117
ponsable de ello; el producto de ambos tiene el valor de una potencia, es decir, de una energía
instantánea que puede ser bien almacenada, bien disipada o bien transportada sin pérdida, como por
ejemplo en electricidad, el producto de una corriente y de una diferencia de potencial. En este cuadro se
representan las distintas clases de flujo y de esfuerzo que se encuentran en los distintos dominios de la
energía. Hemos añadido para la térmica (Thoma) 64 un flujo de entropía considerada como una carga
térmica conjugada por un gradiente de temperatura.
Veremos que se utilizan también cantidades que son integrales en el tiempo de estos flujos y fuerzas, y
que se denominan respectivamente desplazamientos e impulsos por la generalización de los conceptos
desplazamiento e impulso en mecánica.
En cada uno de estos dominios de energía, cada elemento de una red estará, pues, caracterizado siempre
por un flujo f que lo atraviesa por el esfuerzo e conjugado a este flujo y sobre todo por una relación
cuantitativa entre el flujo y el esfuerzo que se denomina además, por esto, relación constitutiva,
característica del elemento.
Existen varios tipos de relaciones constitutivas posibles, y según el tema del que se trate se
distinguen distintas clases de elementos que son generalizaciones de los elementos habituales encontrados
en los circuitos eléctricos RLC (de resistencias, autoinducciones y capacidades).
a) Si se llamaf a un flujo y e al esfuerzo responsable de este
flujo, la relación constitutiva del elemento de red puede ser directamente una relación explícita entre e y
f de la forma ¥r (e, f) = 0.
En este caso el elemento es una resistencia generalizada, definida a partir de esta relación por
R=—
«/
al igual que en electricidad
R = ÍL
SI
se reduce a V/I de la ley de Ohm en el caso de un elemento de resistencia lineal.
El producto ef representa la potencia disipada en la resistencia. Por ejemplo, en una reacción química, la
potencia disipada es conocida como igual a ¥ = AJr, donde A es la afinidad de la reacción (es decir, la
diferencia de energía libre entre los reactivos y los productos de la reacción) y J, es la velocidad de
reacción, es decir, el flujo
64
J. U. Thoma, Introduction to bond graphs and their applications, Nueva York, Pergamon, 1975.

118
químico o corriente de reacción (que se produce no en el espacio euclidiano, sino en el espacio de
reacción).
Así una resistencia química será definida por una relación entre la afinidad A y la corriente de reacción
Jr, que proporciona la termodinámica química.
b) Otra posibilidad es que la relación constitutiva del elemento de red no una directamente un
esfuerzo y un flujo, sino el esfuerzo y la integral del flujo en el tiempo, lo que se denomina un
desplazamiento.
Entonces la relación es de la forma ¥c (e, q) = 0 donde el desplazamiento es definido por la integral del fluj o q =
J 0 fdt + q0 .
t

En este caso, el elemento definido por esta relación es un condensador generalizado cuya capacidad es definida a
partir de esta relación por

como una generalización de una capacidad eléctrica r _


6V
que se reduce a q/V en los casos lineales.
c) Finalmente, otra posibilidad es que la relación constitutiva del elemento no sea explícita entre
esfuerzo y flujo, sino entre flujo e integral del esfuerzo, lo que se denomina cantidad de movimiento
0 impulso. Entonces la relación es de la forma ¥ L, (p, f) = 0 donde el impulso p = J 0 edt + p0. En este
t

caso, el elemento definido por esta relación es un elemento inductivo cuyo coeficiente de autoinducción
es definido por
1=
V
como una generalización del coeficiente de auto-inducción en electricidad
T 6*
61
que se reduce a O/I en los casos lineales (O representa el flujo magnético que es la integral de la fuerza
electromotriz inducida).
De un modo muy general puede mostrarse que al igual que las resistencias generalizadas son elementos
disipativos (es decir, elementos donde la energía libre es disipada), los condensadores generalizados
definidos por este tipo de relación son elementos de almacenamiento de energía potencial y las auto-
inducciones generalizadas son elementos de almacenamiento de energía cinética.
Así, estas tres clases de elementos corresponden a tres posibilidades de tratamiento de la energía (sea
cual sea la forma de esta energía), bien almacenada en forma de energía potencial o cinética, o bien
disipada.

119
Finalmente, las fuentes de esfuerzo (SE) y de flujo (SF) permiten representar, en los sistemas abiertos,
la aplicación de fuerzas o de corrientes constantes en un lugar de la red.

4.3. Gráficos de unión

Por otra parte, en una red, los elementos están interconectados y la utilización de gráficos es el método
más corrientemente utiliza-do para representar estas interconexiones que constituyen la topología de la
red. El interés de un gráfico depende no sólo de que proporciona una representación pictórica, sino
sobre todo de las propiedades lógicas de que está dotado y que permiten una escritura algorítmica —y,
por tanto, automática— de las ecuaciones de estado del sistema.
En termodinámica de redes, el método de los bondgraphs (Paynter) 65 o gráficos de enlace ha sido
incorporado con preferencia a otras clases de gráficos, debido a sus ventajas que son esencialmente:

— Una representación más concisa.


— Y, sobre todo, un medio adecuado de representar cuantitativamente acoplamientos entre
fenómenos que se desarrollan en espacios distintos (por ejemplo, el espacio geométrico
euclidiano y los espacios de las reacciones químicas) y también en dominios de energías
distintas como la energía eléctrica, mecánica, química, etc.
La figura 4a muestra la representación habitual de una red eléctrica y la representación de la misma red
por un gráfico de unión.
El gráfico de la figura 4b es una representación correcta de una red química muy simple constituida por
dos reacciones acopladas escritas en la figura.
Las v son los coeficientes estoequiométricos de las reacciones y están representados por elementos
llamados transductores (TD) cuyas propiedades veremos más adelante. El acoplamiento consiste en
que la substancia B participa en ambas reacciones.
65
H. Paynter, Analysis andDesign of engineering systems, Cambridge, Mass., MIT Press, 1961.

120
Vemos en el gráfico elementos —representados simplemente por sus letras C, R, etc.—, conectados por
flechas que representan uniones. Estas flechas representan de hecho el trayecto de la energía en la red y,
por ello, por analogía con las uniones químicas, se las ha denominado «uniones» (pero la analogía no
va más lejos). La diferencia principal entre los gráficos habituales y los gráficos de unión estriba en que
en los primeros las líneas representan el trayecto de lo que circula —sea materia o sean las cargas—
como en la red eléctrica aquí representada, donde las líneas representan el trayecto del flujo, mientras
que en los gráficos de unión, las líneas representan el trayecto de la energía —o más exactamente de la
potencia—, es decir, del producto de un flujo por un esfuerzo. Todo ocurre como si cada línea en el
gráfico de unión fuera la reunión de dos líneas en el gráfico lineal habitual y los elementos estuvieran
conectados unos a otros por sus intercambios de energía y no por las corrientes que los atraviesan.
Así, cada unión i es caracterizada por un flujof y un esfuerzo e{ —que son el flujo a través del elemento
conectado por esta unión y el esfuerzo que actúa sobre él—, tales que el producto e¡fi es la potencia
circulando por esta unión.
Puesto que cada unión representa la fusión de dos líneas en la representación habitual, queda por
representar el carácter en serie o en paralelo de las conexiones. Eso se hace simplemente con una
notación convencional que dice «conexión en serie» o «conexión en paralelo». Se les indica por 0 y
1 (op y s): una conexión 0 quiere decir que el elemento que está conectado al resto de la red por su
mediación es conectado en paralelo como la capacidad Cb (fig. 4) y una conexión 1 quiere decir que el
elemento que está conectado por su mediación lo es en serie, como las resistencias R 1 y R2 . Finalmente,
un elemento particular, llamado transductor (como generalización del concepto transformador en
electricidad), representado por las letras TD, representa un último modo de tratar la energía. La energía
puede ser transportada sin modificación cuantitativa global, es decir, sin cambiar de valor, pero con una
modificación cualitativa, y eso es lo que se representa por un transductor: como la potencia
transportada es igual al producto ef de un esfuerzo por un flujo si, a través de un elemento, el esfuerzo
es multiplicado por cierto factor y el flujo dividido por el mismo factor, el producto —y, por tanto, la
potencia— no cambian. (Es lo que ocurre en un transformador donde la relación del número de
espirales
121

de las dos bobinas multiplica la tensión y divide la corriente.) Si esta operación se hace además con un
cambio en el tipo de energía estamos ante un transductor, tal que: no sólo el esfuerzo y el flujo a la
salida son cuantitativamente distintos de los de la entrada, sino que lo son también cualitativamente:
puede tratarse, por ejemplo, a la salida, de esfuerzo y de flujo mecánicos, y a la entrada de esfuerzo

122
y de flujo eléctricos. Pero incluso cuando se trata de dos tipos de energía distintos y de valores
diferentes de los esfuerzos y los flujos, los productos a la entrada y a la salida son iguales: por tanto, el
transductor transporta sin pérdida la potencia, transformando una energía en otra.
En estos gráficos de unión, los elementos conectados por una única unión se llaman unipuertos,
siendo el puerto la parte simbólica del elemento por donde entra o sale la energía. Los que están
conectados por varias uniones como, por ejemplo, las conexiones 0 y 1 y los transductores, son
denominados multipuertos.
En la figura 5 se ha esquematizado cómo funcionan estos multipuertos, es decir, qué relaciones
representan y, por tanto, cómo
Figura 5

son utilizados algorítmicamente en la escritura de las ecuaciones de la red.


Por lo que concierne a los transductores, como acabamos de ver, puesto que cada unión está
caracterizada por un esfuerzo y un flujo, el vector esfuerzo y flujo a la salida (e 2 ,f) es igual al vector
esfuerzo y flujo a la entrada multiplicado por una matriz de transferencia

123
tal que el esfuerzo a la entrada es multiplicado por un factor r (v en el caso de las reacciones químicas) y
que el flujo a la entrada es multiplicado por 1/r de modo que los productos efi, y e2¡2 sigan siendo iguales.
Por lo que concierne a las conexiones 0 y 1, se trata de un tema mucho más fundamental, y constituye una
de las innovaciones de los gráficos de unión.
Se ha podido mostrar que estas conexiones son, de hecho, formas cómodas de escribir las dos leyes de
Kirchhoff, bien conocidas en electricidad. Se trata, por una parte, de la ley de los nudos o ley de las
corrientes que dice que en un nudo de la red, en cada instan-te, las cargas se conservan de modo que la
suma algebraica de las corrientes es nula: la suma de las corrientes que entran en un nudo es igual a la
suma de las corrientes que salen; por otra parte, la ley de las mallas o ley de los voltajes que dice que en
una malla, en cada instante, la suma de las diferencias de potencial es nula. De hecho, estas leyes son
generales y su validez no está restringida en modo alguno a los fenómenos eléctricos. En efecto, la ley de
las corrientes expresa sencillamente la conservación de lo que circula. La materia, las cargas que circulan
no desaparecen ni son creadas y siempre que pueda admitirse tal conservación será válida la ley de las
corrientes. Por lo que se refiere a la ley de los voltajes expresa algo un poco más sutil que es la unidad de
potencial. Eso quiere decir que puede asignarse a cada punto del espacio, en cada instancia, un valor único
de potencial de forma que una diferencia entre dos potenciales será el esfuerzo responsable de la corriente
durante ese instante.
En la medida en que se admite que esfuerzos y flujo varían en el tiempo los potenciales se modifican
evidentemente, pero se admite que siempre es posible definir intervalos de tiempo lo bastante pequeños
como para que el potencial en cada punto pueda considerar-se como constante. De hecho, esta hipótesis es
sólo otro modo de expresar lo que en termodinámica se conoce como la «hipótesis del equilibrio lo-cal»:
aunque se trate de sistemas que no están en equilibrio y/o que ni siquiera estén en el estado estacionario
del no-equilibrio, es decir, en los que el valor de los esfuerzos y los flujos pueda variar de forma constante
en el tiempo y en el espacio, se supone que cada volumen elemental y durante un pequeño intervalo de
tiempo —y es eso lo que designamos
por «un punto en un instante»— está en equilibrio. Es una hipótesis que, generalmente, se hace en la
termo-
124
dinámica de los fenómenos irreversibles. Su significación física es que es Posible reticular una red de
modo tal que se puedan considerar elementos de volumen lo bastante pequeños como para que sus
tiempos de relajación internos sean mucho más cortos que los del sistema entero, de forma que puedan
alcanzan sin cesar su equilibrio local mucho más deprisa que el conjunto del sistema. (Por otra parte,
estos elementos de volumen deben ser lo bastante grandes como para que las fluctuaciones
microscópicas sean consideradas desdeñables.)
Es evidente que no siempre es posible este caso y en procesos muy rápidos, como las explosiones, por
ejemplo, no se puede, en principio, admitir esta hipótesis, de forma similar a como en electricidad las
frecuencias muy altas introducen problemas particulares en el nivel de los conductores desdeñados, sin
embargo, en las frecuencias bajas. También ahí, por la misma razón, el tiempo necesario para que la
corriente sea conducida por un cable es demasiado largo como para que la red pueda seguir
«instantáneamente» sus cambios de alta frecuencia; dicho de otro modo, los tiempos de relajación de los
conductores son del mismo orden de magnitud que los del conjunto de la red.
No hay equilibrio local. Pero se sabe que en ese caso la teoría de las líneas puede ser utilizada, de forma
que se considera los propios cables conductores como redes reticuladas en elementos infinitamente
pequeños, lo que en principio podría utilizarse también en las redes no eléctricas.
Pero no entraremos ahora en la discusión de este punto que podría dar lugar a desarrollos seguramente
muy interesantes. Vol-viendo a las leyes de Kirchhoff, se ve que su generalidad es bastante grande
porque se trata por una parte de una ley de conservación y, por la otra, de una ley de la unidad de
potencial equivalente a la hipótesis del equilibrio local. Dicho de otro modo, estas leyes no están ea
absoluto restringidas a los fenómenos eléctricos y, evidentemente, tampoco están restringidas al carácter
lineal o no lineal, en coeficientes constantes o variables en el tiempo, de los elementos de la red: estos
elementos son válidos sean cuales sean las relaciones constitutivas de los elementos de la red.
Una de las propiedades más notables de los gráficos de unión es que las dos leyes de Kirchhoff pueden
escribirse de modo automático a partir de la representación de las conexiones 0 y 1 ( véase fig. 5).
La conexión 0, o conexión en paralelo, permite escribir la ley de las corrientes como un nudo en los
gráficos habituales: la suma

125
algebraica de los flujos en las uniones que entran o salen de una conexión 0 es nula, lo que se
escribe: Yfu = 0.
Pero la unidad de potencial (es decir, la otra ley) se expresa también en una conexión en paralelo por el
hecho de que los esfuerzos en las uniones conectadas por una conexión 0 son iguales, al igual que la
diferencia de potencial en los bornes de varios elementos conectados en paralelo es la misma. Por lo que
concierne a la conexión 1, o conexión en serie, ocurre lo contrario: como en la ley de las mallas, la suma
de los esfuerzos es igual a cero y la corriente que atraviesa varios elementos en serie es la misma.
Así, esta representación de las vinculaciones por estos elementos multipuertos particulares que son las
conexiones permite escribir las dos leyes de Kirchhoff como en la figura 5: alrededor de una conexión
0, todos los esfuerzos son iguales y la suma de los esfuerzos es nula.
Utilizando este formalismo, es posible representar no sólo sis-temas mecánicos o electromecánicos, sino
también reacciones químicas y fenómenos de transporte. Es posible, pues, generalizarlo a cualquier
fenómeno complicado descrito por transformaciones (generalizando las reacciones químicas) y
transportes.
Existe un programa de ordenador 66 que permite leer un gráfico de unión y escribir de modo algorítmico
las ecuaciones de estado del sistema. Este programa está ya completo y es operativo por lo que concierne
a sistemas lineales en coeficientes constantes. Su extensión a sistemas no lineales acaba de realizarse 67.

4.4. Termodinámica y simulación analógica


Es importante subrayar que este método no supone construir modelos analógicos, como muestra el
ejemplo de los condensadores químicos.
En efecto, en una mezcla de substancias, cada tipo de moléculas se caracteriza por un potencial químico |i
—que expresa la energía química por mol— y ese potencial químico está vinculado a la con-
66
D. O. Karnopp y R. C. Rosenberg, System Dynamics: a unified approach, East Lansing, Mich., University of Michigan Press,
1971.
67
J. J. Van Dixhoorn, «Simulation of bond graphs on minicomputers», Journal of Dynamic Systems, Measurement and Control,
99, págs. 9-14.

126
centración c = n/v (siendo n el número de moles y v el volumen) por la relación 20 ^=^0 + RT Lnc
Y es fácil ver que esta relación es una relación capacitativa del tipo ¥c(e, q) = 0.
En efecto, en mezcla química, una variación de dn/dt de la cantidad de esta substancia representa un flujo
(puede tratarse de una corriente de difusión si esta variación se debe a un transporte de materia, o de una
corriente química si esta variación se debe a una transformación por una reacción química).
El esfuerzo responsable de este flujo es siempre una diferencia de potencial químico: bien diferencia de
potencial de una misma substancia responsable de la difusión de esta substancia o bien diferencia de
potencial de substancias distintas, susceptibles de reaccionar químicamente, lo que representa la afinidad
de la reacción y es responsable de la propia reacción.
Siempre es posible arreglárselas para elegir un potencial de referencia en relación al cual se miden los
demás, de forma que si se pone a cero los demás potenciales se convierten en diferencias, de tal modo que
|i en esta relación representa un esfuerzo e. Si dn/dt representa un flujo, n es la integral de este flujo, es
decir, un desplazamiento q.
Esta relación es, pues, de forma capacitativa puesto que vincula un esfuerzo a un desplazamiento n.
Y la capacidad de un condensador químico puede, pues, escribirse así:
_ Se _ c ~6¡r ~
RT
Se ve, de paso, cómo esta capacidad depende de la concentración, no es constante, al revés de lo que
ocurre en un condensador lineal (eléctrico, por ejemplo, u otro).
Sea como sea, el condensador químico así representado no es un circuito eléctrico que represente de
modo analógico las propiedades químicas: es un modo directo de escribir una relación de la termo-
dinámica química en un formalismo generalizado al conjunto de los fenómenos físico-químicos.

4.5. Generalización a otros campos

Una cuestión importante es, evidentemente, la de saber en qué medida este formalismo puede
extenderse a otros campos, por ejemplo, sociales, económicos, psíquicos, donde podrían definirse
corrientes y fuerzas.
La única limitación seria reside en la necesidad de las leyes de conservación del tipo conservación de
20R = Constante de los gases perfectos, T = Temperatura, Ln = Logaritmo neperiano
127
la masa y de la energía que permiten escribir las leyes de Kirchhoff. Sin embargo, tal vez sea posible
dar un paso adelante gracias a la definición de la cuasi-potencia como magnitud de «conservación» en
los sistemas donde la noción de energía física no es directamente aplicable. Volveremos a ello al tratar
del teorema de Tellegen.

4.6. Aplicaciones al análisis de sistemas biológicos

Entre tanto es posible interrogarse sobre las condiciones de validez del método aplicado a los sistemas
biológicos.
Dos tipos de situaciones muy distintas pueden encontrarse:

— Sistemas parciales, artificialmente separados en el tiempo y el espacio por las


condiciones experimentales: el método se aplica sin problemas especiales.
— Sistemas observados globalmente (como un organismo, incluso unicelular, en curso de
diferenciación) en condiciones de evolución no controlada por la experimentación.

4.6.1. Ejemplos de sistemas parciales

Un primer ejemplo de aplicación de un sistema bien conocido experimentalmente es el de las


oscilaciones de relajación que pue-

128
den observarse a través de una membrana cargada que separa dos compartimentos que contienen una
solución salina de distintas concentraciones, cuando se la hace atravesar por una corriente continua
constante. La corriente de difusión de la sal se acopla a la electro-ósmosis y se pueden observar las
oscilaciones de presión en los compartimentos y las de la resistencia eléctrica en la membrana. Un
gráfico de unión de este sistema ha permitido calcular estas oscilaciones y el acuerdo con las
oscilaciones observadas es por completo satisfactorio 69.
Un segundo ejemplo es el de la conversión de la energía química en calor por cierto tipo de células de
los tejidos grasos de jóvenes mamíferos especializados en la regulación térmica. Se trata de gran
número de reacciones acopladas entre sí y con transportes de iones y una producción de calor. La
fuente de energía es el ATP cuya hidrólisis produce calor. La termogénesis depende, pues, de la
síntesis del ATP. Pero la hidrólisis del ATP sirve también de fuente de energía para el transporte activo
de iones Na+ y K+ a través de la membrana celular. Esta compensa las fugas pasivas de estos iones a
través de la membrana y mantiene así en estado estacionario las diferencias de
concentraciones iónicas entre el interior y el exterior de la célula. De este modo, una modificación de la
permeabilidad de la membrana a estos iones produce una modificación de las fugas Y del trabajo de la
bomba como consecuencia y así, las variaciones de las resistencias membranales y de las corrientes
iónicas a través de la membrana pueden producir modificaciones de la termogénesis. Estamos, por tanto,
ante una red de reacciones acopladas con numerosos lazos de retroacción, que se producen, además, en
tres campos de energía: química, eléctrica, térmica. La termodinámica de redes y los gráficos de unión han
sido utilizados por J. Horowitz y R. Plant 70 para dar cuenta de ellos cuantitativamente. Estos mismos
autores, más recientemente, han aplicado el mismo formalismo a la representación del funcionamiento de
las mitocondrias, que habíamos descrito brevemente antes 71, así como al de la famosa «bomba>>),
69
G. F. Oster y D. Auslander, «Topological Representations of thermodynamics systems, II: some elemental subunits for
irreversible thermodynamics», Journal of the J. Franklin Institute, 1971, 292-77.
70
J. M. Horowitz y R. E. Plant, «Controlled Cellular Energy Conversion in brown adipose tissue thermogenesis», American
Journal of Physiology, 235 (3), 1978; págs. R121-R129.
71
Véase pág. 102 y J. M. Horowitz y R. E. Plant «Simulation of coupling bet-
129
de sodio y de potasio por la que se da cuenta de buen número de propiedades de transporte activo en las
membranas celulares.
Nosotros mismos estamos trabajando en un fenómeno de acoplamiento bastante semejante entre el
transporte de potasio a través de una membrana celular y las reacciones de síntesis proteínica en el
interior de la célula. También ahí parece que el acoplamiento haga intervenir con gran sensibilidad en las
tasas de producción y de degradación del ATP 72.
Se trata de ejemplos de regulación de funciones celulares por las variaciones de las corrientes de
transporte, o de reacciones eventualmente amplificadas por su acoplamiento con otras reacciones en la red
celular. Las propiedades son nuevas con respecto a aquéllas a las que nos había acostumbrado la biología
molecular donde la regulación se efectúa más bien en la forma de todo o nada, por la existencia o la
ausencia de receptores moleculares específicos, y donde la señal está entonces constituida por la presencia
de una molécula con estructura espacial bien determinada. Aquí, por el contrario, la señal está constituida
por la modulación de una corriente en la entrada de una red.
Más recientemente, J. Schnakenberg73 ha propuesto extender este formalismo al conjunto de la cinética
enzimática. Finalmente, se comienza a aplicar esta técnica a la modelización de flujos acoplados a través
de las membranas fisiológicas74. Parece, pues, que
ween chemical reactions and ion transport in brown adipose tissue using network thermodynamics», Computer Programs in
Biomedicine, 8, 1978, págs. 171-179.
72
H. Atlan, «Source and transmission of information in biological networks», op. cit.; M. Herzberg, H. Breitbart y H. Atlan,
«Interactions between membrane functions and protein synthesis in reticulocytes», European Journal of Bioche- mistry, 1974,
págs. 161-170; H. Atlan, R. Panet, S. Sidoroff, J. Salomon, G. Weisbuch, «Coupling of ionic transport and metabolic reactions in
rabbit reticulocytes. Bond Graph representation», Journal of the Franklin Institute, 34, 1979; R. Panet y H. Atlan, «Coupling
between potassium efflux, ATP metabolism and protein synthesis in reticulocytes», Biochem. Biophys. Res. Com., 88, 1979, págs.
619-126.
73
J. Schnakenberg, Thermodynamic Network Analysis of Biological Systems, Berlín, Springer-Verlag, 1977.
74
D. C. Mikulecky, «A simple network thermodynamic method for series-parallel coupled flows. II. The non linear theory with
applications to coupled solute and volume flow in a series membrane», Journal of Theoretical Biology, 69,
1977, págs. 511-541; D. C. Mikulecky y S. R. Thomas, «A simple network thermodynamic method for series-parallel coupled
flows. III. Application to coupled solute and volume flows througs epithelial membranes», Journal of Theoretical Biology, 1978,
73, págs. 697-710; D. C. Mikulecky y S. R. Thomas, «A Network thermodynamic
130
puede predecirse una multiplicación relativamente rápida de las aplicaciones de la termodinámica
de redes a problemas biológicos de complejidad media donde se siente una necesidad de modeliza-
75
ción.

4.6.2. Sistemas observados en su totalidad: problemas nuevos de control y de regulación Dos ejemplos
nos servirán para señalar nuevos problemas planteados en el análisis de los sistemas por la observación de
sistemas naturales completos, como los organismos vivos en su totalidad. El uno se refiere a los
mecanismos de control y de regulación, el otro a las redes de estructura variable. Habitualmente, control y
regulación están asegurados por señales que modulan parámetros de la red, por ejemplo, una válvula en un
circuito hidráulico o un interruptor regulado por un termostato en un circuito eléctrico. Lo propio de estos
mecanismos es que, por lo general, sólo consumen una energía mínima con respecto a la que se pone en
juego en la red como consecuencia de su acción. De ahí la costumbre de separar, en la representación de
las redes, los circuitos de información por donde pasan las señales de los circuitos de energía. En el
formalismo de los gráficos de unión los circuitos de información están también separados y representados,
por ejemplo, por flechas de puntos que se denominan uniones activadas. Su significación es la transmisión
de una señal en la forma de un esfuerzo o bien de un flujo, pero no de ambas, de modo que ningún
transporte de energía se vea implicado. Esta señal actúa sobre un elemento tal como la resistencia, el
transductor, etc., para modular un parámetro característico que se convierte en una función del esfuerzo o
del flujo en cuestión.
Así es como, en una reacción química elemental, la transformación de reactivos en productos en el nivel
intermedio del complejo activado puede ser representada por la transmisión de una señal
model of salt and water flow across the kidney proximal tubule», American Journal of Physiology, 1978, 235 (6), págs. F638-
F648; D. C. Mikulecky, E. G. Huf y S. R. Thomas, «A network thermodynamic approach to compartmental analysis»,
Biophysical Journal, 1979, vol. 25, núm. 1, págs. 87-105.
75
Véase «Bond Graphs in Biology», número especial de Computer Programs in Biomedicine, 8, 1978, págs. 145-179.

131
por una unión activada 76. El valor de la corriente de reacción es transmitida del campo de los reactivos al
de los productos sin que esta transmisión sea acompañada de conversión o transporte de energía. Del
mismo modo, una reacción enzimática o de catálisis puede ser representada por la modulación de la
resistencia química por la que la corriente (o velocidad) de reacción puede ser modificada por la afinidad
química constante. También ahí, la actividad de la enzima nada tiene que ver con la energía de reacción.
Esta actividad depende de la concentración de enzimas, pero, sobre todo, del estado de conformación de la
proteína que constituye la enzima. A veces es posible actuar sobre este estado y, por tanto, sobre la
actividad, haciendo variar, por ejemplo, la concentración de ciertos iones —que aparecen así como una
variable de control de la reacción— actuando desde el exterior de la red y sobre la red constituida por la
propia reacción77. Se representará también el efecto de esta concentración de iones por una flecha
puntillada que indica cómo debe modificarse la resistencia en función de esta concentración. La
separación entre corriente de energía y corriente de información es evidente: la señal actúa modificando el
estado de configuración de una macromolécula —la enzima— lo que se trata, evidentemente, de una
modificación de la entropía de configuración que nada tiene que ver con las variaciones de energía
química que se producen durante la reacción.
Hasta aquí, la situación es bastante clara y las redes químicas y físico-químicas hacen aparecer
mecanismos de control y de regulación que en nada fundamental se diferencian de los que se
observan en las otras redes artificiales.
Pero la situación es ya algo más complicada cuando se comprende que las resistencias y las
capacidades químicas no son casi nunca lineales —salvo en situaciones absolutamente especiales—
puesto que, como hemos visto, son siempre función de las concentraciones de las substancias que
participan en la reacción, y estas, evidentemente, cambian como consecuencia de la misma. Estas
nolinealidades y esta dependencia de las concentraciones complican, evidentemente, el análisis, sin
que, no obstante, las dificultades sean
76
J. U. Thoma y H. Atlan, 1977, «Network thermodynamics with entropy stripping», Journal of the Franklin Institute, 303, 4,
págs. 319-328.
77
H. Atlan, 1973, «Source and transmission of information in biological net-works», op. cit.; 1976, «Los modelos dinámicos
en redes y las fuentes de información en biología», op. cit.

132
insuperables, si se apela a los métodos de resolución numérica por ordenadores. Pero, en cambio, las
no-linealidades son ricas en posibilidades inmediatas de autorregulación porque las retroacciones se
realizan, en ellas, de golpe. Por otra parte, en este tipo de controles y de regulaciones de reacciones
mediante cambios de concentraciones, éstas son, a su vez, resultados de reacciones —bien de la misma
o bien de otras reacciones acopladas—. En estos casos, cuando se aborda no ya una sola reacción
enzimática aislada, sino un sistema biológico global donde la actividad enzimática es, ella misma, el
resultado de los productos de las reacciones no puede afirmarse que la separación entre las corrientes de
información y las corrientes de energía sea tan nítida. Este sena otro modo de encontrarnos con una
predicción de Brillouin según la cual a partir del momento en que enormes cantidades de información
fueran transmitidas, el factor 10-'6 no sería ya suficiente para hacerlas desdeñables en unida-des de
energía, y su hipótesis era entonces que esta situación podría muy bien encontrarse en biología 78.
4.6.3. Redes de estructura variable
El segundo ejemplo de problemas planteados por los sistemas observados en su totalidad es el de las
redes de estructura variable 79. Hasta aquí, las técnicas de análisis de las redes artificiales habían
evolucionado desde las redes lineales hasta las redes de coeficientes variables y, por último, hasta las
redes no lineales.
Pero, al parecer, si se quiere dar cuenta de las propiedades de desarrollo, de evolución y de adaptación
de Ios organismos, debe franquearse una etapa más abordando redes de estructura variable. Dicho de
otro modo, la topología, es decir, las conexiones de la red, debe ser planteada de forma que cambie
como resultado del funcionamiento de esta misma red, y el análisis debería prever tales cambios. Así,
en la evolución de un estado a otro, la propia topología no es ya fija y' forma parte de las variaciones de
los estados. Esto es una observación trivial en lo que respecta a una célula en trance de modificarse o a
un organismo en trance de constituirse, pero, por lo
78
Véase H. Atlan, L'Organisation biologique, op. cit.
79
H. Atlan y A. Katzir-Katchalsky, «Tellegen's theorem for bondgraphs. Its relevance to chemical networks», Currents in
Modern Biology, 1973, 5, 2, págs. 55-65.

133
general, no se realiza en redes artificiales cuyo hardware es fijo —o modificado desde el exterior por
los hombres y entonces se trata de una nueva red— y no modificado como consecuencia del
funciona-miento de la propia red.
Por ello, las técnicas habituales de análisis de las redes no se han ocupado hasta ahora de esta
cuestión. Pero el problema está planteado y algunos elementos bastante dispares, por el momento, ya se
han desarrollado y tal vez puedan permitir el abordarlo.

4.6.4. Cuasi-potenciay teorema de Tellegen


Una primera aproximación consiste en buscar teoremas de invarianza. Un curioso teorema, debido a
Tellegen, ha aparecido recientemente como un primer teorema de invarianza en lo que sería una teoría de
las redes de estructura variable.
Se trata de un teorema bien conocido, muy empleado en el análisis de las redes 80, que en líneas
generales dice que si la red es cerrada, la suma de los productos de los flujos f sobre cada rama por las
diferencias de potencial e entre los extremos de la rama correspondiente es nula en cada instante
Xef=0

El interés de este teorema estriba en que, bajo esta forma de conservación de la potencia, sólo representa
un caso particular. Su forma general es la de un teorema de conservación de una cantidad abstracta
llamada «cuasi-potencia» donde e para cada rama no es necesariamente una diferencia de potencial
conjugada con el flujo, sino que puede ser reemplazada por la diferencia entre dos valores numéricos
cualesquiera asignados en cada instante a los nudos, extremidades de la rama.
Bajo esta forma este teorema puede demostrarse fácilmente si se considera una rama AB de una red,
recorrida por un flujof* (no forzosamente eléctrico) cualquiera (fig. 6).
Basta que lo que circule por la red obedezca a una ley de conser-
80
B. D. H. Tellegen, «A general network theorem with applications», Philips Research report, 1952, págs. 259-269. P. Penfield,
R. Spence y S. Duinker, Tellegen's Theorem andElectricalNetworks, Cambridge, Mass., MIT Press, 1970.

134
vación para que pueda aplicarse en cada nudo la ley de Kirchhoff sobre las corrientes, es decir:

Zf
(A) = 0
suma de las corrientes alrededor del nudo A, y
Zf
(B) = 0

alrededor del nudo B.


Si se asigna respectivamente en A y B, en un instante cualquiera, un valor numérico cualquiera PA y PB,
nada impide escribir:
P
A 'Zf(A) = 0 y P(B) X f(B) = 0
o también:
PA X f(A) + P(B) X f(B) = 0 Esta última suma puede reescribirse de
otro modo al comprobar quef* está presente dos veces, una vez con un signo menos como flujo saliendo
de A, y una vez con un signo más como flujo entrando en B. Puesto que la red se supone cerrada, esto es
cierto en todas las corrientes de ramaf*. Es posible, pues, reestructurar la última suma agrupando, de dos
en dos, los términos que contienen la
misma corriente con signos opuestos, y resulta:

I (PA—PB)f*=0= Ief

135
donde e como diferencia de potencial conjugada a un flujo f sólo representa el caso particular trivial de
conservación de la potencia.
Este teorema tiene una gran generalidad y es muy utilizado en el estudio de las redes no lineales, pues
sólo depende de las leyes de Kirchhoff instantáneas y no de las características de los componentes.
Bajo esta forma de cuasi-potencia puede aplicarse a las redes de reacciones químicas y de difusión
dividiendo el espacio en compartimentos donde se efectúan las reacciones y considerando la difusión de
un compartimento a otro. Se escribe entonces el teorema considerando como flujo f las corrientes de
difusión JD de un compartimento a otro. Se elige entonces como «potenciales» los valores de las
corrientes químicas JR en cada instante en cada compartimento, de modo que las diferencias de
velocidades de las reacciones AJR desempeñan el papel de las diferencias de potenciales e conjugadas
con las corrientes de difusión 81. El teorema, bajo esta forma de cuasi- potencia se escribe entonces:

I JD A JR=0
Se creía, sin embargo, que al igual que las leyes de Kirchhoff, el teorema de Tellegen dependía de la
estructura de la red. De hecho, hemos podido mostrar que su validez se extiende también a redes de
topología variable y ello es un resultado directo de los gráficos de uniones. En efecto, si se expresa este
teorema en un gráfico de unión, se puede demostrar que sigue siendo válido si se cambian las
conexiones 0 y 1. Dicho de otro modo, esta cantidad ef, llamada cuasi-potencia, se conserva no sólo
cuando los elementos son variables y no lineales, sino también cuando las propias conexiones entre esos
elementos son variables 82.
Se trata pues, y efectivamente, de un teorema de invarianza en redes de topología variable que
representa algo más que la simple conservación de la energía.
81
( H. Atlan, 1973, 1975, op. cit.
82
H. Atlan y A. Katzir-Katchalsky, op. cit.

136
III. HACIA REPRESENTACIONES SEMI-DETERMINISTAS: REDES ESTOCASTICAS Y
COMPLEJIDAD POR EL RUIDO
Paralelamente a la búsqueda de los teoremas de invarianza, otro punto de vista más general consiste en
preguntarse en qué condiciones las dos aproximaciones de que hemos hablado: la probabilista que
utiliza la teoría de la información y la determinista que utiliza la teoría de los sistemas dinámicos,
podrían completarse. Es posible que se encuentre una fuente de inspiración en este campo en los
recientes trabajos sobre los autómatas estocásticos 83 y sobre la estabilidad de los sistemas cuya
estructura es, parcialmente, indeterminada y aleatoria 84 El sistema es definido por sus ecuaciones de
estado, escritas en la forma vectorial habitual
[X] = A [X]
donde la matriz A representa la estructura dinámica y las conexiones. Ahora bien, en lugar de considerar
que sus elementos ay sean constantes (sistemas lineales) o sean funciones (sistemas no lineales) se
consideran como variables aleatorias que sólo son definidas globalmente por distribuciones de
probabilidades. En particular, la conectividad es definida por la probabilidad de que ai0 (para i^ j), es
decir, que la frecuencia de los coeficientes de acoplamiento sean distintos de 0 entre dos variables de
estado x, y x,. Estos autores han estudiado, en estas condiciones, la estabilidad del sistema, asintótico y
estructural. Evidentemente, dicha estabilidad sólo puede ser definida también con una probabilidad: un
sistema tiene una probabilidad mayor o menor de ser estable según la distribución de probabilidades de
estos coeficientes a, habiéndose obtenido ya resultados interesantes referentes a las relaciones entre la
estabilidad y la conectividad o complicación.
83
M. Milgram, «Models of the synaptogenesis: stochastic graph grammars», en Information and Systems, B. Dubuisson (Ed.)
(Proceed. IFAC Workshop, Compiegne, 1977), Nueva York, Pergamon, 1978, págs. 171-176.
84
M. R. Gardner y W. R. Ashby, «Connectance of large dynamic (cybernetic) systems: critical values for stability»,
Nature, 1970, 228, pág. 784. R. M. May, Stability and Complexity in model ecosystems, Princeton University Press, 1973,
Princeton. J.-P. Dupuy, «Autonomía del hombre y estabilidad de la sociedad», Economie appliquée, 1977, núm.
1.

137
Una trasposición de esta aproximación a la termodinámica de redes consistiría en tirar a los dados los
valores de los elementos constitutivos, y también la conectividad, es decir, la topología de la red.
Mientras tanto, los resultados del principio de complejidad por el ruido expuestos más arriba pueden ser
utilizados del modo siguiente: Gardner y Ashby, y luego May, pudieron demostrar que el aumento de
conectividad de un sistema (definido de modo probabilista) disminuye su probabilidad de estabilidad
asintótica. Aunque un sistema asintóticamente inestable pueda mantenerse en un esta-do estacionario
oscilante (ciclo límite), J.-P. Dupuy deduce que su probabilidad de estabilidad estructural debe
disminuir también con la conectividad. Resultado aparentemente paradójico que adquiere su sentido
cuando se advierte que una gran conectividad — que re-presenta una especie de redundancia— implica
una gran rigidez y, por tanto, una menor probabilidad de hallar condiciones favorables para la
estabilidad. Por el contrario, un sistema más flexible podrá, gracias a esta flexibilidad, conservar su
estructura pese a deformaciones provocadas por condiciones aleatorias. (Dos ejemplos extremos de
estas situaciones pueden, tal vez, hallarse en los cristales por una parte y las macromoléculas por otra.
Los primeros sólo mantienen su estabilidad en condiciones muy precisas de temperatura y solubilidad.
Las segundas, por el contrario, reaccionan a múltiples cambios de condiciones por cambios de
conformación donde se conserva su estructura macromolecular global.)
Supongamos, pues, un sistema cuya conectividad es grande y, por tanto, y apriori, débil la probabilidad
de estabilidad, pero cuya estructura particular lo hace, sin embargo, estable en lo que a él respecta.
Factores de ruido (si no lo destruyen en seguida como la temperatura a un cristal) aumentarán su
complejidad disminuyendo su redundancia. El resultado debiera ser un aumento a priori de su
probabilidad de estabilidad. Así, bajo el efecto conjugado de la relación redundancia- estabilidad
improbable y del principio de complejidad por el ruido, algunos sistemas redundantes y estables pueden
tener una notable evolución. Estables aunque redundantes, su estabilidad es el resultado de condiciones
excepcionales: gracias a su redundancia como potencial de auto- organización podrán reaccionar al
ruido aumentando su complejidad. Pero al mismo tiempo, su estabilidad se hace cada vez menos
excepcional, porque su redundancia disminuye. Se aproximan así al estado de probabilidad máxima

138
y, por tanto, de entropía máxima. Este proceso no es así, de hecho, distinto de la evolución de un
sistema vivo hacia la muerte median-te una creciente complejificación.
A fin de cuentas, todo es aquí muy coherente puesto que la entropía máxima equivale a una complejidad
máxima, como indica la identidad de signo de las fórmulas de Boltzmann y Shannon 85. La diferencia entre
la complejidad viva y la entropía muerta de un montón de moléculas sólo proviene del carácter funcional
de la primera para el observador de un individuo vivo. Este, de buenas a primeras, se supone organizado
cuando se lo percibe en función. Por ello, su entropía como falta de información sobre esta supuesta
organización es percibida como una complejidad funcional. Por el contrario, en el montón de moléculas
procedentes del cadáver en descomposición no se percibe de buenas a primeras organización alguna. Por
ello, su entropía no nos parece una falta de información sobre una organización que no le suponemos. Y si,
por alguna razón, quisiéramos reproducir ese montón desordenado tal cual es, con sus detalles
moleculares, entonces se nos aparecería de nuevo como de una complejidad máxima.
Sea como sea, y aunque esta aproximación sólo esté en sus comienzos, parece prometedora por estar
particularmente adaptada a nuestra situación real de observadores de sistemas naturales. Sabemos que no
los conocemos suficientemente como para que descripciones estrictamente deterministas den cuenta de
ellos en todos sus aspectos, especialmente en los ligados a su organización en niveles jerarquizados y más,
generalmente, en su «clausura informacional» 86, pero, al mismo tiempo, sabemos lo bastante sobre ciertos
procesos de los que son sede como para intentar, al menos local-mente, descripciones deterministas. Por
ello, una eventual síntesis de una teoría determinista del tipo de la termodinámica de redes y de una teoría
probabilista de la organización del tipo de la que ha sido expuesta más arriba debiera ser fructífera en el
análisis de tales sistemas auto-organizados, donde algo —aunque no todo— nos es conocido de sus
estructuras y funciones.
85
Véase más arriba, págs. 81-82.
86
F. Varela, Principles of biological autonomy, op. cit.

139

Segunda parte EL ALMA, EL TIEMPO, EL MUNDO «Evidencia de la cosa, humo (¿de señalización?),
testimonios fieles (del orden ubicuo): el mundo, el año, el alma del cuerpo (...).»
«El dragón reina en el mundo como un rey en su trono. La rueda
reina sobre el año como un rey sobre el Estado. El corazón reina
sobre el cuerpo como un rey en guerra», Sefer Yetsira, cap. 6.
«...No hay rey sin pueblo», Rabeinou Be'hayié sobre el Génesis,
XXXVIII, 30.

141
5
CONCIENCIA Y DESEOS EN LOS SISTEMAS AUTO-ORGANIZADORES1 Desde hace varios años se
anuncia la muerte del hombre. Lúcidos y brillantes ensayos que analizan el proceso producen a menudo un
santo horror en la medida en que expresan, al mismo tiempo que lo fundan, el fin de los humanismos. Tal
vez sea interesante, en este contexto, intentar precisar lo
que queda después de que el hombre haya desaparecido, utilizando para ello algunos conceptos
brotados de la lógica de los sistemas auto-organizadores.
En efecto, es el Hombre, como sistema cerrado, quien ha des-aparecido; algunos sistemas
cibernéticos abiertos, auto-organizadores, son los candidatos a su sucesión.
El hombre, cuya desaparición anunció Michel Foucault y cuya imagen a modo de sistema cerrado ha
dominado el siglo XIX y la primera parte del XX, se ha percibido como detentador único de la razón
todopoderosa y omnipotente para dar cuenta del resto del mundo. El hecho de que la existencia de este
hombre y el funcionamiento de su razón sean partes integrantes de este mundo era, es cierto,
reconocido, pero como un subfenómeno del que sólo algunos biólogos y neurofisiólogos parecían
ocuparse, dando por supuesto que no tocaban, al hacerlo, la esencia del hombre, residuo por definición
inaccesible y no reductible y responsable en cambio de todas las manifestaciones bien de espontaneidad
imprevisible y creadora o bien de racionalidad u orden.
Dado que la religión ya no podía sobrevivir a la muerte de Dios, muerte anunciada y vivida cada día por
unos individuos en el Occidente cristiano, un nuevo culto al servicio del desarrollo del Hombre, como
entidad abstracta, origen y fin de todas las cosas, viene a desarrollarse como un «programa»
1
Este texto fue publicado en varias partes en las actas del coloquio sobre La unidad del hombre, Royaumont, 1973, E. Morin y
M. Piattelli-Palmarin (Eds.), París, Editions du Seuil, 1975. Se da aquí en su composición original.

142
inevitable. Sin embargo, hoy, este humanismo ya no es defendible, pues la imagen del Hombre estalla
por todas partes.
Por una parte, sus realizaciones más prestigiosas —la ciencia y la técnica— parecen escaparse y
volverse contra él. De hecho, si ciencias y técnicas son creadas por ciertos individuos, son otros quienes
las aplican y estas mismas aplicaciones son utilizadas y manipuladas también por Otros, a veces a
expensas de todos. En cualquier caso, no existe un hombre que utilice su razón para crear y gestionar de
modo consciente y coherente los útiles de dominación de la naturaleza, sino una multitud de individuos,
más o menos dotados de razones y apetitos, más o menos semejantes y más o menos antagonistas que se
asocian y se combaten al hilo de sus encuentros.
Por otra parte, estos mismos individuos analizados en lo que
parece serles común no pueden ya ser vistos como hipótesis de ese hombre omnipotente en principio, de
forma que sus imperfecciones sólo fueran la expresión de una parte animal —no humana— que
estuviera en ellos. Por contrario, los descubrimientos —o redes-cubrimientos— de la vida del
inconsciente y de los motivos inconscientes de los discursos y las acciones de los hombres, hundiendo
profundamente sus raíces en este mundo llamado animal, estuvieron en la base de los primeros golpes
propinados en nombre de la ciencia a esta imagen del hombre creador de sus discursos y de sus acciones
y dominando, con ellos, un mundo de la naturaleza al que, por esencia, habría trascendido. Hoy, muchos
otros argumentos, procedentes de nuevos descubrimientos en etnología, sociología comparada,
lingüística, estética, biología y antropología, han terminado de destruir esta imagen. El resultado es que,
mientras algunos intentan analizar y disecar los aspectos más ocultos del fenómeno en el plano de la
epistemología, otros, periódicamente aterrorizados por cierto signo espectacular de tal desaparición —
por ejemplo, injertos de órganos vitales extrapolados a futuros injertos del cerebro, o manipulaciones en
genética humana a lo Aldous Huxley, etc.—, lloran sobre el fin de los humanismos, sin poder imaginar
que algo benéfico pueda brotar del final de una ilusión.
Entre las ideas que han contribuido y siguen contribuyendo a destruir la ilusión del hombre creador de
su discurso y de sus acciones —y por ello, pues, «minar la moral» de muchos de nuestros
contemporáneos—, los descubrimientos sucesivos de la importancia del azar en la organización de
los seres vivos ocupan un lugar privi-

143
legiado. Gozan en efecto, ahora, de una gran resonancia entre el público, pues se benefician del
apriorismo de confianza concedido a la biología que se considera, con razón o sin ella, como una
ciencia más exacta que las ciencias humanas.
Es también interesante preguntarse cómo la lógica de los sistemas abiertos auto-organizadores, en los
que un azar organizativo, expresado en un principio de complejidad por el ruido (Von Foerster, McKay,
Ashby, Atlan) 2, desempeña un papel cada vez más evidente, puede extenderse al campo en que los
principios de organización de la materia viva parecen haberse aplicado con un máximo de complejidad,
de refinamiento y de eficacia, a saber, en nuestro funcionamiento psíquico. Muy esquemáticamente,
este principio implica que la redundancia y la fiabilidad de un sistema complejo le A permiten, a partir
de un cierto valor de tales parámetros, reaccionar ante agresiones aleatorias —habitualmente
destructoras para sistemas más simples— por una desorganización recuperada y seguida de una
reorganización en un nivel de complejidad más elevado, midiéndose éste por una riqueza mayor en
posibilidades de regulación con adaptación a nuevas agresiones del entorno. Todo ello, evidentemente,
y hasta un cierto punto en el que los efectos destructores y acumulados en el tiempo de estas agresiones
aleatorias productoras de errores no puedan ser ya sobrecompensados por estos efectos autonomizantes
y complejizantes de la auto-organización. Entonces, la acumulación de errores que hasta ese punto
había nutrido el tiempo de la invención y de la novedad se convierten en lo que precipita al sistema en
su tiempo de envejecimiento y de destrucción.
Estos mecanismos de creación y de organización a partir del ruido actúan, con toda evidencia, en los
procesos de la evolución de las especies por mutación-selección si se tiene en cuenta el carácter
orientado de la evolución. En efecto, algunas mutaciones al azar han desembocado no sólo en nuevas
razas susceptibles de verse favorecidas por las presiones de un nuevo medio, sino también en nuevas
especies donde nos vemos obligados a admitir que ciertas mutaciones o, incluso, accidentes
cromosómicos han sido anteriormente recuperados en un nivel de integración, más complejo que el
precedente, antes de poder manifestarse como caracteres favorables
2
Las referencias bibliográficas, indicadas por corchetes [], se han reunido al final del capítulo.

144
desde el punto de vista de las presiones selectivas, bien de un nuevo medio o bien del mismo medio.
Pero estos mecanismos actúan también en los procesos del aprendizaje, en lo que Piaget llama la
asimilación —usando voluntariamente un término con resonancia a la vez psicológica y biológica —.
Aparecen en la mezcla de determinismo y aleatoriedad que caracteriza tanto la organización cerebral
como las máquinas de aprender cuyas funciones se aproximan más a las del cerebro (Perceptrón de
Rosenblatt, Informón de Uttley). Finalmente, no está excluido que actúen también a los niveles celular
y del organismo en los mecanismos del desarrollo y de la adaptación.

I. CONCIENCIA Y VOLUNTAD EN SISTEMAS ABIERTOS AUTO-ORGANIZADORES Si


intentamos, por tanto, extender estas ideas a la lógica de nuestro funcionamiento psíquico nos vemos
abocados a preguntar-nos, en particular, ¿a qué corresponden nuestra conciencia y nuestra voluntad, en
tanto que son sentidas no sólo como conciencia del mundo exterior y voluntad de acción, sino también
como conciencia de sí y voluntad de ser? Dicho de otro modo, ¿a qué corresponde lo que cada uno de
nosotros siente como fuente de nuestra determinación —nuestro programa?— si somos sistemas auto-
organizadores donde la invención y la novedad aportadas por el tiempo que transcurre proviene de
hecho de una acumulación de sacudidas contingentes?

1. El deterninismo y su fundamento en la reversibilidad del tiempo


En nombre mismo de esta lógica de la auto-organización que otorga un lugar central a la irrupción de lo
radicalmente nuevo y de la creación —a partir no de la nada, sino del caos—, no podemos ya suscribir
la concepción puramente determinista, antigua hoy, según la cual estas sensaciones de autonomía sólo
serían pura ilusión en la medida en que todo sería sólo realización de un programa determinado durante
la constitución de nuestro aparato genético: la idea de que este programa contuviera todas las respuestas
previstas de an-

145
temano a tal o cual estímulo por el entorno, siendo todo producto de cadenas de causas y efectos, y cuya
causa primera podría hallarse, teóricamente, en los movimientos de las partículas elementales
constitutivas de la materia, es una secuela del determinismo mecanicista de Laplace. Esta concepción
está todavía viva en muchos biólogos cuando ha desaparecido ya de la física de los sistemas complejos,
donde el papel de las fluctuaciones aleatorias debe ser siempre tomado en consideración. Aunque,
durante el desarrollo de los organismos pueden encontrarse determinaciones rigurosas en cierto nivel de
generalidad y de aproximación, el lugar de lo aleatorio y, por tanto, de la posibilidad de lo nuevo y de lo
imprevisible sigue siendo grande en el nivel del detalle, y su papel efectivo aumenta cada vez más con
la complejidad y la riqueza de interacciones del sistema considerado. De este modo, el establecimiento
de las conexiones nerviosas rigurosamente determinadas en los ganglios nerviosos ultra-sencillos de los
moluscos deja en cambio paso a lo aleatorio del detalle, soporte probable de posibilidades de
aprendizaje, en los cerebros de los mamíferos. Como Bergson había visto muy bien, la concepción
determinista- mecanicista con, como corolario, el rechazo puro y simple de la conciencia autónoma y de
la voluntad libre como ilusiones espiritualistas, supone de hecho concebir el tiempo sólo bajo su aspecto
reversible —que es el de la mecánica— y no puede imaginar la posibilidad física de un tiempo-
invención.
Hoy podemos comprender cómo mediante la acumulación de errores superados todo ocurre como si el
tiempo aportara consigo un capital de novedad y de creación, lo que, entre paréntesis, debiera
permitirnos una relectura crítica, pero ciertamente fecunda de La evolución creadora. Es normal que
esta visión de las cosas no haya podido imponerse más que apelando a la intuición en una época en que
la noción del tiempo físico era dominada por la mecánica y, más generalmente, por la física de los
fenómenos reversibles. Se sabe, en efecto, que durante mucho tiempo, por razones de facilidad, la física
y la química desplegaron muchos más esfuerzos en la descripción y la explicación de los fenómenos
reversibles que en la de los fenómenos irreversibles, y en la medida en que los fenómenos naturales son
casi todos irreversibles, su descripción físico-química sólo ha sido posible, con frecuencia, separando —
en el espacio y el tiempo— varias partes consideradas, en una primera aproximación, como asimilables
a fenómenos reversibles. Y por ello el

146
tiempo de la física, que sirve con mucha frecuencia para describir fenómenos reversibles, perdió durante
un tiempo su dirección 21. Eso se ve de modo evidente en la teoría de la relatividad donde la dimensión
temporal del espacio-tiempo es tan reversible como las dimensiones espaciales 22. El tiempo físico sólo
encuentra su dirección en esta parte de la física mucho más reciente que es la de los fenómenos
irreversibles, donde la ley de variación irreversible de
entropía en el tiempo desempeña un papel por completo central, hasta el punto que se ha podido
afirmar que constituye «la punta de
la flecha del tiempo» (Eddington). Pero ahí, el papel de las fluctuaciones no puede ya desdeñarse y
todo el problema de la evolución irreversible de estos sistemas físicos se ve dominado por el de los
efectos de las fluctuaciones aleatorias sobre los sucesivos estados estructurales y funcionales de
sistemas abiertos mantenidos lejos de
su estado de equilibrio. En consecuencia, la novedad es realmente nueva, una conciencia de sí como
lugar de creación y de innovación,
de individualidad y de originalidad, por tanto, no puede ser sólo una pura ilusión.
2. Lo absoluto espiritualista y su ignorancia de los efectos organizadores del azar
Pero esta misma visión de las cosas que nos impide aceptar la vieja idea determinista mecanicista nos
impide también considerar
3
Katchalsky y Curran observan muy oportunamente que, en las leyes que rigen los fenómenos reversibles, el tiempo sólo
interviene por su cuadrado (por ejemplo, ecuación de propagación de las ondas) mientras que interviene por su potencia
unidad en la descripción de los fenómenos irreversibles (por ejemplo, ley de difusión del calor o de la materia). En el primer
caso, un cambio de (+t) en (—t) no cambia nada; en el segundo invierte la dirección del fenómeno [13].
4
O. Costa de Beauregard ha establecido un paralelo muy interesante entre los dos principios de la termodinámica, por una
parte, y la teoría de la relatividad y la irreversibilidad del tiempo por la otra. Si sólo nos atenemos al primer principio de
equivalencia de las distintas formas de energía, no damos cuenta de la especificidad del calor, tal como aparece en el
segundo principio de aumento de entropía; del mismo modo, si sólo nos atenemos a la teoría de la relatividad (equivalencia
de las dimensiones espacial y temporal), no damos cuenta de la especificidad del tiempo que constituye su irreversibilidad.
La descripción de lo real implica que se añada a los principios de equivalencia (1.° principio, relatividad) principios de
especificidad (2.° principio, irreversibilidad del tiempo), que tienen además, en común, la pro-piedad de orientar lo real [5].

147
la conciencia y la voluntad como especies de fuerzas extrafísicas, manifestaciones de punta de un
principio vital o «humano» misterioso que actúa en la materia y combate contra ella. Precisamente
porque esta visión nos da la esperanza de una comprensión cibernética de los organismos, que no es,
sin embargo, su reducción a máquinas programadas, sino que gracias al descubrimiento de fuerzas
organizadoras en los propios fenómenos aleatorios deja paso a un tiempo-invención en los propios
fenómenos físicos en la medida en que éstos alcancen un grado de complejidad del mismo orden que el
de los organismos vivos. Esperanza que no es ajena a lo que los progresos de la física de los fenómenos
irreversibles nos conceden: la comprensión en el marco de leyes físicas —a descubrir todavía, pero
presentidas ya 23— de los organismos vivos considerados como lugar de creación relativamente

21Memoria-conciencia y facultad inconsciente de auto-organización


22Si es cierto así que los datos inmediatos que tenemos sobre nuestra autonomía como seres
conscientes y dotados de voluntad no pueden ser considerados ni como puras ilusiones ni como un
absoluto, eso quiere decir que corresponden a una realidad que precisa ser explicada al estar unida a
otras realidades.
23Ya en el nivel celular, como ha analizado M. Eigen [8], algunos procesos enzimáticos de auto-
estables de entropía negativa.
5
Véanse los trabajos de Prigogine, de Morowitz [17], de Glansdorff y Prigogine [11], de A. Katchalsky [12]. Cuando esta
esperanza se haya realizado, entonces el tiempo físico —pero que será distinto del tiempo de la física de hoy y de ayer— se
habrá aproximado al tiempo biológico. Hemos visto que el tiempo de la física de los fenómenos reversibles está muy lejos
del tiempo biológico, pues ha perdido su dirección. Nos hemos acercado ya a él con el estudio de los fenómenos
irreversibles, pues la orientación del tiempo de los procesos vitales de envejecimiento y de muerte —con los caracteres
nuevos y relativamente imprevisibles que comportan— se haya indicado por la ley de aumento de entropía. La última
etapa tal vez sea franqueada cuando la orientación de los procesos de desarrollo y de evolución sea indicada por una o
varias leyes de disminución de entropía.

148
mantenerse con menos gasto pese a los efectos destructores, siempre presentes, de estas mismas
fluctuaciones. Pues bien, basta con extender estas ideas al campo de nuestras memorias corticales que
actúan en los sistemas auto-organizadores que somos para dar cuenta de lo que se nos presenta como
nuestra conciencia y nuestra voluntad.
Para ello es preciso contrariamente a la intuición inmediata de nuestra conciencia voluntaria (¿o
voluntad consciente?) disociar de modo radical, en un primer momento, lo que puede parecernos
voluntad de lo que puede parecernos conciencia. La auto-organización inconsciente con creación de
complejidad a partir del ruido debe ser considerada como el primer fenómeno en los mecanismos de la
volición dirigida hacia el porvenir, mientras que la memoria debe ser colocada en el centro de los
fenómenos de la conciencia. Por el contrario, la asociación inmediata y casi automática de nuestra
conciencia y nuestra voluntad en una conciencia voluntaria (o voluntad consciente) considera como la
fuente de nuestra determinación es la que tiene un carácter ilusorio a nuestro entender.
En efecto, las cosas que ocurren son raras veces las que hemos deseado. Parece que no seamos nosotros
quienes las hacemos, aun cuando sepamos que las hemos hecho. Y eso no debiera asombrar-nos porque
sólo nos sentimos «volitivos» con una parte de nosotros mismos —la conciencia voluntaria—, mientras
que, sin embargo, actuamos con la totalidad de nosotros mismos. Ahora bien, esta totalidad de nosotros
mismos parece escapársenos hundiéndose cada vez más en el abismo de lo desconocido a medida que se
desvela —cuando se desvela— el inconsciente. Y es que, de hecho, esa totalidad no puede ser conocida
—hecha consciente— como fuerza actuante orientada hacia el futuro por la simple razón de que se
constituye a medida que actúa, de forma imprevisible, determinada entre otras cosas por las agresiones
contingentes —pero indispensables— del entorno. Dicho de otro modo, la verdadera volición, aquella
que es eficaz porque es la que actúa —el pseudo-«programa» tal como aparece a posteriori—, la
verdadera volición es inconsciente. Las cosas se hacen a través de nosotros. La volición se sitúa en
todas nuestras células, más, precisamente, en el nivel de sus interacciones con todos los factores
aleatorios del entorno. Ahí es donde se construye el futuro.
A la inversa, la conciencia concierne ante todo al pasado. No puede haber en nosotros fenómeno de
conciencia sin conocimiento

149
en una u otra forma. Ya sea un conocimiento de tipo perceptivo, intelectual, intuitivo, directo o
indirecto, claro y distinto o vago y poco diferenciado, formulado o informulado, un fenómeno de con-
ciencia es una presencia de lo conocido. Ahora bien, sólo puede A haber conocimiento del pasado. A la
inversa, puede decirse que lo que llamamos pasado es lo conocido que no es —o ya no es— percibido
(en la medida que indentificamos percepción y presente) y que lo que llamamos futuro es,
sencillamente, lo desconocido. La conciencia, presencia de lo conocido es, pues, en nosotros presencia

organización proteínica necesitan, para ser eficaces, estar acoplados a mecanismos de replicación por
molde (cuyo soporte son aquí los ácidos nucleicos). Estos desempeñan el papel de memoria
estabilizadora que permite a las estructuras funcionales aparecidas durante las fluctuaciones
reproducirse y
del pasado. ¿No supone esto decir que la conciencia es nuestra memoria, en el sentido de la memoria de
un ordenador, que se manifiesta cuando es utilizada en una sucesión de
operaciones? Y hoy sabemos que no es necesario apelar a ningún principio metafísico para abordar un
fenómeno de memoria: Basta que un fenómeno físico presente una propiedad de histéresis —y tales
fenómenos son numerosos, siendo el magnetismo sólo el más conocido y el más utilizado en tecnología
— para que se presente una posibilidad de memoria, basta, además, que tal fenómeno esté estructurado de
modo que sea portador de información para tener una memoria realizada; y basta que este fenómeno se
integre de un modo cual-quiera a una máquina organizada para tener una memoria en funcionamiento.
Los hombres somos, por tanto, «sistemas auto-organizadores» dotados de una memoria que cuando se
manifiesta —o, en lenguaje informático, cuando está «en pantalla»—, constituye nuestra conciencia,
como presencia del pasado, y dotados de la facultad de auto-organización que es nuestro verdadera
volición, es decir, sin que seamos conscientes de ello y en el límite de lo que somos nosotros y de lo que
es nuestro entorno, voluntad que determina el futuro 6.
Pero he aquí que esta memoria que hace presente el pasado y
6
Un maestro judío de finales del siglo XVIII, el Gaon Rabbi Eliahou de Wilna, analizó un tipo de relación entre el hombre y el
tiempo que sería la de una pareja donde el hombre sería el varón, el tiempo la hembra y el mundo con la ley el lugar de su
encuentro. Estableció entonces correspondencias entre tres partes del «alma» humana y los tres aspectos del tiempo, pasado,
presente, futuro, que sorprenden a primera vista pero que, si se piensa, ilustra perfectamente nuestro propósito. El alma
sensible (rouah) experimenta e inspira sensaciones y movimientos en el presente. El alma inteligente (nechama) aprende
extrayendo las enseñanzas del pasa-do. Por lo que al futuro se refiere, es lo que está oculto para nosotros y vivido en el
inconsciente del alma llamada viva (nefech), la que anima, demás cerca, la materia de nuestro cuerpo (Likoutei Hagra en Sifra
ditseniouta, pág. 78).

150
esta facultad de auto-organización que construye el porvenir no pueden, evidentemente, limitarse a
coexistir en un mismo sistema sin actuar la una sobre la otra. Estas interacciones son las que producen
estos fenómenos híbridos y secundarios, no fundamentales, que son la conciencia voluntaria, por una
parte, y los fenómenos de desvelamiento del inconsciente, por la otra.
II. CONCIENCIA VOLUNTARIA Y DESEOS CONSCIENTES
Dicho de otro modo, la conciencia voluntaria y la volición que emergen en la conciencia en forma de
deseos y pulsiones deben ser comprendidas como los resultados simétricos de interacciones entre
conciencia-memoria del pasado y volición inconsciente y auto-organizadora del porvenir.
La conciencia voluntaria sería el resultado de elementos incorporados previamente en la memoria y que,
secundariamente, intervienen en los procesos de respuesta organizadora a las estimulaciones del entorno,
al modo de programas parciales o sub-programas. Mientras que la volición consciente sería el resultado
de la emergencia en la conciencia, es decir, de la llamada a la pantalla de la memoria, de ciertos procesos
auto-organizadores, que funcionan por creación de organización a partir del ruido y que se desarrollan
habitualmente determinando el porvenir de modo por completo «inconsciente», es decir, como sucesión
de operaciones estructurantes y funcionales que no hacen intervenir necesariamente un mecanismo de
almacenamiento en memoria. Más exactamente, la utilización de memorias sobreañadidas que permiten
reproducciones por moldes aumenta siempre la eficacia de los procesos de creación de organización, al
estabilizar estructuras sucesivas que, de otra forma, aparecerían pero desaparecerían con la misma
rapidez. En consecuencia, es posible también, e incluso es lo más probable, que los procesos auto-
organizadores utilicen sistemáticamente mecanismos de almacenamiento de la información —de
memoria, por tanto—, pero situados en un nivel anatómico distinto del que ocupa la corteza cerebral. En
último término, el tipo de memoria que actúa en los procesos de respuestas inmunitarias a las agresiones
antígenas sería un ejemplo de memoria, inconsciente al estar situada en un nivel de integración por
completo distinto a la de la corteza cerebral.
151
Sea como sea, la aparición en la memoria cortical de procesos reguladores y auto-organizadores,
normalmente inconscientes, que constituyen la verdadera volición, producen lo que llamamos los
desvelamientos del inconsciente; mientras que, simétricamente, como hemos dicho, la irrupción de sub-
programas que aparecen en la memoria en medio de estos procesos define lo que llamamos la
conciencia voluntaria. La voluntad inconsciente parece pues, así, una característica absolutamente
general de todos los organismos vivos —e incluso de los autómatas auto-organizadores si llegan a
realizarse—. La aparición progresiva de lo que paree ser —por analogía con lo que aparece en nuestra
experiencia introspectiva— una voluntad consciente, en los seres llamados superiores, sería sólo una
consecuencia de la existencia de memorias cada vez más potentes a medida que abordamos organismos
más complejos. Cuanto más importante es el lugar que ocupa en el sistema la memoria cortical, más
grandes serán sus posibilidades de interacción con los procesos auto-organizadores y, por tanto, más
evidentes parecerán las manifestaciones de una conciencia voluntaria. De la misma forma, por otra
parte, que los fenómenos de desvelamiento del inconsciente, no porque el inconsciente exista menos en
los organismos elementales con poca capacidad de memoria, sino simplemente porque las posibilidades
de memorización de este inconsciente son forzosa-mente mucho más limitadas.
De este modo, la vida del inconsciente no puede ser reducida a un fenómeno secundario, resultante de
la represión y la censura de deseos y pulsiones semiconscientes que serían, por su parte, los fenómenos
primarios. Por el contrario, la volición inconsciente, con-junto de mecanismos por los que todo nuestro
organismo reacciona ante las agresiones aleatorias y la novedad —así como a su eventual repetición,
por otra parte— es el fenómeno primario que caracteriza nuestra organización a la vez estructural y
funcional. Esta volición inconsciente no necesita, con frecuencia, desvelarse, hacerse consciente y
transformarse en deseo para poder realizarse. Por el contrario, como veremos, una excesiva
visualización en memoria de los procesos auto-organizadores puede bloquearlos. Mejor es, a veces,
para la supervivencia del sistema, que siga permaneciendo in-consciente. El propio deseo no es del
orden de la volición inconsciente «pura», sino ya de su emergencia en la conciencia, de su inscripción
en la memoria y de su representación. Las situaciones de conflicto entre conciencia voluntaria y deseos
no son conflictos

152
entre consciente e inconsciente, sino más bien entre esos dos modos simétricos de interacciones, entre
la memoria y la auto-organización, y que son una memoria organizadora y una auto- organización
memorizada. En la medida en que los procesos de auto-organización descansan, como hemos visto,
sobre la contradicción de una
asimilación organizadora de azares desorganizadores, su excesiva emergencia en la conciencia, su
aparición demasiado sistemática en
la memoria cortical, puede desembocar en la conciencia esquizofrénica (bloqueada según Bateson, y
como también había sugerido Morin [15]). Pero existe también otro modo de bloquear el movimiento,
que se expresa, como vamos a ver, en los delirios.
De todos modos, si seguimos a Morin, estos desarreglos por intempestivos desbordamientos de los
mecanismos de la volición
inconsciente sólo serían la exageración del proceso de hominización
por el que el Homo sapiens se habría distinguido, realmente, de sus antepasados inmediatos.

III. MAQUINAS DE FABRICAR SENTIDO 7


La asimilación de lo aleatorio y su aparición en la memoria desembocan en las más elaboradas
actividades de la conciencia no sólo en su forma de conciencia voluntaria que decide una respuesta
a un
estímulo, sino también de conciencia cognitiva que establece relaciones entre estímulos, verdaderos mapas
espacio-temporales del entorno (mapping del entorno según Fisher) [9]. Es así como se nutre la
organización psíquica creando y deshaciendo pautas de referencia que, en cada instante, determinan la
nueva pauta que se trata de reconocer y ante la que se trata de reaccionar.
Aplicando el principio de complejidad por el ruido a una teoría del aprendizaje 8 se desemboca en cierto
número de propiedades de lo que puede considerarse como un sistema auto-organizador actuando en un
proceso de aprendizaje no dirigido. En efecto, es preciso distinguir entre aprendizaje dirigido y
aprendizaje no dirigido.
7
Se trata, evidentemente, de una cuestión inmensa ésta del origen y de la legitimidad del sentido y de la significación. Aquí sólo
hemos abordado uno de sus aspectos, otro en «Significación de la información...» (pág. 90), y tal vez otro en «"Yo" de azar»
(pág. 104).
8
H. Atlan, «El principio de orden a partir de ruido. El aprendizaje no dirigido y el sueño», en L'Unité de lhomme, op. cit., págs.
469-475.

153
El primero es un aprendizaje con un profesor que dice lo que hay que aprender. En el aprendizaje no
dirigido, un sistema colocado en un entorno nuevo para él crea en cierto modo en este entorno des-
conocido las pautas que enseguida le condicionarán su propio reconocimiento.
Estos mecanismos son también interesantes porque no son pu-ras descripciones fenomenológicas sino que
pueden ser reproducidos en máquinas. Especialmente, existe una diferencia de principio de
funcionamiento entre una máquina del tipo «Perceptrón [19]», que sabe reconocer formas, aunque con un
profesor (es preciso un experimentador que regula los parámetros de funcionamiento de la máquina
durante el propio proceso de aprendizaje), y la máquina del tipo «Informón», puesta a punto por Uttley
[20]. Se trata de un Perceptrón modificado de tal modo que la propia máquina, calculando probabilidades
condicionales en los distintos estímulos que le llegan, fabrica en cierto modo pautas de frecuencia según
sus cálculos y, luego, reconoce más o menos tales pautas en el entorno.
De hecho, cuando se trata de aprendizaje no dirigido pueden reconocerse dos propiedades, consecuencias
del principio de complejidad por el ruido.
La primera es que el proceso de aprendizaje puede ser comprendido como una creación de pautas por
disminución de la redundancia, en las que especificaciones de pautas muy particulares excluyen a otras.
De este modo, a la pregunta: ¿qué aumenta y qué disminuye en el aprendizaje? es posible responder, según
este principio, que aumenta la diferenciación, la especificidad de las pautas aprendidas, y que esto implica
un aumento de la variedad, de la heterogeneidad que, por el contrario, disminuye la redundancia del
conjunto del sistema, el carácter no diferenciado.
Podríamos encontrar en esto, en particular, una explicación de los mecanismos de la finalidad del sueño y
de la ensoñación. Parecería [22] que el sueño paradójico es acompañado de una sincronización del
conjunto de las células cerebrales activadas por un mismo marcapasos localizado en el tronco cerebral. Tal
vez podríamos interpretarlo como un regreso a un estado de redundancia inicial extremadamente grande,
es decir, de indiferenciación. Todo ocurre como si hubiera un potencial de aprendizaje que pudiera
medirse por una redundancia: este potencial disminuye a medida que el aprendizaje se produce por lo que
enseguida es necesario recargar de redundancia para poder recomenzar y continuar el proceso de
aprendizaje.

154
Un segundo aspecto del principio de complejidad por el ruido en los mecanismos de aprendizaje no
dirigido consiste en que las pautas, una vez creadas, se comparan con los nuevos estímulos o, más
exactamente son proyectadas y aplicadas sobre ellos. En la medida en que las pautas y los nuevos
estímulos pueden coincidir, se dice que se «reconocen» nuevas pautas en el entorno. Pero, en la
medida en que son realmente nuevas, esta coincidencia sólo puede ser aproximada. Hay por ello una
ambigüedad en esta aplicación, en esta proyección de estas pautas sobre los nuevos estímulos, y esta
misma ambigüedad tiene entonces un papel positivo en la medida en que acarrea una acción de
retroacción sobre las propias pautas, es decir, una modificación de las pautas iniciales. Estas,
modificadas, serán luego proyectadas de nuevo sobre los nuevos estímulos, y así sucesivamente. De
este modo es posible representarse estos mecanismos de aprendizaje no dirigido por una especie de
vaivén entre pautas que son creadas y proyectadas luego sobre estímulos aleatorios, y éstos que en la
medida en que no pueden coincidir exacta-mente con las primeras modifican entonces la clase de
pautas que servirán de referencia, y así sucesivamente. Dicho de otro modo, todo ocurre como si
nuestro aparato cognitivo fuera una especie de aparato creador, una vez más de orden cada vez más
diferenciado, es decir, de complejidad por el ruido.
De nuevo, estos procesos se desarrollan de modo inconsciente, al modo de lo que ocurre, por ejemplo,
en una máquina del tipo Informón que selecciona ella misma las pautas que tiene que aprender a
reconocer; pero su aparición en la memoria, es decir, su emergencia en la conciencia, desemboca en
esta actividad de interpretación que consiste en integrar los nuevos acontecimientos del presente y del
porvenir en el contenido de nuestra conciencia del pasado memorizada. Esta integración se efectúa por
la identificación de formas (pattern recognition), es decir, que los nuevos estímulos son clasificados y
asociados a las formas preexistentes, gracias a lo que son reconocidos. Por lo general, como se ha
afirmado, este reconocimiento no es perfecto: los nuevos estímulos no pueden coincidir exactamente —
en la misma medida en que son nuevos—. Son, pues, identificados aproximadamente con cierta
cantidad de ambigüedad. Y esta ambigüedad podrá desempeñar, también en esto, un papel positivo y
enriquecedor, modificando la forma de referencia o, más exactamente, la clase de las formas que
constituyen la referencia de las nuevas formas que deben reconocerse, y así

155
sucesivamente. De este modo, pues, el principio de complejidad por el ruido puede funcionar también
en el nivel de la organización de nuestro sistema cognitivo. También ahí algo nuevo y algo aleatorio
son integrados en la organización evolutiva y le sirven incluso de alimento. También ahí, todo ocurre
como si fabricáramos sin cesar lo organizado a partir del caos. La interpretación sólo es así la aparición
en la pantalla de la memoria de los mecanismos de fabricación de sentido a partir del sin sentido que,
sin dicha operación, se desarrollarían de modo casi automático y, evidentemente, de forma
inconsciente.
Pero estos mecanismos de fabricación de sentido donde antes no lo había, ¿no son acaso algo por lo
que se suelen caracterizar las conciencias delirantes? ¿Y no es eso lo que, por otra parte, se encuentra
en la significación ambigua de la idea de interpretación y en la reserva que, a priori, se tiene con
respecto a la veracidad de cualquier sistema interpretativo?
Ahora bien, acabamos de ver que estos mecanismos obedecen a una lógica del aprendizaje adaptativo
que parece enraizada en los propios principios de la organización biológica, en tanto que se trata de
auto-organización y, por ello, parecen pues, estar vinculados a nuestro funcionamiento normal como
sistemas auto-organizadores.
Por eso cuando vemos ahí un trastorno de la relación real-irreal, una proyección ilegítima de lo
imaginario en lo real, es que estamos situando mal el delirio. Pero, entonces, ¿dónde se sitúa, pues, el
paso entre conciencia delirante y conciencia que no lo es, entre interpretación delirante e interpretación
«correcta», si el criterio no es ya el grado de «apego a la realidad», o dicho de otro
modo, si el criterio no es ya la precisión y la falta de ambigüedad en el reconocimiento de las formas?
Probablemente, la cuestión se sitúe no en el contenido de las interpretaciones, sino en su forma de
funciona-miento. El delirio sería la fijación en un estadio del proceso de interpretación que quedaría
bloqueado sobre pautas inmutables a través de las cuales los nuevos acontecimientos serían reconocidos
sin feed-back modificador de modo que, poco a poco, la distancia —la ambigüedad— entre pautas de
referencia que sirvan para el reconocimiento y acontecimientos nuevos para reconocer se haría cada vez
más grande, hasta el punto de que el propio proceso de reconocimiento e interpretación se detendría y,
entonces, sólo sobreviviría encerrándose en sí mismo.
Eso podría explicar que un mismo contenido interpretativo

156
pueda tener una función delirante en un individuo, y organizadora y creadora en otro. Si ese contenido es
un estadio de un proceso abierto, no bloqueado, de interpretación, contribuirá a enriquecer la organización
del sistema, mientras que si está inmovilizado bajo la influencia de mecanismos de memoria demasiado
activos en pautas inmutables que no son ya susceptibles de modificarse durante el propio proceso de
interpretación, entonces este proceso se convierte en el del delirio aparentemente organizado —
superorganizado-- alrededor de este contenido interpretativo preciso —demasiado preciso—, fijado de
una vez por todas.
Toda hipótesis científica realmente nueva es, de hecho, del or-den del delirio desde el punto de vista de su
contenido, puesto que se trata de una proyección de lo imaginario sobre lo real. Sólo por-que acepta, a
priori, la posibilidad de ser transformada o incluso abandonada bajo el efecto de confrontaciones con
nuevas observaciones y experiencias se separa finalmente de él. En particular, es posible comprender
cómo la interpretación psicoanalítica puede desempeñar el papel de un delirio organizado o, por el
contrario, el de una creación liberadora, según sea vivida de modo cerrado como el modelo central —la
pauta inmutable—, polo organizador, o de modo abierto como una etapa fugaz en el proceso auto-
organizador. Sin embargo, en todos los casos, el contenido de la interpretación consiste siempre en lo que
suele denominarse «una proyección de lo imaginario sobre lo real». De este modo, la «marca del delirio»
no sería la presencia de lo imaginario en la aprehensión de lo real; sería, por el contrario, la conservación
demasiado sistemática y demasiado rígida de estados de auto-organización que, normalmente, deberían
sucederse modificándose. Una memorización excesiva, es decir, una emergencia demasiado precisa en la
conciencia de esos estadios de auto-organización, que se beneficiarían permaneciendo inconscientes,
podría ser responsable de estas fijaciones que conducen a la cerrazón del sistema. El funcionamiento
delirante de lo imaginario no -es delirante porque se proyecta sobre lo real, sino porque deja de funcionar
como un sistema abierto, dejando de alimentarse de las interacciones producidas por retroacción con esa
real fuente de azares y, por tanto, de novedad: En vez de permanecer oculto y subterráneo, condición de
su movimiento de auto-organización, aparece demasiado pronto o con demasiada precisión en la
conciencia, y se fija entonces en una proyección particular conservada en la memoria como un molde
inalterable sobre el que vienen

157
a depositarse los ulteriores acontecimientos... cada vez menos numerosos, además, en la medida en que la
coincidencia se hace cada vez con mayor dificultad. Hasta que la tensión sea demasiado gran-de y estas
pautas, conservadas demasiado fielmente por una memoria en cierto modo abusiva, sean reemplazadas
por otras (como habrían debido serlo mucho tiempo antes), pero esta vez de modo brutal y en una crisis
importante (cuando habrían debido serlo de modo progresivo y en crisis
menores superadas sin cesar). Su inscripción intempestiva en la memoria es lo que, al fijarlas, ha
detenido y, luego, hecho estallar los procesos de auto-organización cognitiva.
Si se acepta la idea de Morin según la que la aparición del Homo sapiens se caracteriza tanto por sus
delirios como por su prudencia, y si se reconoce la parte de responsabilidad en los mecanismos del
delirio de las memorizaciones excesivas, es decir, de las emergencias excesivas en la conciencias de los
vaivenes normal-mente inconscientes de las proyecciones de lo imaginario sobre lo real, entonces se
puede comprender que este desbordamiento de lo imaginario inconsciente en el consciente sólo haya
podido realizarse a partir del momento en que estaban disponibles suficientes capacidades de memoria.
El rasgo característico de la mutación del gran cerebro consistiría así en una extensión de las
capacidades de memoria obtenida por simple repetición de estructuras ya existentes, por simple creación
de redundancia (cuyo papel en la determinación de lo que se podía denominar un potencial de auto-
organización hemos visto ya por otra parte [Atlan, 1972, 1974]). En esta perspectiva, puede
comprenderse entonces que este desvelamiento del delirio en el Homo sapiens, latente por inconsciente
en sus predecesores, haya sido concomitante con el desarrollo del lenguaje simbólico en la medida en
que éste ha implicado y permitido, precisamente, un considerable aumento de las capacidades de
memoria con respecto a las que preexistían.

IV. LENGUAJES Y MEMORIAS

Podemos así intentar comprender en qué y por qué, cuando el inconsciente se desvela, habla cierto
lenguaje. Naturalmente, puede tratarse de un lenguaje no sólo crítico sino también de significaciones
múltiples y ambiguas, susceptibles de verse formadas y defor-

158
madas por el o los que lo escuchan y, sobre todo, intentan traducirlo a lenguaje hablado. Pero se trata de
todos modos de un lenguaje hecho de signos susceptibles de ser recibidos y que se manifiestan a la
conciencia del mismo sujeto o de algún otro en cuanto lo recibe como lenguaje, analizándolo e
interpretándolo. Se trata aquí, en la perspectiva del modelo que proponemos, de procesos inconscientes
de la volición y de las cosas que se hacen y que sólo secundariamente emergen en la conciencia, es
decir, que son acumuladas en la memoria y puestas de relieve, visualizadas, de una forma u otra.
«Hablar» es, entonces, sinónimo de «emerger en la conciencia», pues esa volición normalmente
inconsciente y estas cosas que habitualmente se hacen de modo oculto, anónimo, cuando interfieren con
los procesos de memoria manifiesta no pueden sino utilizar los materiales de esta memoria.
Ahora bien, entre éstos y el lenguaje existe un vínculo muy es-trecho, pues la utilización de un lenguaje
hablado, escrito luego, es de hecho una ampliación formidable de las posibilidades de almacenamiento
de nuestra memoria que puede, gracias a ello, salir de los límites físicos de nuestro cuerpo para ser
depositada en otros o en las bibliotecas. Ello significa que, antes de ser hablado o escrito, cierto lenguaje
existe como forma de almacenamiento de la información en nuestra memoria. Y, por ello, toda
manifestación de conciencia no puede sino utilizar estos materiales y aparecer, pues, como la utilización
de un lenguaje. Según el origen y la naturaleza de esta manifestación de conciencia, el origen de este
lenguaje se impondrá con mayor o menor evidencia. Si se trata de una manifestación de conciencia en
un modo habitual, es decir, presencia «pura» de nuestra memoria, sin interferencia de la volición
inconsciente, a todo el mundo le parecerá que es el sujeto quien habla. Pero si se trata de la emergencia
en la conciencia de los procesos habitualmente inconscientes de la volición, la cuestión, angustiante y
sin respuesta, del «,quién habla?» se impone entonces. Dado que, en la práctica, todas las posiciones
intermedias pueden ser encontradas entre estos dos límites —hasta el punto de que para algunos, tras
hacer un análisis e incluso si no es evidente de modo inmediato, la pregunta «¿quién habla?» se plantea
siempre— parece que las manifestaciones de la conciencia «pura» no existen. Todo ocurre como si los
procesos de la volición, estos procesos anónimos de auto-organización, intentaran sin cesar inscribirse
en la memoria, como si, al no poder satisfacerse construyendo el porvenir, se cons-

159
tituyeran también en pasado. Por ello, como hemos visto más arriba, el lenguaje del inconsciente parece
ser también el del deseo.
Exactamente simétricos, como hemos visto, son los fenómenos de la conciencia voluntaria: aquí es el
pasado el que no puede renunciar a determinar el porvenir. Es la conciencia, memoria normalmente vuelta
hacia el pasado, la que interviene en los procesos que construyen el porvenir, sin poder renunciar a
intervenir de algún modo en su determinación.

V. PASADO Y PORVENIR; DE LA UNIDAD TEMPORAL


Dicho de otro modo, los desvelamientos de la volición inconsciente y la conciencia voluntaria son sólo los
dos modos simétricos de unificar nuestro pasado y nuestro porvenir. Por ello estos dos fenómenos, aún sin
ser los primeros, no por ello dejan de desempeñar un papel fundamental: a ellos está vinculada la realidad
de la unidad y de la autonomía del sistema auto-organizador que somos. El segundo modo afirma esta
unidad, representando el primer modo una sombra de ella hasta el punto que parece negarla, pero,
evidentemente, sólo puede negarla sugiriéndola. Esta afirmación y esta negación están, por otra parte,
basadas también la una en la otra porque, por un lado, el sistema está aislado en un sistema único, aunque
sólo fuera por la envoltura cutánea que lo delimita en el espacio, pero, por otro lado, es permeable a todos
los factores anónimos del entorno que se imprimen en él, actúan en él y a través de él, y sin los cuales
dejaría inmediatamente de existir.
El hecho de no querer o no poder abordar serenamente la des-aparición del hombre proviene pues,
creemos, de que las concepciones humanistas nos han preparado muy mal para ver en nosotros mismos
estos sistemas auto-organizadores donde la voluntad consciente y los desvelamientos del inconsciente
firman y afirman una unidad temporal —relativa— del sistema, al igual que nuestra piel firma y afirma
una unidad espacial —igualmente relativa—. Y ello, pese a que nuestra piel no es totalmente impermeable
estando además agujereada por distintos orificios, es inútil. Ocurre igual con nuestra unidad consciente:
puede (e incluso debe) ejercerse sin cesar y siempre sin la ilusión de determinar las cosas, pues su sola
actividad, acompañada por la de su sombra: (el lenguaje inconsciente), mantiene, como hemos visto, la
unidad en el tiempo de los sis-temas que nosotros somos.

160
En un artículo aparecido hace algunos años, A. David compro-baba que cada proceso de la cibernética
hace desaparecer un poco más al hombre [6]. Pero un postrer contraataque del humanismo hace localizar
en nosotros el último rincón del que el hombre sería inexpulsable: se trataría del «deseo» (¿del programa,
dicho de otro modo?), por contraposición a lo que nos sugiere una descripción futurista de hombres
telegrafiados por el espacio en forma de «pu-ros programas». Ahora bien ¿qué sería de ello si se
demuestra que en sistemas cibernéticos auto-organizadores con la complejidad de los organismos vivos, el
programa no puede ser localizado porque se reconstituye sin cesar? Pues bien, ello querría decir que el
hombre habría sido expulsado también de ahí, del deseo, lo que por otro lado sería mejor para nosotros,
pues de esta manera la unidad y la autonomía de nuestra persona, en la medida en que esto se va
conformando, no podrán ya ser telegrafiadas por el espacio, separadas del resto, del mismo modo que la
superficie que limita un volumen y define su
unidad no puede ser separada de dicho volumen. Tal vez algunos programas de organizaciones pueden
ser telegrafiados: los sistemas así realizados tal vez se nos puedan asemejar y puedan dialogar con
nosotros: nada hay de inquietante en eso 9, muy al contrario, pues no serán nosotros, al igual que
tampoco lo son las máquinas que nos prolongan, incluidas las más poderosas.
Sólo en una cultura abusivamente humanista esta visión de las cosas puede parecer pesimista. Sólo si se
ha erigido al hombre como un absoluto resulta desesperante la comprobación del carácter parcialmente
ilusorio —porque no primario— de la voluntad consciente. Y, sin embargo, ¿no coincide esta
comprobación con la experiencia de cada día? ¿Acaso la voluntad consciente no es desmentida
constantemente por la realidad en la medida en que las cosas nunca suceden como las habíamos
deseado? ¿No aprendemos de la experiencia cotidiana que la voluntad consciente no domina las cosas,
y que éstas, sencillamente, suceden o se hacen? ¿No nos lo han advertido siempre el Eclesiastés y los
antiguos sabios? La ilusión de lo contrario es lo que conduce a la desesperación cuando se disipa, pues
entonces uno imagina que la voluntad consciente no tiene objeto y es negada y por ello también nuestra
existencia como seres
9
Salvo, claro, por lo que se refiere a lo que se hará con tal poder. Como siempre, los progresos científicos no pueden ser
peligrosos en el plano filosófico y teórico sino en el plano político.
161
autónomos. Así, tras haber convertido al hombre en un absoluto, se cree ver en él un juguete de
ciegas fuerzas. Pero no porque el hombre desaparezca y se borre «como un rostro de arena en la
orilla del mar» debemos llorar sobre nosotros mismos.
El hombre que desaparece no somos nosotros, sólo es, como Foucault ha mostrado, un absoluto
imaginario que ha desempañado un cómodo papel en el desarrollo de los conocimientos en Occidente,
en un tiempo, además, en el que el sistema físico por excelencia era el sistema cerrado —e incluso
aislado en equilibrio termodinámico— [10]. Este hombre está en trance de ser reemplazado por cosas,
es cierto, pero en las que podemos reconocernos porque pueden hablarnos. En vez de un hombre que se
cree el origen absoluto del discurso y de la acción sobre las cosas, pero que en realidad está separado de
ellas y conduce inevitablemente a un universo esquizofrénico, son las cosas las que hablan y actúan en
nosotros, tanto a través de nosotros como a través de otros sistemas, aunque de modo diferente y tal vez
más perfeccionado.
Gracias a ello, y si no nos dejamos asfixiar por ellas, es decir, si nuestra volición —facultad
inconsciente de auto-organización bajo el efecto de las cosas del entorno— consigue inscribirse lo
suficiente en la memoria de modo que tengamos un grado suficiente de con-ciencia, y si ésta, en
consecuencia, puede interactuar con los procesos auto-organizadores sin que por ello exista conflicto
entre estas dos formas de interacción, entonces, cuando miremos a nuestro al-rededor, podremos
sentirnos en casa porque las cosas también nos hablan 24.
Al fin y al cabo, si es posible desmontarnos como máquinas y reemplazar nuestros órganos como
piezas, ¿acaso no quiere decir también que podemos ver en las máquinas, es decir, en el mundo que nos
rodea, algo en lo que podemos reconocernos, y con lo que, en último término, podemos dialogar?
¿Cuando descubrimos una estructura en las cosas, no supone reencontrar, de modo renovado y
depurado, un lenguaje con el que las cosas pueden hablarnos? ¿Y

24En Les Mots et les Choses, de M. Foucault, tan importante al menos como el anuncio final de la desaparición del hombre
y del recuerdo del lenguaje nos parece la evocación, en el primer capítulo, de una época en la que las palabras hablaban el
lenguaje de las cosas. Aunque esta época nunca ha terminado, su existencia pasada no deja de sugerir la posibilidad, en el
porvenir, de nuevos hallazgos de las palabras y de las cosas, a través, naturalmente, de las formas y los lenguajes nuevos,
vehiculando los saberes de hoy y de mañana.
162
sería pagar demasiado caro ese reencuentro si comprobamos, de paso, que nuestro propio lenguaje no
es, en el fondo, radicalmente distinto a este lenguaje de las cosas?
La única consecuencia de estos descubrimientos no debiera ser el pueril terror ante la Idea de ser
juguete de fuerzas ciegas, ni esa forma de ceguera que consiste en querer reencontrar a cualquier precio
al hombre en alguna parte, sino una determinación de con-seguir el dominio de nosotros mismos,
además del dominio de las cosas —a dialogar con nosotros mismos al mismo tiempo que con las cosas
—, puesto que nuestra propia existencia como seres dota-dos de unidad, como sistemas autónomos, sin
ser un fenómeno primario puede, sin embargo, ser afirmada, pues ella se crea en esta misma afirmación
y sólo, en ella. Esta determinación se apoya en la clara visión de que esta existencia unificada, aunque
no asegurada, es posible pues se juega en un universo que deja de sernos hostil y de destruirnos en
cuanto nos dejamos atravesar por él. La unidad en el tiempo de los sistemas auto-organizadores y
memorizantes que somos no es absoluta Pero no es menos real que su unidad espacial, delimitada por
una Piel y por mucosas—. La frontera que protege la autonomía de un ser vivo con respecto al universo
que lo rodea sólo tiene sentido si, al mismo tiempo que barrera, es lugar de intercambios y se deja
atravesar.
¿Acaso no está todo esto contenido en la conclusión del Eclesiastés, recogida en una breve sentencia:
«Fin del discurso, habiendo sido todo oído, teme los dioses y guarda sus mandamientos, pues ello es el
todo del hombre»? En otras palabras, tras haber comprobado el hombre la vanidad de las cosas, el
carácter ilusorio de la voluntad consciente cuando imagina que determina las cosas, sabe que lo que
verdaderamente está en juego es el «ello» n, que es el todo
11
Podría creerse que consideramos a Groddeck o Freud los autores del Eclesiastés. En absoluto, aunque 5d lectura tenga,
claro, algo que ver en esta interpretación. Esta sido sugerida numerosos textos de exégesis tradicional judía donde
expresión hebraica ze (ello) utilizada aquí, vehicul aun sentido que alude a°una estructura de elementos que representa la
afectividad más o menos consciente del individuo, con exclusión de su intelecto. Del mismo modo, la traducción «teme a
Dios ...» proviene de que el nOnibre (Elohim) utilizado aquí para designar la divinidad «organizadora de fueteas en el
mundo» (R. Haim de Volozhin, Nefesh, Hahaim) es un plural. Varios °O11bres hebreos con significaciones muy distintas son
uniforme y llanamente traducidos por Dios, el Señor, el Eterno, etc. La función significativa de cada uno de estos nombres,
como del plural de Elohim, sólo es ignorada en las lecturas catequizantes y edificadoras. Por el contrario, la enseñanza

163
del hombre, el trazar su límite y establecer su unidad. A través de la acción voluntaria sobre las cosas, lo
que está en juego es en realidad la acción unificadora sobre nosotros mismos y, por tanto, debe ser
orientada en función de su efecto sobre el ello que nos constituye por completo. En esta empresa, el
desciframiento y la interpretación del mundo y de su ley, y luego, el hecho de dejarse penetrar por ella
son los factores irreemplazables de lucidez y de eficacia.
tradicional la conoce bien, ya se trate de la exégesis bíblica judía comúnmente aceptada (por ejemplo, Rashi sobre Génesis
20, 13) o de la tradición exegética de la Cábala. Esta, aunque menos conocida, no deja de ser la única fuente de
significaciones sistematizadas de los mandamientos de la ley que, de hecho, rige la organización y la práctica de sociedades
vivas desde hace más de treinta siglos. Discutir su lugar en el universo socio-cultural judío es, pues, un error.

164
BIBLIOGRAFIA
1. W. R. Ashby, «Principles of the self-organizing system», Principles of Self-organization, V. Foerster
et Zopf (eds.), Nueva York, Pergamon Press, 1952, págs. 255-278.
2. H. Atlan, «Du bruit comme principe d'auto-organisation», Communications, 18, 1972, págs. 2135.
3. H. Atlan, L'Organisation biologique et la Théorie de l'information, Paris, Hermann, 1972.
4. H. Atlan, «On a formal definition of Organization», Journal of Theoretical Biology, 45, 1974.
5. O. Costa de Beauregard, «Two principles of the science of time», Annals of New Academy of
Science, vol. 138, art. 2, 1967, págs. 407-421.
6. A. David, «Nouvelles définitions de l'humanisme», Progress in Biocybernetics, Wiener et Schade
(eds.), Nueva York, Elsevier Publications Co., 1966.
7. A. S. Eddington, The Nature of The Physical World, Nueva York, Mac Milian, 1929,
8. M. Eigen, «Self-organization of matter and the evolution of biological macromolecules», Die
Naturvissenschaften, oct. 1971.
9. R. Fischer, «The biological fabric of time», Annals of New York Academy of Science, vol. 138, art. 2,
1967, págs. 440-488.
10. M. Foucault, Les Mots et les Choses, París, Gallimard, 1966.
11. P. Glansdorff y e I. Prigogine, Structure, Stabilité et Fluctuations, París, Masson, 1971.
12. A. Katchalsky, «Biological flow-structures and their relation to chemico-diffusional coupling»,
Neurosciences Research Program Bulletin, vol. 9, núm. 3, 1971, págs. 397-413.
13. A. Katchalsky y P. P. Curran, Non Equilibrium Thermodynamics in Biophysics, Cambridge (Mass.),
Harvard University Press, 1965.
14. D. M. McKay, «Generators of information», Communication Theory, W. Jackson (ed.), Nueva
York, Academic Press, 1953, págs. 475-485.
15. E. Morin, «Le retour de l'événement», Communications, 18, 1972, págs. 6-20.

165
16. E. Morin, Le Paradigme perdu: la nature humaine, París, Editions du Seuil, 1973.
17. H. J. Morowitz, Energy Flow in Biology, Nueva York, Academic Press, 1968.
18. J. Piaget, La Naissance de l'intelligence chez l'enfant, Delachaux et Niestlé, Neuchatel, 1968,
6. a edición.
19. F. Rosenblatt, «Perception simulation experiments», Proceedings of the IRE, 48, núm. 3, 1960; y
Arkadev y Braverman, Teaching Computers to Recognize Patterns, Nueva York, Academic Press,
1967.
20. A. M. Uttley, «The Informon; a network for adaptive pattern recognition», Journal of Theoretical
Biology, núm. 27, págs. 31-67, 1970.
21. H. Von Foerster, «On self-organizing systems and their. environment», Self-organizing Systems,
Yovitz et Cameron (eds.), Nueva York, Pergamon Press, 1960, págs. 31-50.
22. M. Jouvet, «Neurobiologie du reve», L'Unité de l'homme, E. Morin et M. Piattelli-Palmarini (eds.),
París, Editions du Seuil, 1975, págs. 364-392.

166
6
SOBRE EL TIEMPO Y LA IRREVERSIBILIDAD1
Reversibilidad microscópica e irreversibilidad macroscópica en física

La percepción del tiempo presenta numerosas particularidades que merecen ser exploradas en cuanto
que nosotros mismos, como seres vivos, tenemos una doble experiencia: desde el interior por la
experiencia del tiempo vivido y desde el exterior por observaciones de orden biológico y psicológico.
Uno de sus aspectos más importantes parece caer por su propio peso: la irreversibilidad del tiempo
biológico. Tanto de la experiencia interior y subjetiva como de la observación exterior y objetiva de los
organismos, se desprende que el tiempo de los sistemas biológicos aparece como una dimensión
orientada de modo no simétrico. Transcurre en una dirección única, del nacimiento al desarrollo, a la
maduración, a la reproducción, al envejecimiento y a la muerte. Esta unidireccionalidad no sólo vale
para los individuos, sino, global-mente, para el conjunto de los organismos vivos tal como han
evolucionado desde hace millones de años: pues, aparentemente, éstos han seguido también una especie
de vía orientada, yendo de los organismos unicelulares más simples hacia las formas orgánicas cada vez
más complejas para desembocar en la actual especie humana. Esta parece, a la vez, la última y la más
compleja (sea cual sea la definición cuantitativa precisa de dicha complejidad, puesto que, en efecto, Ios
conceptos de complicación o complejidad están' ellos mismos en cuestión en toda reflexión sobre la
evolución).
1
Extractos de una versión inglesa de este texto, comunicación en un seminario sobre «Percepción judía del tiempo»,
Instituto Van Leer, Jerusalén, 1975, fueron publicados en las revistas Shefa, núm. 1, Jerusalén, 1977, págs. 40-54, y
Centerpoint, City University of New York, núm. 3, vol. 2, 1977, págs. 19-25. Las referencias bibliográficas han sido
agrupadas al final del capítulo.

167
Todo ello parece muy evidente y trivial: el hecho de que el tiempo sólo transcurra del pasado hacia el
porvenir y no del porvenir hacia el pasado' parece un carácter inherente al propio tiempo, sea cual sea su
naturaleza. En otras palabras, parece que esta irreversibilidad no es del todo específica de los seres vivos
y que pareciese que fuese independiente de la biología.
Ahora bien, ocurre que desde el punto de vista de un físico libre del sentimiento subjetivo del transcurso
del tiempo, la cosa no es así. Además, y en último extremo, desde el punto de vista de nuestra
percepción subjetiva existen situaciones en las que hacemos la experiencia de una especie de inversión
del tiempo: por ejemplo, cuando nos comprometemos en un acto voluntario, una serie de gestos es el
resultado de nuestra voluntad consciente y se orienta hacia el objetivo que deseamos alcanzar, de modo
que, en cierto modo, la serie de acontecimientos parece determinada por causas finales. Siguiendo una
fórmula bien conocida en hebreo: «El fin de una realización es su inicio en el pensamiento» 2.
En física clásica no habría razón alguna para considerar irreversible el transcurso del tiempo si no fuera
por el segundo principio de la termodinámica: en efecto, las leyes de la mecánica a las que obedecen los
movimientos de los cuerpos celestes y de las partículas submicroscópicas aisladas son invariables
temporales: las leyes del movimiento siguen siendo las mismas si la dirección del
tiempo se invierte, al igual que ocurre con la elección arbitraria de las coordenadas espaciales. Esto se debe
a que, en estas leyes (de las que la caída de los cuerpos en 1/2 gt2 es un ejemplo particular), la coordenada
temporal t está presente por su cuadrado. Un cambio de t en (— t) no cambia nada. Así, desde el punto de
vista de la física, la irreversibilidad del tiempo en los fenómenos macroscópicos sólo puede tener un
origen: la ley de aumento de la entropía. Como ha afirmado Eddington, esta ley da su orientación a la
flecha del tiempo3. Ha sido necesario añadir una considerable suma de trabajo a
2
S. Alkabetz, Lekha dodi (poema popular).
3
Esta idea —generalmente admitida— ha sido discutida por K. Popper (1956, 1957, 1965) a partir de la imposibilidad de
invertir el sentido de las ondas físicas en la superficie de un líquido, por ejemplo, de la periferia hacia el centro — figura clásica
de la física tradicional que no requiere ningún recurso directo al concepto de entropía—. Popper fue apoyado en su discusión por
E. L. Hill y A. Grunbaum (1957) que avanzaron un caso similar puesto de relieve por Einstein y que concierne a la imposibilidad
de invertir las ondas electromagnéticas de la luz.

168
los fundamentos de la termodinámica estadística, para llegar a conciliar esta reversibilidad del tiempo de la
mecánica con la irreversibilidad observada en el nivel de los fenómenos macroscópicos don-de se
producen las transformaciones de energía.
Principios de equivalencia y principios de acción
Antes de examinar cómo se presenta el problema en biología, es decir, en el nivel de los organismos vivos,
veamos primero breve-mente cómo esta cuestión de la irreversibilidad del tiempo en física se ha hecho
todavía más compleja a la luz de la teoría de la relatividad. En este campo, ciertas ideas desarrolladas por
O. Costa de Beauregard proporcionan una transición interesante con la cuestión del tiempo biológico.
El debate entre Popper, Hill y Grunbaum mostró claramente que la irreversibilidad provenía de la imposibilidad de crear la
coherencia necesaria en todos los osciladores periféricos que permitiera a las ondas coherentes ser rechazadas de la periferia
hacia el centro. Popper vinculo eso a una teoría de las causas centrales según la que sólo causas centralmente unidas pueden
existir y funcionar. Del mismo modo, puede decirse de la irreversibilidad clásica que resulta de las condiciones iniciales
impuestas por el principio de causalidad, como en el caso de los potenciales retrasados más que adelantados de la teoría
electromagnética de Maxwell. Toda esta discusión parece, sin embargo, girar en redondo, pues: a) el principio de causalidad sólo
vale en un inundo donde la flecha del tiempo está ya orientada; b) el concepto de coherencia improbable es,manifiestamente, de
naturaleza estadística y se vincula directamente al segundo principio de la termodinámica.
En otras palabras, la irreversibilidad de los fenómenos físicos macroscópicos pa-rece desprenderse todavía de la reversibilidad
microscópica mediante el teorema H, como ocurre en termodinámica estadística —y ello a pesar de todas las cuestiones
planteadas respecto a la validez de tal teorema—. Las relaciones entre la irreversibilidad macroscópica y los fenómenos
estocásticos son todavía más manifiestas en la aproximación de la termodinámica estadística a partir de la teoría de la
información (Jaynes, A. Katz).
Hill y Grunbaum admitían que el concepto de entropía «pueda aplicarse a una caracterización parcial de las bases
empíricas y psicológicas de la flecha del tiempo en nuestro entorno físico ordinario...» Pero lo que buscaban era un
fundamento para la irreversibilidad física como tal «en sistemas abiertos donde los procesos pudieran producirse a partir
del centro ad infinitum, y no al contrario, porque ello supondría un deus ex machina».
Al tiempo que mostraban que este argumento de apertura debía ser rechazado y reemplazado por el de la coherencia y las
causas centrales, Popper reconoció que era imposible proponer una caracterización general de procesos irreversibles clásicos
no entrópicos. Más tarde, apoyó su argumentación en la hipótesis de que «la

169
En la teoría de la relatividad el tiempo es tratado como una cuarta dimensión de un espacio abstracto, es
decir, como una coordenada que se añade a las tres coordenadas habituales del espacio. Ello implica que el
tiempo pueda ser determinado de modo convencional en función del estado en el que se encuentra el
objeto que nos interesa. Es ésta una propiedad general de las coordenadas espaciales pero puede extenderse
a la cuarta dimensión del espacio-tiempo. Sabemos que cuando queremos representar un objeto está-tico
en el espacio podemos elegir las coordenadas que deseamos, situar su origen donde nos parezca, y también
su orientación según nuestra conveniencia. No se requiere absoluto alguno. En teoría de la relatividad, lo
mismo sucede cuando queremos describir un objeto móvil: la coordenada de tiempo puede también ser
elegida como nos parezca, según la velocidad relativa del objeto en relación a otro objeto arbitrario tomado
como referencia.
En principio, nada debiera impedirnos elegir como quisiéramos, también, su dirección. Des-de este punto
de vista, pues, el tiempo es, en principio, perfecta-
flecha del tiempo o el transcurso del tiempo no parecen tener un carácter estocástico». Eso parece estar en contradicción con el
recurso al concepto de «probabilidad de coherencia» —de naturaleza netamente estocástica— como fundamento de la
imposibilidad de la irreversibilidad de las ondas.
A partir de algunas propiedades de las partículas ajenas, tal como fueron reveladas por descubrimientos más recientes, varios
autores han explorado la posibilidad de vincular la dirección del tiempo a la irreversibilidad microscópica (Sachs, 1963). Pero
ello no ha tenido frutos todavía y continuará en el futuro ocupando a los investigadores en un campo de extremada
complejidad.
Del mismo modo, no es evidente que la tentativa de Glansdorff, Prigogine y su grupo (1973, 1976) de introducir la
irreversibilidad en el nivel elemental de la dinámica de las partículas cambia fundamentalmente los datos de este problema; en
efecto, siempre puede argumentarse que se trata aún de una proyección de nuestra experiencia del tiempo macroscópico
irreversible utilizando el sesgo de un formalismo que lo permite (Ullmo, 1976).
La cuestión de la irreversibilidad del tiempo físico en sus relaciones con la teoría de la información es discutida desde un punto
de vista bastante cercano, aunque distinto, del presentado aquí en los trabajos recientes de O. Costa de Beauregard (1976,
1977). La asociación ondas retrasadas-aumento de entropía está ampliamente documentada. En particular, la posibilidad de
una inversión del tiempo es analizada, acompañando la experiencia de las voluntades conscientes actuantes. Este análisis es la
continuación de los trabajos anteriores de este autor, que evocamos ampliamente un poco más adelante, sabre la dualidad de
principios de conocimiento y de acción. Como se verá, a fin de cuentas, la inversión del tiempo psicológico que acompaña la
acción voluntaria es menos radical que la que aparece en los mecanismos, al menos en parte inconscientes, de creación de lo
nuevo en sistemas autoorganizadores.

170
mente equivalente al espacio, especialmente en lo que concierne a su reversibilidad: dada una coordenada
temporal es tan reversible como las coordenadas espaciales. Pero, en realidad, se sabe que no es así.
Necesitamos, pues, un postulado suplementario incorporado a la teoría que nos permita dar cuenta de la
irreversibilidad del tiempo tal como la observamos.
Este postulado está vinculado a la velocidad de la luz como el máximo valor posible de la velocidad para
todo elemento de materia o energía. Implica que, para un cuerpo dado, hay regiones del espacio-tiempo a
las que no podrá acceder debido, precisamente, a los límites de su velocidad posible. Estas regiones
corresponden a los lugares a donde iría este objeto si le fuera posible remontar la coordenada de tiempo.
Decir que la velocidad no puede superar la de la luz o que el tiempo no puede ser reversible, es decir más
o menos lo mismo. De donde se desprende que, por una parte, dada una coordenada convencional en el
espacio de cuatro dimensiones, el tiempo es en principio reversible, pero que, por otra parte (en la
práctica), se la considera distinta de las otras tres coordenadas espaciales, precisamente por el hecho de
que no es reversible.
Frente a este estado de cosas, Costa de Beauregard sugiere que, para describir la realidad, necesitamos
siempre dos tipos de principios. La ciencia descansaría, por un lacio, sobre principios de equivalencia y,
por el otro, sobre principios de distinción y de limitación. En termodinámica, el primer y segundo
principio corresponden a estos dos tipos. El primero es un principio de equivalencia según el cual todas
las form de energía se equivalen en el sentido de que pueden transformarse unas en otras. Eso se extiende
hoy a la materia considerada como equivalente a la energía en el sentido de que una puede transformarse
en otra y de que se conoce la ley (cuantitativa) que gobierna su transformación. Pero, junto a este
principio de equivalencia, el segundo —de distinción y de orientación— nos dice que existen formas de
energía más o menos degradadas y, por tanto, que todas las formas de energía no son totalmente
equivalen-tes, siendo el calor la más
degradada de todas porque jamás puede ser completamente retransformada en otra forma utilizable de
energía 4 Este principio de distinción es el que orienta la realidad.
Para Costa de Beauregard, la misma situación se encuentra en el espacio-tiempo. Un principio de
equivalencia estipula que las coor-
4
Véase más arriba, pág.. 30.

171
denadas de tiempo son transformables en coordenadas espaciales y viceversa. Por un principio de
distinción y orientación estipula que el tiempo es distinto puesto que sólo puede transcurrir en una sola
dirección. De ahí la pregunta: ¿cómo estos dos principios funda-mentales, aparentemente
contradictorios, pueden dar cuenta de la realidad física? Y de ahí la solución sugerida: los principios de
equivalencia rigen la realidad en la medida en que ésta es una pura potencialidad independiente de los
cambios reales que en ella se producen y que podemos observar, medir y provocar. Cuando tomamos en
consideración los cambios que de hecho intervienen entonces nos introducimos nosotros mismos en la
realidad, como observadores y medidores, y entonces somos nosotros quienes producimos los cambios,
o los medimos, o ambas cosas a la vez. Los principios de irreversibilidad —las leyes de degradación de
la energía y de aumento de la entropía en termodinámica y el postulado de la irreversibilidad del tiempo
en la teoría de la relatividad— son una consecuencia de esta interacción entre la realidad y la naturaleza
lógica del espíritu del observador, es decir, del hombre. En otras palabras, la irreversibilidad del tiempo
resulta de la estructura del espíritu humano que está concebido de tal modo que la causa debe
preceder a la consecuencia, y no a la inversa.
Además, esta particularidad de nuestro espíritu es en sí misma una consecuencia de nuestra adaptación
biológica a la necesidad de actuar. Que la especie humana esté tan lograda se debe a que somos capaces
de adaptarnos a un entorno cambiante. Para ello, necesitamos actuar (y reaccionar) sobre el entorno de
modo proyectivo y finalista: necesitamos saber prever las consecuencias de nuestros actos. Percibir un
tiempo orientado donde el futuro sucede al pasa-do y al presente es, en consecuencia, una condición
necesaria para la finalización de nuestros actos. Por ello, según Costa de Beauregard, el principio de
irreversibilidad del tiempo es de hecho un principio de acción. Lo que supone decir que, desde el punto
de vista de la física, el tiempo podría ser reversible, pero que, en la medida en que tenemos necesidad
de actuar para sobrevivir, el tiempo aparece orientado.

Finalidad aparente en biología


¿Pero qué sucede con los sistemas vivos? Se sabe que la tarea principal de la biología durante los
últimos siglos ha sido encontrar

172
explicaciones físico-químicas para las observaciones de la vida y que ha tenido bastante éxito, aunque
sea de modo incompleto y desigual según los niveles de organización de los sistemas vivos. Hemos
visto que, en física, se ha podido dar cuenta de la irreversibilidad observada al precio de considerables
esfuerzos hallándose por fin el resultado sintetizado en el segundo principio de la termodinámica. Pero
éste, que afirma que la entropía, es decir, el desorden 5 aumenta, sólo puede dar cuenta de los procesos
de desorganización, es decir, del envejecimiento y de la muerte cuando se aplica a los sistemas vivos.
Ahora bien, a esta evolución hacia un mayor desorden o, como se dice hoy, hacia más errores en la
estructura y la función —evolución que caracteriza al envejecimiento y la muerte— se le añade, como
sabemos, otra clase de evolución que se desarrolla desde el instante en que el óvulo es fecundado hasta
la edad madura del individuo adulto. Durante estas fases del
desarrollo embrionario y de la maduración se observa una evolución en sentido contrario hacia una
complejidad cada vez mayor de la organización, siempre hacia un mayor orden diferenciado, es decir,
hacia una mejor entropía 6. Siendo esto cierto en el nivel del desarrollo del individuo y en el nivel de la
evolución de la especie, como atestiguan la geología y la paleontología: las especies que parecen más
complejas, más organizadas —lo que, por lo demás, les permite adaptarse mejor y ser las más autónomas
en relación a su entorno— son, precisamente, las que aparecieron más tarde en el tiempo. Por ello, la
evolución de las especies parece también haberse desarrollado en sentido contrario de lo que afirma el
segundo principio de la termodinámica: no siempre hacia un mayor desorden, homogeneidad y entropía,
sino a la inversa, hacia una mayor diversidad, hacia una disminución de la entropía.
Vemos, pues, cómo este tipo de evolución, tanto en el nivel del individuo como en el de la especie, podría
parecer en contradicción con el segundo principio de la termodinámica y constituir un escándalo para los
físicos. De hecho, si se admite que la irreversibilidad
5
Véase más arriba (pág. 81) nuestra discusión sobre la relación entropía, que sigue siendo válida de modo operatorio teniendo
en cuenta el papel —inevitable— del observador en la definición del desorden. Aun cuando ciertos fenómenos de estructuración
puedan ser acompañados de aumento de entropía, basta con que haya otros, con disminución (local) de la entropía, para que
nuestra argumentación siga siendo, aquí, válida.
6
Véase nota anterior.

173
del tiempo físico es sólo la consecuencia de un aumento irreversible de entropía, resulta que si hallamos
sistemas tales como los organismos vivos en los que se observa una continuada disminución de entropía,
todo ocurre como si, en estos sistemas, la dirección del tiempo se hubiera invertido. Razón de más para
que la cosa parezca escandalosa. Más aún, comparar esta deducción puramente lógica con nuestro
sentimiento subjetivo y nuestra experiencia psicológica nos lleva a un resultado similar: la infancia, la
juventud parecen desarrollarse en una dirección del tiempo opuesta a la de la vejez. Parece que las causas
de los fenómenos no se encuentran en el pasado, sino en el futuro, es decir, que lo que dirige el presente
parece ser más una tensión hacia un porvenir imaginario y desconocido que un simple determinismo
resultante de los acontecimientos del pasado. Se sabe que durante el desarrollo embrionario las cosas
parecen ocurrir del mismo modo: como si el desarrollo que se inicia con la célula-huevo indiferenciada
estuviera dirigida hacia la forma última del adulto, es decir, hacia algo que no existe todavía, pero que
existirá más tarde.
Este tipo de observación está en las antípodas del modo de pensamiento científico habitual basado en un
puro causalismo y en la convicción de que las causas de Ios fenómenos deben precederlos en vez de
seguirlos. Hoy, tras los pasos de Monod, Crick y otros investigadores, los biólogos han resuelto el
problema utilizando la metáfora cibernética del «programa genético»: la teleología, es decir, el tipo de
razonamiento finalista que recurre a causas finales, es reemplazada por una «teleonomia» donde la
orientación hacia el futuro es percibida como la puesta en acción de un programa, al modo en como un
ordenador realiza, por ejemplo, un programa de construcción de una máquina en el que está inscrito lo
que debe hacer y cómo añadir nuevos elementos a los ya existentes. Y durante la ejecución del programa,
es él un objetivo, es decir, lo que intervendrá al final, lo que parece determinar la sucesión de los
acontecimientos. Encontramos también aquí una especie de «fin de una realización que es el inicio en el
pensamiento»25 mientras que, sin embargo, el funcionamiento del ordenador descansa sólo sobre la
causalidad. Puede objetarse que los programas conocidos siempre han sido escritos por alguien y es
preciso admitir que el mero concepto de programa genético como única fuente de determinación biológi

25Véase más arriba, pág. 167.


174
ca no está por completo claro 8. Pues la célula no es un ordenador y, de momento, es imposible aislar el
programa como elemento distinto de la célula, aunque el ADN parece constituir parte importan-te de él.
Por ello hablamos de desarrollo epigenético, o de un pro-grama que necesita resultados de su ejecución
para ser leído y ejecutado. Sin embargo, por imperfecto que sea, este concepto de programa tiene, por lo
menos, un valor operacional: ha abierto el camino a fructíferas investigaciones (así como a una nueva
forma de dogmatismo) en biología, y ha dado lugar, también, a realizar una muy clara distinción entre
este concepto y lo que se decía antes, cuando hablábamos de los dos tipos de observación, a saber, cuando
decíamos que la disminución de entropía observada tanto en el nivel del individuo como en el nivel de la
especie venía a apoyar las teorías vitalistas.
En efecto, el vitalismo del siglo XIX se apoyaba en el escándalo aparente que hemos evocado. Las teorías
vitalistas afirmaban de un modo puramente negativo que era imposible explicar los sistemas vivos por la
física y la química y que la vida era algo exterior al campo de las leyes físicas, y puesto que las teorías
eran únicamente negativas (seguía siendo imposible aislar los fluidos o espíritus vitales que, según se
afirmaba, explicaban las propiedades al parecer no físicas de la vida), las tentativas que pretendían
conciliar las observaciones biológicas con la física y la química prosiguieron. De hecho los logros más
importantes han sido conseguidos, en este sentido, durante los últimos decenios —gracias esencialmente a
la biología molecular— en los que estos descubrimientos han eliminado prácticamente las teorías vitalistas
y han llevado a los tan extendidos conceptos de programa genético y desarrollo epigenético con respecto al
desarrollo del individuo, así como a las teorías neodarwinistas de la evolución de las especies por
mutaciones aleatorias seguidas de la selección natural por el entorno.
Es cierto que esta conciliación de la física y de la biología se ha obtenido gracias a una extensión de la
física y la química a nuevos campos que implican nuevos métodos, nuevos modos de pensamiento,
especialmente los de la bioquímica y de la biofísica. Estas extensiones —aunque se trate de conceptos que
no han sido todavía del todo esclarecidos- nos proporcionan hoy algunas conclusiones que nos permiten
comprender cómo una especie de inversión del
8
Véase más arriba, pág. 26.

175
tiempo durante el desarrollo del individuo y la evolución de las especies no contradice, forzosamente, las
leyes de la termodinámica.

El azar 9 y la lógica de la auto-organización

La solución a esta dificultad está vinculada al problema de lo que se denomina organización y, más
precisamente, a la lógica de los sistemas llamados auto-organizadores. La pregunta puede ser formulada
del modo siguiente: ¿cómo un trozo de materia puede auto-organizarse en el sentido de una complejidad y
una diversidad siempre mayores?
Hacía tiempo ya que se había comprendido que la ley de aumento de la entropía sólo vale de modo
absoluto para sistemas aislados, es decir, sistemas que no intercambian nada —ni materia ni energía —
con su entorno. En consecuencia, si se tenía la menor oportunidad de descubrir un mecanismo físico que
permitiera a la entropía disminuir en vez de aumentar sólo podía ser estudiando lo que puede producirse en
sistemas abiertos, es decir, en sistemas que intercambian, efectivamente, materia y energía con el entorno.
Y claro está que los sistemas vivos corresponden a esta situación. De hecho, todas sus funciones dependen
de estos intercambios. Al mismo tiempo, se admitía ya desde 1948 —después de Shrodinger— que podía
haber en teoría una disminución de la entropía en
el interior de un sistema abierto sobrecompensada por un aumento de la entropía en el entorno, gracias a
los intercambios entre los sistemas y su entorno: se desprendía de ello que, globalmente, el conjunto
constituido por el sistema y su entorno era el lugar de un aumento general de entropía, de acuerdo con el
segundo principio. Pero, una vez admitida esta posibilidad teórica, quedaba por saber cómo podía
funcionar eso.
¿Qué tipos de sistemas abiertos son capaces de presentar semejantes propiedades de auto- organización?
¿Cuáles deben ser las le-yes que rigen los intercambios y la estructura interna del sistema de modo que a
partir de un estado homogéneo y no organizado pueda evolucionar de modo automático y necesario hacia
una mayor diversidad y complejidad? El caso trivial es aquél en el que un agente exterior fabrica el sistema
y le da su forma y su complejidad; en
9
Véase más arriba, pág. 86, nota 28.

176
este caso, el entorno actúa mediante un conjunto de instrucciones o una serie orientada de interacciones.
Pero entonces, estando el sistema organizado desde el exterior, por alguien distinto, evidentemente no es
auto-organizado. Por otra parte, puesto que una disminución de entropía sólo puede producirse en un
sistema abierto, es decir, por el juego de interacciones entre sistema y entorno es imposible una auto-
organización en sentido estricto, ya que estando el origen de la disminución de entropía en el exterior no
puede existir, hablando estrictamente, una verdadera auto- organización.
Sin embargo, existen dos posibilidades por lo que respecta a la naturaleza lógica de lo que un sistema
puede recibir del exterior. La
primera es la que acabamos de contemplar: el sistema recibe una serie de impulsos organizados, éstos
inciden en la conformación de
la futura organización y, por tanto, no hay razón alguna para hablar de auto-organización.
La otra posibilidad es aquella en la que la serie de acontecimientos que actúan sobre el sistema no estén
organizados: se trata de perturbaciones aleatorias 10 sin ninguna relación causal con el tipo de organización
que aparece en el sistema. Si, bajo el efecto de estas perturbaciones aleatorias 10, el sistema, en lugar de
quedar destruido o desorganizado, reacciona con un aumento de complejidad y continúa funcionando,
decimos entonces que el sistema es auto-organizador. En un sentido estricto es cierto que no se trata
tampoco de auto-organización puesto que el sistema recibe impulsos del exterior, pero siendo estos
impulsos aleatorios sin relación causal con la organización pasada o futura del sistema, podemos decir del
sistema que se auto-organiza puesto que reacciona sin quedar desorganizado antes, por el contrario,
aumentando su complejidad y su eficacia. En otras palabras, la propiedad de auto-organización parece
vinculada a la posibilidad de servirse de las perturbaciones aleatorias, del <<rui-
10
Estas perturbaciones pueden también provenir de las fluctuaciones termodinámicas, del ruido térmico en el interior del
sistema, aunque en el interior desempeñan el mismo papel que perturbaciones de origen externo, pues, por su carácter aleatorio,
son exteriores a la organización aparente. Sólo desempeñan papel Organizador —en el «orden por fluctuaciones»— en sistemas
abiertos mantenidos lejos del equilibrio por compulsiones impuestas desde el exterior (véase pág. 110). 'Véase también el efecto
similar de ruidos de orígenes interno y externo sobre un sistema abierto, en P. de Kepper y W. Horsthemke, «Estudio de una
reacción química periódica. Influencia de la luz. Transiciones inducidas por un ruido externo», Comptes rendus de l'Académie
des Sciences, París, 1978, T287C, págs. 251-253.

177
do», para producir organización. ¿Pero cómo es eso posible cuando, a primera vista, algunas
perturbaciones aleatorias sólo parecen tener que producir desorden, algo desorganizado?
Sin entrar en detalles, señalemos que la termodinámica del no-equilibrio aporta una solución a esta
paradoja: se trata del orden por fluctuaciones11 cuyo principio explica la aparición y el mantenimiento
de estructuras macroscópicas tales como los torbellinos estables en el agua corriente o formas estables
en una llama de una vela. La aparición de una estructura implica cierto «orden», a veces una
disminución de entropía, pero en el caso de las estructuras dinámicas en estado de no- equilibrio esta
aparición depende de fluctuaciones locales, microscópicas y aleatorias. Desde entonces, a causa de las
constricciones impuestas al sistema, en especial las que intervienen cuando distintos flujos de materia y
energía se acoplan, puede suceder, en ciertas condiciones, que estas fluctuaciones microscópicas sean
amplificadas, aunque no demasiado, y que entonces se estabilicen en el interior de la estructura
macroscópica. Prigogine ha denominado este tipo de estructuras «estructuras disipativas». Más
recientemente, y por analogía con el vocabulario de la teoría de la información, se ha adoptado la
expresión «orden por fluctuación».
A partir de un formalismo distinto pero que no deja de tener relación —el de la teoría de la información
—, la lógica de este tipo de fenómenos ha sido descrita bajo el nombre de principio del «orden por el
ruido», o, mejor, de «complejidad por el ruido» 12. Se trataba de comprender cómo, bajo el efecto del
ruido, es decir, de perturbaciones aleatorias en los circuitos que transmiten la información, es posible
obtener un aumento de la información en el sentido de Shannon (medida de la complejidad). Y,
lógicamente, sin contravenir el teorema fundamental de la teoría de la información que estipula que en
un canal con ruido la información transmitida sólo puede ser destruida o, en el mejor de los casos,
conservada pero en ningún caso aumentada.
Comenzamos a comprender que sólo se trata de una paradoja aparente debido a la injerencia del
observador en las operaciones de medida cada vez que deseamos definir la complejidad, la
organización, lo aleatorio, el orden y el desorden. En efecto, se consideran
11
Véase más arriba, pág. 110.
12
Véase más arriba, primera parte, sobre el «azar organizativo».

178
dos niveles distintos de observación: el primero cuando observamos la información transmitida por un
canal de comunicación, el otro cuando observamos el contenido global de información de un sistema
del que este canal particular es sólo un elemento. La intuición, tras esta aproximación, es que al
disminuir la información transmitida por los distintos canales en el interior de un sistema se
disminuyen las ligaduras del conjunto del sistema. En consecuencia, éste se hace menos rígido, más
diversificado, más capaz de adaptarse a nuevas situaciones. Lógicamente, esto sólo es cierto hasta
cierto punto, pues, más allá del mismo, el sistema se vuelve tan laxo que está completamente
desorganizado. Ahora bien, en ciertos límites y bajo ciertas condiciones puede funcionar.
Una aproximación muy distinta, la de una teoría de la evolución química que lleve a una creciente
complejidad, con aumento de cantidad de información en el nivel molecular 13, mueve a conclusiones
similares. En un conjunto molecular compuesto por macromoléculas capaces de catálisis y de auto-
reproducción (como, respectiva-mente, las proteínas y el ADN), la cantidad de información o, si se
quiere, la diversidad y la complejidad, sólo puede aumentar si una cierta cantidad de errores, pequeña
pero no nula, interviene en la síntesis de las moléculas. Errores moleculares que desempeñan, en este
nivel, el papel que desempeñan las mutaciones en el nivel de la evolución de las especies. Y también
aquí pueden ser origen de modificaciones que comportan un aumento de complejidad.
Algunos ejemplos de la vida de cada día pueden mostrar que todo esto no es tan extraño como parece.
Podemos pensar, primero, en esos pequeños perros artificiales que se colocan con frecuencia en la parte
trasera de los automóviles. Las sacudidas del coche hacen que su cabeza se mueva de un modo que
imita a un verdadero perro. Los movimientos de la cabeza están aparentemente orienta-dos, tienen
sentido y en nada son aleatorios, cuando, de hecho, el perro sólo
se mueve a causa de las perturbaciones aleatorias del vehículo. Estamos aquí ante una utilización de lo
aleatorio productora de una función ordenada. Lo mismo ocurre con los relojes automáticos: los
movimientos del brazo, al azar, sirven para darle cuerda.
Asimismo, sería posible dar ejemplos de sistemas en los que lo aleatorio no sólo se utiliza para producir
una función, sino también
13
Véase más arriba, pág. 55.

179
una estructura ordenada. Uno de estos ejemplos fue expuesto por Heinz von Foerster 14. Se trata de un
montón de pequeños cubos imantados, cada uno de ellos magnetizado de dos modos distintos, tres de sus
caras en una dirección y tres en la otra. Se parte de ese montón de cubos, se los pone en una caja cerrada y
se sacuden al azar. La caja se abre de vez en cuando y se descubre entonces que estos cubos se organizan
según configuraciones geométricas cambiantes que parecen ir construyéndose a medida que eso sucede.
Para alguien que ignorara la magnetización de los cubos, parecería tratarse, efectivamente, de auto-
organización, ya que es difícil decir cuál es la causa de una forma específica en el momento en el que se la
contempla: en primer lugar, es la forma que la precede inmediatamente, es decir, la que existía antes de la
última sacudida; lógicamente, es también la última sacudida pero ésta es totalmente aleatoria: es
imprevisible y nada tiene que ver con la forma ya existente o la que existirá; y, evidentemente, la propia
magnetización es otra causa, aunque ésta ha sido regulada, de una vez por todas, al comienzo. La causa
real es, por tanto, una combinación de las tres. Por ello, este tipo de ejemplos puede ayudarnos, en cierta
medida, a emprender lo que podría ser la auto-organización.
Así, por paradójicos y extraños que puedan parecer, estos principios de «azar organizacional» —de «orden
por fluctuaciones»— son principios de lógica y de física que nos facilitan la comprensión de las
propiedades llamadas de auto-organización. Estas actúan no sólo en el desarrollo y el crecimiento de
organismos individuales, no sólo en la evolución de las especies, sino también en los procesos de
aprendizaje y, particularmente, de aprendizaje no dirigido: se trata, en estos casos, de aprender cosas
totalmente nuevas sin la ayuda de un maestro, es decir, esencialmente a partir de la experiencia. También
aquí encontramos el mismo tipo de paradoja: ¿cómo aprender por la experiencia cosas totalmente nuevas?
También aquí la adquisición de conocimientos es un proceso de aumento de la cantidad de información.
Pero como la absoluta novedad nos es ajena y no puede, pues, ser integrada en nuestro sistema cognitivo,
es preciso que haya algo que pueda integrarla; ahora bien, si esto ocurre, no se trata ya, en este sentido, de
total novedad. La paradoja puede resolverse si se admite que cierto grado de lo aleatorio es necesario para
que exista un crecimiento real de modo que
14
Véase más arriba, pág. 89, figuras 2 y 3.

180
lo aprendido y adquirido sea realmente nuevo, y no una simple repetición de lo ya conocido 15. Desde este
punto de vista, la novedad absoluta proviene del carácter indeterminado de los estímulos que desempeñan
así el papel de perturbaciones aleatorias del sistema al que afectan. La adquisición de conocimientos
nuevos por la experiencia es, así, un caso particular de aumento de información bajo el efecto del ruido.

Dos tipos de inversión del tiempo


Con ayuda de estas nociones sobre el papel de lo aleatorio en los procesos de auto-organización
podemos ahora volver a la cuestión de la irreversibilidad del tiempo. Intentaremos, más precisamente
de un modo especulativo, analizar las consecuencias de estas ideas cuando son extrapoladas y aplicadas
no sólo a la psicología del aprendizaje, sino también a ciertos aspectos de la experiencia psicológica del
tiempo.
Hemos visto que la dirección habitual e irreversible del tiempo era interpretada por Costa de
Beauregard como el resultado de nuestra adaptación al entorno mediante acciones modificadoras de
éste. Acciones que requieren un conocimiento basado en la causalidad tal, que el futuro pueda parecer
determinado por el pasado. Pero he aquí que cuando utilizamos este principio de causalidad, no para el
conocimiento sino para la acción, cuando proyectamos el conocimiento del pasado sobre el futuro y
prevemos una sucesión de acontecimientos para conseguir un objetivo dado, nos damos cuenta, como
hemos visto anteriormente, de cierta inversión en la dirección del tiempo. Percibimos, pues, la
existencia de causas finales aunque utilicemos un conocimiento que descansa, sólo, sobre el
deterninismo causal habitual, que excluye precisamente dichas causas finales. Esto no es una paradoja.
Nos indica tan solo que deben distinguirse bien dos tipos de situación cuando se habla de finalidad, de
causas finales y de inversión en la dirección del tiempo.
El primer tipo de situación es el de una finalidad que aparece cuando alguien tiene un proyecto, un
objetivo que alcanzar, y lleva a cabo unas tras otras las acciones destinadas a obtener este objetivo.
15
Véase «Máquinas de fabricar sentido», pág.152, y, sobre lo realmente nuevo, pág. 86, nota 28 y pág. 87, nota 29.

181
Dicho de otro modo, cuando una voluntad o un deseo rigen la sucesión de los acontecimientos. Ahora
bien, sin duda podrá decirse que no existe nada de eso, ni voluntad, ni intención, ni deseo, y fundar de
este modo un determinismo causal extendido al conjunto del universo: lo que se produce sólo resulta
de efectos determinados por causas anteriores, y lo mismo ocurre cuando producimos los
acontecimientos. La idea de que estos acontecimientos resultan de nuestra voluntad se definirá
entonces como una ilusión puesto que nuestra propia voluntad es determinada por lo que ha ocurrido
antes, etc. Sin embargo, admitir esta posición no basta para suprimir el problema. Tenemos la sensación
de tener una voluntad o un de-seo que determina las cosas de modo secuencial y debemos, pues,
tenerlo en cuenta de modo positivo: no basta decir simple y negativamente que se trata de una ilusión,
es preciso comprender también cómo funciona este sentimiento y cómo es posible que, en cierto nivel
de realidad, aparezca por lo que es. Tal es, pues, el primer tipo de situación en el que observamos
causas finales: cuando alguien —es decir, un locutor que podemos ser nosotros mismos— nos dice que
ha hecho esto o aquello para conseguir esto o aquello, cuando alguien nos habla —o me hablo a mí
mismo— de sus intenciones, de su voluntad, de su deseo, sea cual sea el nombre que se dé al
sentimiento en cuestión.
Pero existe otro tipo de situación, muy distinta, que aparece cuando observamos fenómenos naturales
—no creados artificial-mente por otros hombres— y nos parecen orientados de tal modo que las cosas
se producen como si estuvieran determinadas por un proyecto, es decir, también por una voluntad, un
deseo o una intención. Naturalmente, este tipo de situación se encuentra, sobre todo, cuando se
observan los sistemas biológicos en todos sus niveles de organización, salvo, tal vez, en el nivel
molecular. Eso explica que la biología haya regularmente abierto camino a toda clase de
especulaciones místicas o religiosas y no siempre en el mejor sentido: si se observan fenómenos en los
que las cosas se producen de modo aparentemente finalista, como si resultaran de una voluntad
(aunque nadie esté allí para informarnos sobre esta voluntad), entonces, naturalmente, es tentador
asimilar la existencia de esta supuesta voluntad a la voluntad de Dios o del Creador. Lo que hasta ahora
hemos visto nos muestra que esta hipótesis no es necesaria, pues comenzamos a entender cómo la
materia puede ser sede de fenómenos de auto-organización: a causa de distintos tipos de interac-

182
ciones entre el orden y el azar, trozos de materia pueden evolucionar de tal modo que, para un
observador exterior, parezcan determinados en su futuro, cuando no es en absoluto así.
Es cierto que en estas situaciones —y aunque no estemos obligados a suponer la existencia de una
voluntad consciente— abordamos una inversión local del tiempo en la medida en que se produce una
disminución local de entropía. Esta inversión no resulta, naturalmente, de una voluntad humana que
dicta su orientación, ay, las voluntades humanas son las únicas que conocemos, pues la voluntad de
Dios es sólo una abstracción de la voluntad humana.
De ese modo, estamos ante dos clases de inversión del tiempo: una se produce en las acciones
conscientes y voluntarias del hombre, cuando existe una voluntad; la otra interviene en los procesos
físico-químicos —inconscientes— de auto-organización, cuando funciona el principio de «complejidad
por el ruido».
La primera, que aparece en la acción voluntaria como la expresión de una voluntad consciente, es la
menos poderosa. De hecho no se trata de una inversión real del tiempo, al menos por dos razones:
primero, porque esta inversión sólo se produce en el pensamiento y siempre se tienen motivos para
decir que es más o me-nos ilusoria, ya que la realización del proyecto se efectúa por los habituales
procesos causalistas y productores de entropía. y segundo, porque el proyecto y su realización se
apoyan en el conocimiento del pasado; en efecto, el propio proyecto y su planificación se basan en la
percepción determinista y causalista de los fenómenos en los que las causas preceden a las
consecuencias, y no a la inversa y esto significa que, incluso en el pensamiento, no hay inversión real
del tiempo, porque en el proceso de previsión de la acción el tiempo transcurre en el sentido causalista
habitual. En cualquier forma, esto es precisamente lo que permitió a Costa de Beauregard afirmar que el
principio de acción es lo que crea nuestra percepción causalista del tiempo, del tal modo que podemos
vivir en un mundo donde nuestra supervivencia depende de la propia adaptación de nuestros actos
voluntarios.

«Nada nuevo bajo el sol»


De hecho, apoyándose en esta percepción determinista, estos procesos de voluntad consciente excluyen
cualquier adaptación a

183
una verdadera novedad. Por el hecho que reposan sobre un conocimiento causal están adaptados a
situaciones en las que la acción requerida puede ser deducida de lo que ha ocurrido anteriormente.
Dicho de otro modo, en este tipo de procesos el futuro está en cierto modo incluido en el pasado y no
puede ser algo totalmente nuevo, imprevisible 16. Este es, si puede decirse así, el mundo del «no hay
nada nuevo bajo el sol» del Eclesiastés: si nos imaginamos que, porque se tiene la sensación de una
voluntad libre, va a producirse una real novedad o uno va a adaptarse a la novedad cuando aparezca,
entonces todo el libro del Eclesiastés está ahí para enseñarnos que no es así, como, por otra parte, todas
las filosofías del eterno retorno, basadas en la experiencia de que lo que prevemos y preparamos para
largo plazo, no se realizan nunca. En otras palabras, esta adaptación al medio de una voluntad
consciente basada en un conocimiento inteligente y causal sólo sirve a corto plazo. No es
16
Podemos retomar por nuestra cuenta la distinción de C. Castoriadis (L'Institution imaginaire de la société, Editions du Seuil,
1975) continuada por J.-P. Dupuy («La economía de la moral o la moral de la economía», comunicación en el coloquio de la
casa de las Ciencias del Hombre sobre «Razonamiento económico y análisis sociológico», 1977, Revue d'Economiepolitique,
núm. 3, 1978) entre fabricación y acción. La fabricación hace aparecer una finalidad en la concepción al modo de «el fin de
una realización es comienzo en el pensamiento». Aparece muy claramente en los ordenadores y otros autómatas artificiales,
muy distinta de la acción de los hombres y demás «autómatas naturales». «Cuando construimos un ordenador fijamos tanto
el output deseado como las condiciones de funcionamiento: el universo del discurso del ordenador, el hecho de que reaccione a
fichas perforadas o a cintas magnéticas pero no llore al oír el Jarrón roto han sido fijados por nosotros para obtener un
resultado o un estado bien definido que alcanzar. En la causalidad de la producción de un ordenador por los hombres, la
finalidad del ordenador (más exactamente, su representación) es la causa, su universo del discurso (incorporado en su
construcción) es la consecuencia; en el funcionamiento del ordenador, el orden se invierte; pero ambos momentos son muy
distintos y la situación lógica es clara. No ocurre lo mismo con los autómatas naturales, por un montón de razones de las que
basta con mencionar la principal: no podemos decir nada sobre su finalidad.» (C. Castoriadis, Les Carrefours du labyrinthe,
Editions du Seuil, 1978, pág. 182.) Aquí, la acción, como creadora de nuevo, pondría en juego otra lógica distinta de la de la
fabricación. Sugerimos que la lógica de la autoorganización y del azar organizativo es, tal vez, una primera aproximación a
ello. Desde este punto de vista, el principio de acción de Costa de Beauregard, vinculado sobre todo a los mecanismos
conscientes de acciones voluntarias, sería un principio de fabricación programado (en el que el tiempo de la realización sigue
siendo el de la causalidad irreversible) más que un principio de acción creadora (en el que el tiempo podría «localmente»
encontrar de nuevo su reversibilidad).

184
ilusoria, funciona. Pero lo ilusorio es creer que puede determinar realmente el futuro en un mundo donde
la novedad, los acontecimientos imprevistos, surgen efectivamente.
Por el contrario, las propiedades de los sistemas auto-organizadores —basados no en el determinismo
causal tal como está enraizado en el conocimiento consciente del pasado, sino en los procesos de
utilización de desorden y de lo aleatorio— están perfectamente adaptados a la verdadera novedad
puesto que lo aleatorio es, por definición, la novedad; es incluso lo más nuevo que pueda imaginarse. Y
la auto-organización sólo es un proceso de creación y de estabilización de la novedad. De este modo,
puesto que funciona utilizando lo aleatorio, no puede ser por completo objeto de predicción y, por
tanto, no puede resultar de la conciencia.
Para el Gaon R. Eliahou de Wilna, el alma humana y el tiempo están acoplados por las distintas partes
que los componen 26. Al intelecto consciente (nechama) está asociado el pasado, a la efectividad (ruah)
lo está el presente y a la parte inconsciente más próxima al cuerpo (nefech) el futuro. Hecho interesante.
Esta parte inconsciente, lugar de procesos fisiológicos, es la que está asociada al futuro y no el intelecto,
coma podría creerse, «porque el futuro, como el nefech, es el orden de lo desconocido».
Del mismo modo, la nechama está asociada al pasado porque sólo el pasado puede ser conocido. Esto
ilustra perfectamente nuestro propósito: el futuro no está construido por una voluntad consciente, sino
por un proceso en el que lo desconocido, lo aleatorio inorganizado, puede transformarse en un orden
conocido y organizado.

El Eclesiastés y el tiempo creador. Idealismo y materialismo


De este modo, al «nada nuevo hay bajo el sol», el comentario añade: «pero por encima del sol hay algo
nuevo». Este por encima del sol, por extraño que pueda parecer, está indicado por la luna. En efecto, el
tiempo ritmado por la sucesión de los meses lunares ex-presa, para la conciencia hebraica, el
advenimiento de lo nuevo,

26Likoutei Hagra in Sifra ditseniouta, pág. 78, véase más arriba pág. 149.
185
mientras que, por el contrario, el de los años solares es más bien percibido como tiempo de la
repetición 18.
El mundo del sol (que en hebreo se dice chemech, de chamach, servidor) es el del determinismo visible,
el del desarrollo de lo que ya existía (como el del servidor no es más que la ejecución de lo que existía,
al menos como proyecto en el dueño). Es también el de la conciencia, donde todo ocurre a plena luz. Por
el contrario, lo nuevo, al igual que el mes, sólo puede provenir, como sugieren las fases de la luna, de un
proceso de destrucción y de muerte seguido de un renacimiento, y sólo se produce durante la noche. El
lugar y el tiempo de la repetición, como los de la conciencia o el conocimiento del pasado, es la luz del
día. La verdadera novedad surge por la noche, con el renacimiento de la luna. Por ello, aunque sometida
también al determinismo del sol (y, por tanto, desde este punto de vista, estando también «bajo el sol»)
es vista, sin embargo, como la indicación de ese «por encima del sol» donde puede suceder lo nuevo.
Todo esto puede resultar bastante parecido a filosofías idealistas como las de Bergson, Schelling o
Schopenhauer, para quienes las fuerzas activas son las de una voluntad inconsciente que actúa sobre la
naturaleza, mientras que la conciencia, la inteligencia, son instrumentos particulares por medio de los
cuales la especie humana está adaptada a sus necesidades de acción sobre su entorno.
De hecho, lo que hemos aprendido de la biología físico-química es muy diferente. La distinción entre el
principio de acción, basado en la percepción causalista del tiempo, y el principio de auto- organización,
más orgánico y esencialmente inconsciente y capaz de des-cubrir y de asimilar la novedad, no debe ser
identificado con un idealismo de este tipo que opone la vida y la materia, como lo atestiguan, por
ejemplo, las siguientes líneas de Bergson: «La inteligencia se caracteriza por una comprensión errónea
de la vida; el instinto, por el contrario, adopta la forma misma de la vida. Mientras que la inteligencia
trata todas las codas de modo mecánico, el instinto procede —si así puede decirse— de modo
orgánico... porque no hace sino continuar el trabajo por el que la vida organiza la materia.» Lo que
hemos visto más arriba es bien distinto: lo que está en
18
Mes (lunar) se dice en hebreo hodech, de hadach (nuevo). Por el contrario, año (solar) se dice chana, de chinoui (cambio
repetitivo) como el segundo (cheni) es una repetición del primero.

186
el origen del concepto de «complejidad por el ruido» o «azar organizacional» podría muy bien, y en
cierto modo, ser considerado como idealismo, pero también es posible ver en ello un puro materialismo.
En realidad, no se trata ni de lo uno ni de lo otro. Lo que aquí se ve no es «la vida organizando la
materia», sino la materia organizándose a sí misma, y lo que buscamos son las leyes que rigen estos
procesos de auto-organización. Estas leyes, que gobiernan la auto-organización de la materia, pueden
por otra parte servir para comprender el aprendizaje y la adquisición del conocimiento, es decir, de los
fenómenos que implican el uso de la inteligencia y no son sólo inconscientes (piénsese, por ejemplo, en
los trabajos de Piaget). Desde este último punto de vista, todo ello puede aparecer pues, muy
materialista. Pero, de otro lado, estas leyes utilizan conceptos muy abstractos, tales como los de
información, aleatorio, organización, etc., y la significación de estos conceptos no debe buscarse,
ciertamente en una materia pura, totalmente separada de las categorías de nuestro espíritu; en esto, pues,
puede parecer que somos muy idealistas. De hecho, este modo de pensamiento no pertenece a uno ni a
otro campo; no depende sólo del espíritu ni sólo de la materia, sino de la interacción de ambos tal como
se produce necesariamente cada vez que una observación y una medida son efectuadas, observaciones y
medidas que están en la base de todas las ciencias experimentales. No es sorprendente, desde entonces,
que la teoría de la información que desempeña un papel fundamen
tal en este modo de pensar proporcione también a la física una teoría de la medida (Brillouin, 1956).
Ello muestra, entre otras cosas, que hay razón para ser muy prudente cuando se intenta fundar una
metafísica sobre el conocimiento científico, porque este cono-cimiento evoluciona y porque, además, en
cada momento de la historia de las ciencias, las metafísicas inspiradas en un mismo cuerpo de teorías
científicas son múltiples y contradictorias.
En realidad, como siempre ha sucedido, los viejos problemas filosóficos y metáfisicos se abordan hoy
desde un ángulo nuevo y con nuevos conceptos, gracias a los desarrollos de las ciencias de la
naturaleza, y eso es todo lo que podemos hacer: renovar la aproximación a los viejos problemas
utilizando nuevos conceptos. Esto es cierto en relación a los problemas de nuestra filosofía greco-
occidental, pero también cuando examinamos los mismos problemas a través del lenguaje de la
tradición judía. Así que vamos a evocar

187
muy brevemente el modo cómo los actuales discursos científicos nos permiten leer y reaccionar ante
ciertas enseñanzas tradicionales, aun sabiendo muy bien que sólo podrán tratarse de proyecciones de un
lenguaje en otro, aunque bien es cierto que habitualmente son esas proyecciones las que se producen.
De ordinario, en numerosos círculos tradicionales —por cerrados que sean— estas proyecciones existen
también, aunque permanezcan inconscientes, porque lo proyectado en el lenguaje de la tradición no es
más que los antiguos conceptos filosóficos aceptados y caídos en el dominio público sin que nadie
conozca ya su origen. Inversamente, el lenguaje de la tradición puede ser también proyectado, como
contexto teórico posible, sobre ciertos problemas científicos de hoy. Intentemos, pues, en los que nos
concierne, hacerlo conscientemente, sabiendo lo que hacemos y cómo lo hacemos, es decir, utilizando,
al menos, los conceptos de la ciencia contemporánea, y no los de ayer; así, aunque utilizando dos
lenguajes distintos, nuestra búsqueda será más unificada, como la propia unidad de nuestra vida de hoy,
manteniendo un pie (o un hemisferio cerebral?) en cada cultura.
Para Newton y, tras él, la mecánica clásica, el tiempo era una especie de Dios trascendente: el marco
inmutable que permitía producirse a los movimientos y los cambios , el inalterable unificador de todos
los movimientos y de todos los cambios. En el interior de este mundo, los seres vivos no podían
aparecer más que condenados a la destrucción y a la muerte; el tiempo era una versión moderna del dios
griego Cronos, devorador de sus hijos. En este mundo, la aparición de la vida, el nacimiento y el
desarrollo de los organismos vivos sólo podían ser un escándalo para el físico y puesto que al parecer se
desarrollaban en un sentido contrario al orden natural de las cosas, eran incomprensibles.
Hoy es posible borrar el escándalo y comenzar a comprender leyes físicas de disminución de entropía y
de aumento de información y de organización, aunque, desde un punto de vista formal, estas leyes
puedan implicar una inversión de la dirección del tiempo. En nuestros días, cuando la física y la
química han penetrado totalmente en la biología, podría creerse que íbamos a encontrar algo nuevo bajo
la ley del Dios mecánico newtoniano. Y he aquí que no ha sido así. La física se ha convertido en una
nueva física donde el desorden, las fluctuaciones, el ruido y lo aleatorio se tienen en cuenta: no
constituyen ya un fondo puramente negativo en el que aparecen el orden, la organización y la vida. En
adelante, lo aleato-

188
rio, el ruido, los propios procesos de muerte desempeñan un papel positivo en los procesos de vida, es
decir, en la organización, el aprendizaje y la maduración. La dirección de los cambios —el pro-
pio tiempo— no es ya un marco único que se impone a todo. El tiempo y su dirección son, por así decirlo,
«vertidos» en el interior de cada sistema en movimiento 19. Dicho de otro modo, las coordenadas del
espacio y del tiempo no son datos primarios, no son el marco universal donde se producen los
acontecimientos y los cambios... Y, del mismo modo, la voluntad consciente no es nuestro primer
componente.
Como componente primario y fundamental determinante de nuestra realidad, la voluntad es una ilusión,
aun cuando, como realidad derivada, exista y funcione. Nuestros componentes primarios son, por una
parte, un conocimiento o memoria consciente vuelta hacia el pasado Y, por la otra, una orientación
inconsciente de los procesos, que podemos denominar voluntad* si se desea, pero que es una voluntad
totalmente inconsciente y que, como tal, determina un porvenir en el que puede aparecer la novedad. Los
acontecimientos, los cambios, los movimientos, lo aleatorio, ésos son los datos primeros, acoplados a una
memoria cono mecanismo estabilizador. Todo sistema individual es regido y orientado de acuerdo con su
propio marco de referencias. Este marco resulta de la estructura del propio sistema, pero también de las
relaciones mutuas con otros sistemas y, en este sentido, este marco de referencia tampoco es totalmente
arbitrario, pues no está separado del resto del universo.
En un mundo así conceptualizado, donde la complejidad de la organización se toma. en cuenta, así como
su naturaleza jerárquica (es decir, las interaccones entre sistemas que conducen a sistemas integrados más
importantes), depende de la estructura del propio sistema que lo aleatorio sea fuente de destrucción o de
creación. En semejante mundo —al revés que en el de Newton— el tiempo aparece más como una especie
de dios inmanente, un poco al modo como R. Haim de Volozhim y algunos comentaristas hasídicos nos
piden que leamos un pasaje célebre del Tratado de los Padres cam-
19
Véase una exposición detallada de estas nociones en el libro de A. Pacault y C. Vidal, A chacun selon son temps. Se hallará en él
planteada la cuestión del tiempo de cada sistema físico-químico que se trata de definir a partir de su ley de evolución, a la vez en
unidades que le son propias y en relación a un tiempo físico común, tomado habitualmente como marco de referencia.
* Anteriormente el autor lo ha denominado «volición». (N. del T.)

189
biando su habitual significación edificante y trascendentalista: «Sé* quien por encima de ti» 20 traducido
en los catecismos como «conoce al que está por encima de ti», en una lectura igualmente correcta desde el
punto de vista de la gramática hebraica: «conoce que el que está por encima (y determina las cosas) viene
de ti». Esta idea está en la raíz de la confianza sin límites en que todo nos ha sido dado para ser
transformado y readaptado, y que, en último extremo, incluso la muerte puede ser vencida. (En la medida
en que los procesos de organización de los sistemas vivos contienen la muerte como parte integrante
responsable de su incesante transformación —por desorganización- reorganización—, la idea de la victoria
sobre la muerte puede comprenderse como una especie de paso al extremo, suponiendo que esta
transformación pueda algún día «completarse».)
De modo distinto, la misma idea es expresada en la literatura hasídica de un modo que la emparenta con
una especie de principio de orden a partir del desorden. Se trata del tikkun haolam, corrección o arreglo,
por algunos hombres, de un mundo que hubiera sido falsificado o turbado. A este propósito, según R.
Nahman de Brazlav, «el asunto consiste en incluir la categoría de lo no-ordenado en la de lo ordenado».
Dicho de otro modo, no se trata de acosar, de destruir el desorden o de hacer como si no existiera, sino de
incluir-lo en el propio orden. Ahora bien, naturalmente, eso sólo es posible si este orden es tal que puede
prestarse a ello: el desorden y lo aleatorio deben formar necesariamente parte de él. De hecho, constituyen,
como hemos visto, el elemento creador, el que engendra la novedad. Hemos visto cómo la biología
moderna, armada con la cibernética, nos enseña su posibilidad efectiva en el mundo físico; y nos da, al
mismo tiempo, el medio de asentar más sólidamente la intuición —bergsoniana entre otras— de un poder
creador del tiempo, sin por ello introducirnos en la vía de un idealismo difícil-mente sostenible.
Este poder creador supone una inversión del tiempo (por oposición al transcurso determinista y
causalista de los acontecimientos): dicho de otro modo, lo que adviene —el proceso continuo del ser
que se renueva— aparece determinado por lo que sucederá (y que hoy no es conocido) más que por lo
que ya ha sucedido —por el
* Se juega con la doble acepción de «sé»: sé de ser y sé de saber. (N. del T.)
20
«Da ma lemaala mimekha», Pirkei Avot (Tratado de los Principios), cap. II, 1.
190
futuro más que por el pasado—. Como hemos visto, comenzamos a comprender que es posible durante
el desarrollo epigenético donde la individualidad resulta no ya de una voluntad consciente, no por tanto
—en este sentido— de la «voluntad de Dios», sino de las interacciones no determinadas de un pseudo-
programa con el en-torno. Este poder creador del tiempo es también lo que, de modo más subjetivo,
sentimos durante la infancia y la juventud, mientras a un anciano el presente le parece cada vez más
una repetición del pasado. (Un deseo de cambiar ese estado de cosas y de vencer el envejecimiento y la
muerte puede ser visto como el origen de las doctrinas sobre el «mundo futuro», que permiten a los
hombres, pese al envejecimiento y la muerte, seguir imaginando un porvenir desconocido.)
La biología físico-química nos indica, sin por ello darnos, naturalmente, la receta, cómo todo ello es
teóricamente posible, al me-nos, en un principio, y cómo funciona en los sistemas biológicos en
desarrollo. Precisamente, aunque de modo abstracto, esto puede re-sumirse así: la dirección irreversible
habitual del tiempo está invertida en los procesos donde la entropía de un sistema abierto disminuye y
donde la información y la organización se crean por utilización de interacciones aleatorias del sistema
con su entorno. Y esto no es más que una consecuencia directa de que el carácter irreversible habitual
del tiempo en física está determinado por la ley de aumento de la entropía. Se deduce, pues, que si en
alguna parte puede producirse una disminución de entropía, todo ocurre como si la dirección del
tiempo estuviera allí, localmente, invertida, lo que es lo mismo que decir que el paso del tiempo se
convierte de destructor en creador.

191

BIBLIOGRAFÍA

-O. Costa de Beauregard, «Two principles of the science of time»,


Ann. N. YAcad. Sci. 138, art. 2, 1967, págs. 407-421.
-O. Costa de Beauregard, Le SecondPrincipe de la science du temps,
París, Editions du Seuil, 1963.
-O. Costa de Beauregard, «Récents progrés dans l'analyse de 1'irréversibilité physique», en Sadi
Carnot et l'Essor de la thermo-dynamique, París, Editions du CNRS, 1976, págs. 413-422.
-O. Costa de Beauregard, «Réflexions sur l'irréversibilité physique», L'Idée de regulation dans les
sciences, A. Lichnérowicz, F. Perroux et G. Gadoffre (eds.), París, Maloine-Doin, 1977, págs. 193203.
-H. Atlan, L'Organisation biologique et la Théorie de l'information, París, Hermann, 1972.
-H. Atlan, «Conscience et désirs dans des systemes auto-organisateurs», L'Unité de l'homme, E.
Morin et M. Piattelli-Palmarini (eds.), París, Editions du Seuil, 1974, págs. 449-475 y págs. 487 490, et
plus haut, pág. 133.
-H. Atlan, «On a formal definition of organisation», Journ. Theoret. Bio., 45, 1974, págs. 295-304. -K.
R. Popper, «The arrow of time», Nature, 17 marzo 1956, vol. 177, pág. 538.
E. L. Hill y A. Grunbaum, «Irreversible processes in physical
theory», Nature, 22 junio 1957, vol. 179, págs. 1296-1297.
-K. R. Popper, «Irreversible processes in physical theory», Nature,
22 junio 1957, vol. 179, pág. 1297.
-K. R. Popper, «Time's arrow and entropy», Nature, 17 julio 1965, vol. 207, núm. 4994, págs. 233234.
-R. G. Sachs, «Can the direction of flow of time be determined?», Science, 1963, vol. 140, págs. 1284-
1290.
-E. T. Jaynes, «Information theory and statistical mechanics», Physical Review, 106, 1957, págs. 620-
630.
-A. Katz, Principes of Statistical Mechanics; The Information Theory Approach, San Francisco, W.
H. Freeman Publ., 1965.
192
-P. Glansdorff e I. Prigogine, Structure, Stabilité et Fluctuations, París, Masson, 1971.
-P. Glansdorff e I. Prigogine., «Entropie, structure et dynamique», en Sadi Carnot et l'Essor de la
thermodynamique, París, Editions du CNRS, 1976, págs. 299-315.
-I. Prigogine, «Order through fluctuations: self-organization and social system», en Evolution and
Consciousness, E. Jantsch et C. H. Waddington (eds.), Reading Mass. Addison Wesley, 1976, págs. 93-
131.
-I. Prigogine, C. George, F. Henin y L. Rosenfeld, «A unified formulation of dynamics and
thermodynamics», Chemical Scripta, 4, 1973, págs. 5-32.
-J. Ullmo, «Le principe de Carnot et la philosophie», en Sadi Carnot et l'Essor de la
thermodynamique, París, Editions du CNRS, 1976, págs. 399-408.
-L. Brillouin, La Science et la Théorie de l'information, París, Masson, 1956.
-A. Pacault y C. Vidal, A chacun son temps, París, Flammarion, 1975.

193
7

VARIABILIDAD DE LAS CULTURAS Y VARIABILIDAD GENETICA 27


necesariamente adquiridos, podrían inscribirse en el patrimonio genético hasta hacerse hereditarios?
Sin embargo, en lo que concierne a las primeras etapas de la hominización, el papel dinámico de tal
feedback ha sido ampliamente analizado por investigadores como A. Leroi-Gourhan [3], S. Moscovici
[6], E. Morin [5]. Ahí, fenómenos socioculturales tales como la invención de la caza colectiva pudieron
ser el origen de cambios de los entornos a la vez naturales: abandono de la selva hacia la sabana, y a la
vez sociales, que pudieron provocar cambios cualitativos
1
Inicialmente aparecido en Annales de génétique, 1975, 18, núm. 3, págs. 149-152 (Editorial).
Las referencias bibliográficas, indicadas por corchetes [], han sido agrupadas al final del capítulo.

194
en las presiones de selección, originando una nueva orientación de la evolución biológica que,
finalmente, hubiera conocido al Homo sapiens Neanderthalis adaptado a este nuevo entorno.
Dicho de otro modo, sin cuestionar la no-herencia de los caracteres adquiridos y de modo no
contradictorio con los actuales esquemas de las teorías neo-darwinistas, es posible imaginar cómo, en
el nivel de la distribución de los genes en las poblaciones, y no, naturalmente, de los genomas de los
individuos, algunos factores socioculturales pueden modificar el patrimonio genético creando nuevos
entornas fuente de presiones de selección nuevas. Y así si no hay herencia de los caracteres adquiridos
en el nivel de los individuos, todo ocurre como si la hubiera, indirecta y estadísticamente, en el nivel
de las poblaciones, mediante modificaciones de las frecuencias de genes.
El objeto de este capítulo es analizar el posible papel de tales mecanismos en la evolución llamada

27Noción de selección cultural


Hoy se admite habitualmente la idea de que la evolución biológica en la especie humana se ha hecho
considerablemente más lenta y ha sido sustituida por una evolución cultural: las curvas de aumento del
volumen del cráneo superpuestas por A. Leroi-Gourhan [3] a las de la evolución de las técnicas son una
espectacular ilustración de ello. Pero entonces se plantea la cuestión de la posibilidad de un feedback de
los factores culturales sobre los mecanismos de la evolución biológica.
Por otra parte, esta idea no es nueva. La idea de que la cultura modifica el patrimonio genético se
remonta al menos a Lamarck, retomada más recientemente por Lyssenko con el éxito que se conoce.
Dicho de otro modo ha sufrido en la biología moderna la suerte del lamarckismo, condenado sin
apelación desde que la herencia de los caracteres adquiridos fue definitivamente rechazada como la
herejía genética por excelencia. ¿Cómo, en efecto, los facto-res culturales y, por tanto,
cultural de la especie humana que prosigue hoy ante nuestros ojos.
Este análisis debe afectar no sólo a la especie humana en su conjunto, sometida a las presiones de
selección de su entorno con-templado a escala del planeta, sino también a los diversos grupos humanos
más o menos separados unos de otros. En efecto, si el aislamiento absoluto es por completo
excepcional si no inexistente, existen aislamientos relativos, determinados por factores a la vez
geográficos y socioculturales que limitan la panmixia teóricamente posible a escala planetaria,
expresando las tasas de endogamia la importancia cuantitativa de este aislamiento relativo en el nivel
de poblaciones distintas.
Abordemos, pues, cuál puede ser el efecto de los condicionamientos socioculturales distintos sobre los
patrimonios genéticos de estas poblaciones.
Un reciente estudio de Lewontin [4], citado por A. Jacquard [2], ha intentado cuantificar lo que en la
variabilidad genética 28 de la especie humana pertenece a una variabilidad entre individuos en el
interior de los grupos (naciones, tribus, «razas», etc.) y lo que pertenece a una variabilidad entre
grupos. Se desprende que, en la hipótesis de matrimonios al azar, en el interior de cada grupo la va-
2
La variabilidad es, por lo general, medida por la frecuencia de heterozigotos para un gen dado en una población.
Lewontin ha utilizado aquí un valor próximo, aunque distinto, dado por la función H (cantidad de información) de
Shannon (véanse referencias [1] y [4] sobre las relaciones entre variabilidad e información).

195
riabilidad entre individuos es responsable, aproximadamente del 90 por 100 de la variabilidad global,
entre naciones o tribus del 5 por 100 y entre «razas» del 5 por 100. Pero bien sabemos que los
matrimonios no se efectúan por azar. Dos fenómenos socioculturales responsables de autoselecciones
en el interior de las poblaciones pueden ser analizados en este nivel: el uno es la existencia de reglas
explícitas de matrimonio. El otro consiste en la eficacia de las reglas de matrimonio implícitas, no
formuladas, resultantes de la valorización cultural por una sociedad dada
de tal o cual carácter visible, ya se trate de un tipo físico dado, «cánones» de belleza, o sobre todo de
un tipo de comportamiento particular, guerrero, cazador, músico, artesano, «artista», intelectual, etc.
Se concibe fácilmente cómo, si una sociedad dada valora un tipo físico o de comportamiento particular,
los individuos que presenten este carácter se verán favorecidos por el prestigio que así le será concedido
y podrán casarse en las mejores condiciones posibles: gran elección de parejas, especialmente, entre
aquellos o aquellas que presenten el mismo carácter o, eventualmente, un carácter complementario que
favorezca su expresión, buenas condiciones materiales que permitan la supervivencia y la educación de
los hijos y que idéntica selección se efectúa luego entre estos hijos. Para que este carácter se vea así
seleccionado, para que su frecuencia aumente tras varias generaciones y se haga superior a lo que es en
otras poblaciones, en culturas distintas, basta evidente-mente que tal tipo físico o tal modo de
comportamiento dependa, aunque sólo sea en parte, de aptitudes genéticas. Ahora bien, podemos pensar
más allá de la existencia de casos límites, «geniales» o patológicos, que algunas aptitudes para la
carrera, la música, sin hablar de aptitudes intelectuales o trastornos del comportamiento, tienen
componentes genéticos aunque su expresión dependa de condiciones del medio más o menos favorables.
Es decir, que todos tenemos razones para pensar que este mecanismo de selección cultural actúa,
efectivamente, en los distintos grupos sociales en estado de aislamiento relativo que constituyen la
especie humana. La «única» cuestión, evidentemente fundamental, se refiere a la importancia de este
mecanismo, es decir, a la rapidez en términos de número de generaciones con la que un patrimonio
genético puede verse así modificado. Se concibe que esta rapidez será tanto mayor cuando : a) el grado
28Variabilidad cultural y variabilidad genética

Si se admite que la variabilidad genética global es un factor favorable para la supervivencia de la


especie humana puesto que condiciona la adaptabilidad, la cuestión que aquí nos planteamos es la de la
importancia de la variabilidad cultural como factor de supervivencia de la especie humana. En efecto, si
la selección cultural es eficaz en la modificación de los patrimonios genéticos de las poblaciones, la
variabilidad de las culturas debe de ser inevitablemente
de aislamiento (es decir, tasa de endogamia) sea elevado; b) el componente genético del carácter

196
cultural valorado sea grande; c) la presión selectiva ejercida por esta valoración sea eficaz en la
determinación de los matrimonios y de la fecundidad.
En los cálculos citados más arriba, la hipótesis de matrimonios al azar está justificada, pues se refieren a
caracteres ocultos descubiertos experimentalmente por los marcadores inmunogenéticos. Lo que nos
falta para un estudio experimental de la importancia de la selección cultural en la variabilidad
intergrupos es, evidentemente, la eventual puesta en marcha de marcadores de comportamiento que
permitan medidas de frecuencia de los genes no limitados a la inmunogenética
o, más generalmente, a los caracteres culturalmente neutros.
Sin embargo, tales marcadores, en relación directa con un comportamiento particular, tal vez no sean
absolutamente indispensables. De hecho existen marcadores genéticos no causalmente vinculados a un
comportamiento, como ciertos marcadores inmunogenéticos de los que curiosamente ciertos estudios de
frecuencia habrían mostrado previamente la correlación estadística con dicho comportamiento (véase
por ejemplo J. Ruffié y J. Bernard [7]) que podrían tal vez también permitir este tipo de investigaciones
3
.
3
Recientes trabajos —A. E. Mourant y otros [8]— parecen indicar que un mecanismo de este género habría funcionado en la
constitución de patrimonios genéticos de comunidades judías dispersas y mantenidas en estado de pseudo-aisla- dos. Una
comunidad de Polonia, por ejemplo, está genéticamente más aislada de una comunidad de Marruecos de lo que lo está de la
población polaca circundante, y de lo que la comunidad de Marruecos lo está de la población marroquí no judía. Sin
embargo, ambas comunidades tienen en común algunos marcadores genéticos presentes con mayor frecuencia que en las
poblaciones circundantes. Eso se debería, a la vez, a un origen antiguo común y a las condiciones históricas —
socioculturales, por tanto— de su mantenimento en estado de pseudo-aislados.

197
responsable de una parte importante de la variabilidad genética de la especie humana.
Dicho de otro modo, en semejante hipótesis una tendencia a la homogeneización de las culturas del tipo
de la que estamos actual-mente asistiendo, si bien facilita, por lo menos superficialmente, las
comunicaciones, podría no tener sólo ventajas desde el punto de vista de las capacidades adaptativas de
la especie humana, en la medida en que cierta heterogeneidad de las culturas podría reforzar la
diversidad de los patrimonios genéticos.
Subrayemos que esta hipótesis debe ser cuidadosamente distinguida de las teorías racistas cuyos
desaguisados hemos conocido ya en exceso: la variabilidad cultural puede ser un factor de variabilidad
genética y aumentar por ello las aptitudes de toda la especie, sin que ello implique en el nivel de los
individuos el más mínimo determinismo racial genético, con las nociones de superioridad o inferioridad
a dicho determinismo asociadas. La variabilidad cultural, en efecto, sólo tiene efectos estadísticos sobre
distribuciones de frecuencias de genes que existen, de todos modos, en todas las poblaciones. Más aún,
se sabe que si una población está totalmente aislada las oportunidades de homogeneización genética al
azar («deriva» genética de genes selectivamente «neutros») son mucho más elevadas que si, en cada
generación, una fracción no nula de los individuos está compuesta de inmigrantes. O dicho de otro
modo, la división de la especie humana en pseudo- aislados revela un carácter favorable, en principio,
por un doble aspecto: por un lado, el aislamiento permitiría, gracias a la variabilidad cultural existente
entre unos grupos y otros, incrementar relativamente la variabilidad genética intergrupal, y por otro
lado el carácter relativo de dicho aislamiento incrementaría la variabilidad intergrupal, interindividual,
en el interior de cada uno de los grupos.
Este carácter de pseudo-aislados, ni aislamiento total ni mestizaje total, sería así un optimum desde el
punto de vista del valor selectivo de la especie. Según los esquemas explicativos habituales, no
desprovistos de circularidad, se explicaría así y a posteriori su existencia y su mantenimiento a lo largo
de la historia de la humanidad: si una división en aislados hubiera tenido un valor selectivo más
elevado habría sido seleccionada; del mismo modo, si un mestizaje total hubiera tenido un valor
selectivo más elevado, habría sido también seleccionado... A menos que, por razones históricas y
geográficas, esta última no hubiera todavía tenido tiempo de produ-

198
cirse y que la civilización mundial hacia la que al parecer tendemos sea, de hecho, la primera
oportunidad que se le concede de probar su valor. Un modo de decidir entre estas alternativas (antes de
esperar el veredicto del futuro con el riesgo del fracaso Y, por tanto, de desaparición que comporta)
sería poder medir, como indicábamos más arriba, la eficacia del mecanismo de la selección cultural en
el mantenimiento de la variabilidad genética global de la especie humana.
Agradecim ientos

El autor agradece a los señores J. Ruffié, A. Jacquard Y L. Poliakov que hayan querido discutir las
ideas aquí expuestas antes y después de haber leído el manuscrito.

BIBLIOGRAFÍA
1. H. Atlan, L'Organisation biologique et la Théorie de l'information, París, Hermann, 1972.
2. A. Jacquard, «L'évolutionnisme évolue», La Recherche, 1975, 54, págs. 176-177.
3. A. Leroi-Gourhan, Le Geste et la Parole, París, Albin Michel, 1972.
4. Lewontin, The Genetic basis of evolutionary change, Columbia University Press, 1974.
5. E. Morin, Le paradigme perdu: la nature humaine, París, Editions du Seuil, 1973.
6. S. Moscovici, La société contre nature, París, UGE, col. «10-18», 1972.
7. J. Ruffié y J. Bernard, «Peuplement du Sud-Ouest européen. Les relations entre la biologie et la
culture», Cah. anthropol. Ecol. hum., II (2), 3-18, 1974.
8. A. E. Mourant, A. C. Kopec, K. Domaniewska-Sobzac, The Genetics of Jews, Clarendon Press,
Oxford, 1978.

199
Tercera parte PROJIMOS Y PROXIMOS

«Por la rivalidad de los escribas se aumenta la sabiduría»,


Talmud de Babilonia, Baba Batra, pág. 21a.

«El prudente supera al profeta», Talmud de Babilonia,


Baba Batra, pág. 12a.

La investigación científica y el método experimental no impiden abrirse a otros modos de pensar,


surgidos de la filosofía y de las más antiguas tradiciones. Aun a riesgo de que unos nos traten de
místicos y que otros —aquellos que buscan la profecía más que la teoría— nos acusen de lo contrario,
la cuestión es debatir con aquellos que están próximos a las nociones que hemos expuesto.
Se trata, ante todo, de no caer prisioneros de un corsé mortífero y pasado de moda que estaría
condenado a ser derribado en este fin de siglo, de milenio y de civilización. Es cierto que el no
quererse encerrar en una posición tiene un doble riesgo: el abismo de la facilidad y el reposo de la
ciencia universitaria, prudente y conformista, y el delirio-delicia de la contra-cultura, de la ciencia y
del arte profético.
200
Por ello, son importantes estos encuentros como aquellas otras perspectivas teóricas próximas, pero
tomando al mismo tiempo una cierta distancia de los que se reconocen como prójimos.
Estos debates, cuyo reto es no caer en ninguno de los dos polos —el cristal y el humo— sólo parecerán
ociosos a aquellos que han optado por uno de los mismos.
«Entonces se extenderá el odio a los sabios "que irán de ciudad en ciudad y serán rechazados" (Talmud
de Babilonia, Sota, pág. 49b). La fuente será una sed inextinguible de profetas tras todos estos siglos en
los que la sabiduría, deseando cumplir la profecía, habrá conseguido casi asfixiarla. Entonces se
levantarán nuevos profetas, discípulos de Moisés, profeta del vidrio transparente, que reunirán sabiduría
y profecía y se inclinarán y confesarán: "el prudente supera al profeta".» (Según Orot, A. I. H. Kook,
pág. 121.)

HIPERCOMPLEJIDAD Y CIENCIA DEL HOMBRE1 El

paradigma del «hablar juntos»


«Todos sabemos que somos animales de la clase de los mamíferos, del orden de los homínidos, del género
homo, de la especie sapiens, que nuestro cuerpo es una máquina de treinta mil millones de células,
controlada y generada por un sistema genético que se ha constituido a lo largo de una evolución natural de
2 a 4 mil millones de años, y que el cerebro con el que pensamos, la boca por la que hablamos y la mano
con la que escribimos son órganos biológicos, pero este saber es tan inoperante como el que nos informó
de que nuestro organismo está constituido por combinaciones de carbono, hidrógeno, oxígeno y
nitrógeno» (pág. 19). «Tenemos que vincular el hombre razonable (sapiens) al hombre loco (demens), el
hombre productor, el hombre técnico, el hombre constructor, el hombre ansioso, el hombre gozador, el
hombre inmóvil, el hombre que canta y baila, el hombre inestable, el hombre subjetivo, el hombre
imaginario, el hombre mitológico, el hombre crítico, el hombre neurótico, el hombre erótico, el hombre
lúbrico, el hombre destructor, el hombre consciente, el hombre inconsciente, el hombre mágico, el hombre
racional en un rostro de múltiples facetas donde el homínido se transforme definitivamente en hombre»
(pág. 164).
Mientras que el método científico ha consistido hasta ahora en aislar los hechos naturales para
transformarlos en objetos de laboratorio sometidos a experiencias repetitivas sobre las que podía aplicarse
el método experimental, se nos pide aquí que «pensemos juntos» (pág. 105) términos que hasta ahora sólo
lo han sido separadamente en el interior, al menos, de los tres campos distintos del
1
Inicialmente aparecido en Critique, agosto-septiembre de 1974, núm. 327-328, págs. 829-855 sobre Edgar Morin, Le
Paradigmeperdu: la nature humaine, París, Editions du Seuil, 1973. Los números de las páginas remiten a esta publicación.

202
pensamiento y de la experiencia, a saber, el análisis del psiquismo, la sociología y la biología. Lo que se
propone en este libro para este pensar juntos y para fundar así el nuevo paradigma es una lógica de la
hipercomplejidad y de la auto-organización todavía balbuceante, es verdad, pero ya esbozada por otra
parte 2, y que Edgar Morin anuncia para el futuro en el libro sobre El Método 3. En El paradigma perdido:
la naturaleza humana intenta, a partir de un saber actual disperso y estéril, y estéril por estar disperso,
recoger los fragmentos. Se trata de los fragmentos de lo que se puede percibir como un jarrón roto varias
veces, de esta naturaleza humana que ha estallado y se ha desvanecido cada vez que se creía atraparla.
Pero Morin transforma (ante nuestros ojos) esos fragmentos dispersos en elementos de un apasionante
rompecabezas, aunque de un género único porque se trata de un rompecabezas que se destruye y se
deshace sin cesar, cuyos elementos cambian de estructura y, por tanto, de función a medida que se
construye y a través de sucesivos nacimientos. Súper rompecabezas donde no basta asignar un lugar a cada
elemento para haber ganado, ya que hay varios lugares posibles, varias soluciones posibles, al mismo
tiempo y sucesivamente, súper rompecabezas, en fin, porque se trata de un rompecabezas del azar y de la
organización.
Algunos libros4 expresan mejor que otros, al tiempo que los precipitan, los cambios de punto de vista e
inversiones de perspectivas que se producen en la historia del pensamiento, lo que Foucault llamó las
mutaciones del saber y Kuhn llama los cambios de paradigmas.
Una reflexión crítica sobre la historia de las ciencias y de los descubrimientos conduce, en efecto, a
reconocer que los discursos científicos, en vez de ser objetivos y racionales «absolutamente», están de
hechos condicionados, reflejándose de forma inconsciente las formas de pensamiento difusas, anónimas
en su extremo, que caracterizan épocas, sociedades y lenguajes.
2
Véase más arriba, primera parte.
3
Primer tomo aparecido ya en Editions du Seuil, 1973.
4
En un contexto muy distinto, un libro como De la mácula, de Mary Douglas, y, en el universo novelesco, Vendredi, de Michel
Tournier (Gallimard, 1977), desempeñan, a mi modo de ver, un papel similar: aparece en ellos que la organización —función
de organizar— desempeña un papel orgánico, puesto que es estructuran-te de sociedades y psiquismos que parecen, por otra
parte, ser productores de organización sobre su entorno.

203
Tal descubrimiento no podía producirse en tal época, aun cuan-do todos los elementos de conocimiento
experimentales y teóricos estuvieran ya presentes, porque el paradigma dominante, «modelo conceptual
que rige todos los discursos» (pág. 22), no le dejaba lugar alguno. Sin embargo, algunos años o decenas
de años más tarde, aunque los conocimientos, objetiva y cuantitativamente, no han aumentado tanto,
son contemplados de un modo por completo nuevo, a la luz de cuestiones que ni siquiera se
sospechaban y, entonces, se reúnen, naturalmente, en un nuevo discurso, donde la novedad es al mismo
tiempo la del universo conceptual de la época, que invade entonces todos los discursos de un modo tan
«natural» y limitativo que la propia posibilidad de que ha podido ser de otro modo queda olvidada o es
relegada a la estantería de las divagaciones superadas, pueriles, ingenuas o ignorantes del siglo del
obscurantismo que precede siempre a aquél en el que nos hallamos.
En The Structure of Scientific Revolutions, Kuhn describe como «inconmensurables» los paradigmas
sucesivos que han permitido —y luego bloqueado, antes de ser reemplazados— las revoluciones
científicas: los elementos de conocimiento, que pueden ser los mismos, están reunidos en discursos que,
en sentido propio y figurado, no hablan el mismo lenguaje. Muy rápidamente, de pronto, son
seleccionados y cambiados los elementos de conocimiento percibidos como significantes, importantes,
y se relegan los demás al rango de epifenómenos, lo que tiene por efecto hacer estos lenguajes más
herméticos todavía los unos para los otros. Es lo que comentaba Chargaff (Science, 14 de mayo de
1971, pág. 637): «Es casi imposible volver a trazar el curso de la historia de las ciencias hasta una etapa
anterior, pues deberíamos olvidar mucho de lo que hemos aprendido y una gran parte de lo que una
época precedente conocía o creía conocer y que nunca ha sido aprendido por nosotros. Debemos
recordar que las ciencias de la naturaleza son tanto una lucha contra como a favor de los hechos.»
Puede mantenerse que este concepto de paradigma está todavía lejos de ser evidente y que, en cualquier
caso, él mismo es una construcción (resultado... de un paradigma?) «en el interior de las ciencias
sociales a propósito de las ciencias de la naturaleza» (W. J. Fraser, Science, 3 de septiembre de 1971,
pág. 868). Sea como sea, relativiza como es debido los discursos sucesivos de la ciencia occidental
situándolos en relación a los discursos no científicos, y los unos en relación con los otros. Al mismo
tiempo, permite com
204
prender el cómo y el porqué de las revoluciones científicas, consecuencias y causas, a la vez, de crisis
más generales del pensamiento, de la representación, del discurso e incluso de la percepción, estas
mutaciones del saber que Foucault describió y denominó en Les Mots et les Choses.
La microfísica desde comienzos de siglo, y la biología molecular desde hace una veintena de años, nos
enseñan cosas «extrañas», donde el sentido común difícilmente se reconoce, cosas que fuerzan a
cuestionar de nuevo parejas de conceptos tales como realidad y representación, orden y desorden, azar y
determinismo, piedras angulares del antiguo paradigma en cuyo interior la ciencia progresaba
regiamente sobre el camino de la verdad objetiva que se desvelaba sin ambigüedad al hombre armado
con la razón y el método experimental. Al mismo tiempo, esta misma imagen del hombre racional,
liberado de su animalidad y dominando al mundo, se ha derrumbado bajo los embates del psicoanálisis,
de la etnología y de la «crisis» de la civilización occidental en la que todas las ideologías, que
pretendían continuar o reemplazar las predicciones cristianas, se han revelado unas tras otras fuentes de
perversión. No es asombroso así que, desde hace una decena de años, los discursos sobre el hombre
hayan comenzado a ser cada vez más inaudibles.
Y he aquí que Morin arriesga la apuesta de un discurso renovado sobre el hombre, como reclamaba M.
Foucault al final de Les Mots et les Choses, pero que nadie, aparentemente, quería emprender. Y es que,
simultáneamente, debía tratarse —y así es en el libro de Morin— de un discurso sobre las condiciones
de la renovación del discurso sobre el Homo sapiens y su entorno, condiciones epistemológicas
vinculadas al estado actual de las ciencias biológicas, sociales y antropológicas donde se descubren y se
modelan múltiples imágenes humanas. Y haciendo esto, debía tratarse también en reciprocidad de una
reevaluación de lo que nos enseñan estas ciencias, a veces, incluso sin que quienes las enseñan lo sepan,
lo que, por otro lado, no es asombroso dada la especialización necesaria y la compartimentación que
acompaña su desarrollo, situación deplora-da, pero raras veces evitada, entre estas disciplinas. De ahí el
título, «paradigma», perdido ciertamente hasta hoy en los discursos humanistas que implican una cultura
extra-natural, humanizante, des-prendida de la animalidad, y yuxtapuesta sobre una naturaleza biológica
--animal—, pero nuevo paradigma también, recreado, que emerge aquí y allá, y que se deja ya entrever
cuando, como declara

205
el autor, uno se niega a dejarse encerrar en las disciplinas cerradas y a reprimir las preguntas
impertinentes, «no científicas» —es decir, rechazadas por el antiguo paradigma—, que, sin embargo,
nos son sugeridas por la simple yuxtaposición y oscilante articulación de las enseñanzas de estas
distintas disciplinas.

La revolución biológica y la auto-organización


Se conocen las principales tesis de este libro, planteadas en la primera parte. Recuerdan las
consecuencias implícitas, con frecuencia enmascaradas de la revolución biológica, a las que Morin nos
había ya acostumbrado en sus anteriores escritos. Revolución «por abajo» que desmonta los
mecanismos físico-químicos de la replicación de los genes y de su expresión, meridiana demostración
de lo acertado de las concepciones antivitalistas por el aislamiento de las moléculas cuyas meras
características físico-químicas pueden dar cuenta de propiedades hasta entonces misteriosas de la
materia viva: transmisión y manifestación de los caracteres hereditarios. Pero también, y al mismo
tiempo, revolución «por arriba», por la introducción en biología de conceptos como comunicación,
información, código, mensaje, programa, etc., «extraídos de la experiencia de las relaciones humanas
que parecían hasta entonces indisociables de la complejidad psico-social» (pág. 27).
Estos conceptos, tal cual, y pese a sus ambigüedades, desempeñan un papel explicativo fundamental y, por
el momento, indispensable en el paso del nivel molecular al del organismo funcional más simple. De ahí
las nuevas preguntas que se plantean inevitablemente en cuanto no nos dejamos abrumar por el peso de las
antiguas disputas. En efecto, ya en este nivel, el antiguo paradigma es fuente de bloqueos: muy
preocupada por el combate antivitalista, la moderna biología sólo retiene de sus adquisiciones lo que le
permite triunfar de su antiguo enemigo. Cuando éste está ya muerto desde hace ya mucho tiempo, sigue
ocupada en matarle varias veces desdeñando el prodigioso punto de partida que constituyen, en sí mis-
mas, tales adquisiciones por las nuevas preguntas que hacen surgir y que nada tienen que ver con el
antiguo combate. La biología moderna desempeña un papel por completo privilegiado para hacer-nos
coger, con las manos en la masa, los mecanismos de paso de un paradigma al otro. La mayoría de sus
discursos explícitos se inscri-

206
ben todavía en el antiguo paradigma. Pero las preguntas que tales discursos en sí mismos hacen nacer
contribuyen a la eclosión del nuevo. Por ello, algunos discursos de biólogos que se pretenden ortodoxos
tienden a menudo a reprimir estas preguntas como «no científicas», mientras otros, por el contrario,
evocan la impresión de cerrazón, de conclusión o de «agotamiento» 5 de la biología moderna encerrada ya
en sus «dogmas» sólo treinta años después de sus inicios.
Para Morin, evidentemente, no se trata de dejarse encerrar, muy al contrario, la biología nueva puede —io
podría!— proporcionar un marco de referencia y medios de vinculación bio- antropológicos. Gracias a
ella, que no está ya «cerrada a todas las cualidades o facultades que superan estrictamente a la fisiología,
es decir, todo lo que en los seres vivos es comunición, conocimiento, inteligencia» (página 23), la
antropología podrá por fin intentar superar su impotencia ante el problema de la relación
hombre/naturaleza. Al mismo tiempo no se puede dejar de ver en este proyecto —o en esta esperanza—
una relación con la empresa de Piaget que se sitúa, sobre todo, en el nivel del desarrollo del individuo,
mientras que Morin hace hincapié en el de las sociedades.
Pero aparece ya lo que será el leit-motiv de todo el libro, a saber, el papel epistemológico central de una
reflexión sobre la complejidad y la complejización. Ocurre, en efecto, que la revolución «por arriba» no
está sólo superpuesta a la revolución «por abajo», pues «la apertura físico-química» de la biología es al
mismo tiempo y en sí misma una apertura psico-social a causa del papel central, diferenciador y unificador
a la vez, que desempeña la complejidad. La complejidad es lo que diferencia la físico-química biológica
de la otra físico-química. Y es la complejidad lo que aproxima la biología físico-química a la lógica de las
relaciones psico-sociales. Pero complejidad, complejización —sin hablar de organización—son todavía
conceptos vagos e intuitivos. Pues bien, la ciencia de la complejidad, de la organización y, sobre todo, de
la auto-organización es la que, para Morin, tras los pasos de Von Neumann y otros, constituirá el núcleo
del nuevo paradigma.
Se sabe que la elucidación y la precisión de nuevos conceptos han ido con frecuencia a la par con la
emergencia de nuevos para-
5
F. Gros, lección inaugural, cátedra de Bioquímica celular en el Colegio de Francia, enero de 1973.

207
digmas 6. El concepto newtoniano de fuerza se ha liberado poco a poco de las representaciones e incluso
de las «visiones» vagas, místicas, presentes en Kepler y el propio Newton, y ha fundado el paradigma
mecanicista del siglo XVIII. Multiplicada por el desplazamiento, ha permitido la
cristalización del súper-concepto de energía, surgido también de la ambigüedad de las representaciones
intuitivas. Alrededor de este concepto, la ciencia de los intercambios termodinámicos y del equilibrio se
desarrolló en el siglo XIX, apenas corregida por los principios de evolución añadidos, mal integrados,
que constituían el segundo principio de la termodinámica y las teorías de la evolución biológica en las
que hoy, a posteriori, podemos ver anunciarse ya la intuición de la complejidad, a través de las ideas de
orden, de desorden y la noción de entropía.
Por lo que concierne a la ciencia de la segunda mitad del siglo XX, y por un montón de razones
vinculadas especialmente al desarrollo de las teorías de los autómatas, Von Neumann predecía un
destino análogo al concepto de complejidad funcional y adaptadora. Pero, por el instante, «demasiado
abstracta todavía con respecto a la búsqueda empírica y prematura todavía para las aplicaciones
prácticas, la teoría de la auto-organización sigue siendo embrionaria, desconocida, marginal; no ha
embarrancado, pero permanece embarrancada a la espera de la nueva marea» (pág. 30). Cita que alude a
los trabajos formales, abstractos, sugeridos por la biología y desarrollados en estos últimos años por
algunos autores (Von Neumann, McKay, Von Foerster, Ashby, Atlan), en los que ha podido ser
reconocido el papel de lo aleatorio —del «ruido»— en los procesos de auto- organización.
Paralelamente, algunos físico-químicos (I. Prigogine, A. Katchalsky, M. Eigen...), siguiendo los pasos
hidrodinámicos, descubrían mecanismos de estructuración por acoplamiento de flujo, en los que las
fluctuaciones aleatorias ampliadas y estabilizadas en sistemas dinámicos desempeñan el papel de los
factores desencadenantes. Morin, por su parte, sin aguar-dar a la «nueva marea», extraerá de las teorías
formales de la auto-organización, en especial del «principio del orden a partir del ruido» (Von Foerster,
Atlan), los primeros elementos de una teoría de la hipercomplejidad que se hallará en las articulaciones
centrales de los capítulos siguientes y se ampliará hasta el punto de estallar
6
Véase «Reflexions on art and science», A. Katzir- Katchalsky, en Leonardo, vol. 5, págs. 249-253, Nueva York, Pergamon,
1972.

208
en «visiones», algunas de las cuales podrían, evidentemente, ser contestadas. De este modo, si bien es
cierto que esta teoría de la auto-organización sigue siendo «desconocida, marginal, embarrancada», todo
el libro de Morin pone de relieve su necesidad conceptual. Si es cierto que el marginalismo de esta
teoría es la consecuencia del «viejo paradigma», entonces es evidente que Morin, al revés que la
mayoría de investigadores actuales, quiere situarse ya en un futuro paradigma —pues «el viejo
paradigma está hecho añicos y el nuevo no se ha constituido»— en el que una teoría de la
hipercomplejidad y de la auto-organización no aparezca ya como marginal, sino como central y
necesaria.
«La apertura de la noción del hombre a la vida no es sólo necesaria para la ciencia del hombre, es
necesaria para el desarrollo de la ciencia de la vida; la apertura de la noción de vida es, en sí misma, una
condición de la apertura y del desarrollo de la ciencia del hombre. La insuficiencia de una y otra debe
inevitablemente apelar a un punto de vista teórico que pueda, a la vez, verlas y distinguirlas, es decir,
permitir y estimular el desarrollo de una teoría de la auto-organización y de una lógica de la
complejidad. Así, la cuestión del origen del hombre y de la cultura no sólo concierne a una ignorancia
que debe reducirse, una curiosidad que debe colmarse: es una cuestión de alcance teórico inmenso,
múltiple y general. Es el nudo gordiano que asegura la unión epistemológica entre naturaleza/cultura,
animal/hombre. Es el lugar mismo donde debemos buscar el fundamento de la antropología» (pág. 58).
La hominización
Planteado esto, las principales etapas de la hominización son recordadas tal como aparecen,
especialmente, en los trabajos de Leroi-Gourhan, Lee y De Vore luego, y Moscovici por último. Pero, a
la luz de las consideraciones precedentes, se comprende que se haga hincapié, no tanto en las propias
etapas, como en el proceso de una evolución cuya característica principal es la complejización.
El desarrollo del cerebro aparece como el fenómeno que sigue y firma esta evolución y no como su
causa. Como buenos neo-darwinistas, se contempla la evolución como el resultado de selecciones
ejercidas por los sucesivos medios ecológicos (selva, sabana, etc.) sobre mutantes bípedos, de pequeñas
mandíbulas, y luego de cráneo
209
cada vez más grande. Pero la creciente complejización orienta esta evolución, que se evidencia en el
desarrollo del gran cerebro al mismo tiempo que en el de las paleo-sociedades.
Gran cerebro y paleo-sociedades, sistemas hipercomplejos de desarrollos concomitantes, que son
contemplados como las expresiones, interior y exterior, del mismo proceso de complejización. La
sociogénesis de los homínidos de cerebro cada vez más grande es el soporte del desarrollo de la cultura
que crea el nivel favorable para el desarrollo del gran cerebro y del lenguaje articulado y combinatorio;
éste, a su vez, permite la divergencia y luego la explosión de la cultura. Este papel ambiguo del
desarrollo cerebral, resultado y me-dio, a la vez, de las complejizaciones sociales y de la cultura, es otro
modo de subrayar la aparente circularidad de esta «lógica de lo vivo» que ha producido el aparato con
el que pensamos. Esta circularidad es la que impulsa a Piaget a investigar, en el proceso de desarrollo
cerebral del individuo (el niño) y en la lógica del desarrollo de la inteligencia, un rastro de la lógica de
la evolución adaptativa biológica. Para Morin, la circularidad es sólo aparente, pues se inscribe en un
proceso que la engloba, precisamente el de la com- plejización y el de la auto-organización, proceso
que es aprehendido a través de los conceptos cibernéticos y que Morin nos invita a considerar no
«como instrumentos que sirven para aprehender la realidad físico-química última de la vida», sino
«como traductores de una realidad organizativa primaria» (pág. 28).
Dicho de otro modo, la auto-organización con su lógica es primaria y atraviesa toda la evolución. Esta
proposición, que nosotros oponíamos a la de la primacía de la reproducción invariante como motor de
la evolución (véase primera parte), es retomada por Morin, que la extiende a la hominización: los
rasgos, específicos de la hominización —sociedad, cultura, desarrollo cerebral—, son aspectos diversos
del mismo proceso de auto-organización complejizante. El último de ellos, el del desarrollo cerebral, es
aquel donde este proceso aparece, a la vez, en sus dimensiones biológicas prehomínidas, «naturales», y
en sus dimensiones homínidas, «culturales» y sociales. Por ello, cuando se entrevé cómo el desarrollo
cerebral, por sus interacciones recíprocas con la sociogénesis y la culturogénesis, es el «nudo gordiano
de la hominización» en lo que el cerebro no es ya considerado como un «órgano» sino como el
«epicentro de un proceso de complejización multidimensional en función de un principio de auto-
organización o autoproducción», es posible compren-

210
der por fin en qué y cómo «cuando aparece el Homo sapiens Neanderthalensis, la integración es
efectiva: el hombre es un ser cultural por naturaleza porque es natural por cultura» (pág. 100). En
efecto, lo adquirido durante el período de hominización no es tanto tal órgano o tal función como una
mayor riqueza de lo que se ha convenido en llamar la organización, y que se traduce,
precisamente, en una aptitud cada vez más grande... para aprehender.
«Es muy evidente que el gran cerebro del sapiens sólo pudo advenir, vencer, triunfar tras la formación
de una cultura ya compleja, y es asombroso que durante tanto tiempo se haya podido creer exactamente
lo contrario.»
«De este modo, no son sólo los comienzos de la hominización, sino su conclusión, los que resultan
incomprensibles si se disocia la evolución biológica y la evolución cultural como dos caminos dis -
tintos.»
«Su asociación de hecho nos muestra, por una parte, que el papel de la evolución biológica es mucho
mayor de lo que se creía en el proceso social y la evolución cultural, pero, por otra parte, se ve también
que el papel de la cultura, que todavía recientemente habría sido insospechado, es capital para la
continuación de la evolución biológica hasta el sapiens» (págs. 100-101).
Si esta imbricación de la naturaleza cultural y de la cultura natural de la especie humana —«aptitud
natural para la cultura y aptitud cultural para desarrollar la naturaleza humana» (pág. 100)— no es por
completo nueva (Lévi-Strauss), sin embargo, es su funda-mento en una lógica de la auto- organización
complejizante lo que la ilumina con una nueva claridad al ponerla en movimiento y, sobre todo, lo que
permitirá entrever la continuación de la evolución... y del libro.
Los capítulos siguientes, sobre la inconclusión final y sus consecuencias, son anunciados por los
estudios —conjeturales todavía— sobre: 1) el nacimiento del lenguaje articulado, reconstruido a partir
de aptitudes no utilizadas cuya presencia en el cerebro de los chimpancés se induce de los trabajos de
Premack y Gardner; 2) la socio-génesis, reconstrucción «paleo-sociológica» de las arqueo-sociedades
homínidas, intermediarias necesarias entre las sociedades de simios y las sociedades humanas. Estas
reconstrucciones comportan, ciertamente, una parte de arbitrariedad — ¿pero no es lo propio de
cualquier reconstrucción paleontológica?—. Se podría lamentar —y es el reproche que, por mi parte, les
haría— que el análisis de las

211
condiciones de actualización de las aptitudes para el lenguaje ignore el papel del aumento de las
capacidades de memoria que acompaña el desarrollo del cerebro. Lo que les falta a los chimpancés para
hablar como hombres no es sólo las aptitudes glóticas y las ocasiones socioculturales de verse forzados a
utilizar sus aptitudes y desarrollarlas; es también las mayores posibilidades de memorización. (Se puede
suponer entonces que el aumento del número de neuronas no es ajeno a la aparición de estas
posibilidades en el Homo sapiens.) Como veremos más adelante, este «olvido» —si así puede decirse—
de la memoria en Morin es la consecuencia de que favorezca los mecanismos del orden a partir del ruido
en la lógica de la complejización, con exclusión de los de estabilización por replicación —recarga de
redundancia— de los que, sin embargo, no puede prescindirse. Es una lástima por lo que concierne al
lenguaje, pues su relación con la memoria es doble: por una parte, el lenguaje articulado combinatorio
ha necesitado, para desarrollarse, cerebros de mayores capacidades de memoria, por otra parte,
expresado en las sociedades y en las culturas a través de las producciones que atraviesan las
generaciones, constituye un soporte privilegiado de elección para un aumento fantástico de las
capacidades de memoria de la especie, que se superponen a las más antiguas de las memorias genéticas.
Naturalmente, el lenguaje es también un terreno privilegiado, donde las derivas, metáforas y demás
progresos generativos hacen aparecer con claridad estos mecanismos de organización por desor-
ganización/reorganización y por integración de la ambigüedad. Es-tos aspectos del lenguaje conciernen,
más particularmente a su papel estructurante en la organización cognitiva, es decir, su relación con el
pensamiento, con los mecanismos del pattern recognition (reconocimiento de formas) por deriva
creadora de formas7 o también con la «función metafórica» con sus propiedades de «invención-
reorganización 8» (J.. E. Schlanger). Pero la importancia de las memorias —en el
sentido de memorias de ordenadores, mecanismos de reproducción invariante— en la estabilización de los
procesos de auto-organización por orden a partir del ruido, no deben en
7
H. Atlan, en L'Unité de l'Homme, París, Editions du Seuil, 1974, y más arriba, pág. 152.
8
J. E. Schlanger, «Sobre el problema epistemológico de lo nuevo», Revue de métaphysique et de morale, núm. 1, 1974, págs. 27-
49.

212
efecto subestimarse. Tales procesos necesitan, para ser eficaces, estar acoplados a estas memorias gracias
a las que un mínimo de estabilidad puede aparecer en las sucesiones de desorganización/ reorganización
que los caracterizan. Sin embargo, las pautas aparecidas desaparecerían enseguida. Junto al ruido del
entorno, fuente de complejidad y de novedad, las memorias permiten a los sistemas auto-organizadores
que utilizan este ruido no ser destruidos por él, no desaparecer en cada transformación.
Se puede también lamentar que ciertas reconstrucciones de la sociogénesis estén marcadas por la visión
que el autor tiene de las sociedades contemporáneas e incluso por los juicios de valor implícitos sobre
estas sociedades. Aquí se trata casi un reproche de ideologismo y volveremos a él. Pero no importa. Esta
sociogénesis, aunque no se crea a pies juntillas en taca su «historia», no deja de tener el mérito de haberse
propuesto como una posibilidad verosímil. Y, sobre todo, eso es sólo un entremés en el que los elementos
de un saber ya existente, disperso, son reunidos y reorientados, antes de las exaltaciones sobre la
inconclusión final y el sapiens-demens, que constituye sin discusión la parte más original y más atractiva
de esta obra.

Aptitudes no realizadas y lógica de la auto-organización


Una vez se ha comprobado que lo que se consideraba propio del Homo sapiens (bipedismo, lenguaje
articulado combinatorio, sociedades) existía antes del gran cerebro, se plantea la pregunta: ¿para qué sirve
el gran cerebro? Y puesto que el Homo sapiens se define por su gran cerebro de
1. 500 cm ¿cuáles son, pues, los caracteres propios del Homo sapiens, que no existían antes de él, ni
en los antropoides (500 cm 3) ni en los primeros homínidos (de 600 a 800 cm 3) ni en el Homo erectus
(1.100 cm 3)? La respuesta aparece entonces: es lo imaginario, la sinrazón, el delirio. Y tal vez lo más
interesante no sea tanto esta afirmación como el camino por el que se llega a ella, consecuencia en cierto
modo ineluctable de una lógica de la hipercomplejidad actuando ya en la evolución biológica y, luego en
la evolución bio-sociocultural que ha llevado hasta el Homo sapiens,
En cuanto aparecieron los primeros sistemas vivos —ellos

213
mismos resultados de una evolución química que permitió la asociación de capacidades enzimáticas (es
decir, catalíticas) cuya variedad (es decir, la heterogeneidad, la cantidad de información en el sentido de
Shannon) era suficientemente grande como para permitir eventuales regulaciones, con capacidades de
replicación invariable (es decir, de repetición, almacenamiento en memoria)— la evolución biológica se
produjo por un vaivén ininterrumpido de interacciones entre estos sistemas y su entorno. Este, por la
variedad de sus demandas y por las agresiones aleatorias que origina, sirve a la vez de medio de expresión
de las aptitudes del sistema y de fuente de causas desencadenantes en la aparición de nuevas aptitudes.
Una vez aparecidas estas nuevas aptitudes (mutaciones) encuentran un nuevo entorno donde pueden
expresarse lo que a su vez permitirá la aparición de nuevas aptitudes y así sucesivamente. Esta visión de
las cosas, sugerida por las actuales teorías de la evolución, tiene varias implicaciones que no siempre son
subrayadas. Una de ellas es la noción de aptitud no realizada, con la distancia que implica entre la
existencia de una nueva aptitud (mutación) y su eventual expresión que puede ser reprimida o favorecida
por un entorno dada. La otra es que este proceso sólo es posible si cada etapa de la evolución se
caracteriza por un estado de adaptación aproximativo y laxo, entre organismo y entorno, que permite que
el proceso no quede bloqueado.
Por lo que concierne a la hominización, esas aptitudes aparecen sobre todo como las aptitudes cerebrales,
y el proceso coma un vaivén de estas aptitudes hacia un entorno (natural-cultural) que permite su
desarrollo y, luego, hacia el cerebro donde el desarrollo de esas aptitudes ejerce la emergencia de
aptitudes nuevas, etc. Algunas modificaciones de las presiones del entorno que, siguiendo a Moscovici, ve
Morin en la necesidad de la caza, actualizarán y exaltarán aptitudes hasta entonces poco utilizadas y, al
mismo tiempo, suscitarán nuevas aptitudes, todavía inútiles con respecto a las presiones presentes. Pero, a
su vez, estas nuevas aptitudes, poco utilizadas en estas condiciones presentes, encontrarán nuevas
condiciones en las que podrán actualizarse y evidenciarse, al mismo tiempo que aparecerán otras aptitudes
nuevas, poco utilizadas, hasta que nuevas condiciones de entorno... y así sucesivamente.
Se ve cómo la noción de aptitud no actualizada todavía desempeña un papel director en esta visión. Uno
de los mejores ejemplos es el de las aptitudes para el lenguaje descubiertas en los chimpan-

214
cés, en condiciones experimentales artificiales claro, pero de las que se puede pensar que, sometidas a
presiones de entorno diferentes, en las que los simios se vieron forzados a utilizarlas, podrían surgir a la
luz como propiedades de la especie, no ya potenciales sino actualizadas.
Esta introducción de lo «potencial», de lo «no-actualizado», en el proceso de hominización es
fundamental, pero necesita un soporte lógico. Morin lo encuentra, «naturalmente» en lo que está
implícito, aunque siempre presente en la utilización de la teoría probabilista de la información. En efecto,
la teoría de la información en sus relaciones con la teoría de la medida (Brillouin, Rothstein, Atlan)
introduce en la ciencia el universo de lo «posible»: la cantidad de información obtenida en una medida
depende del número de resultados posibles de esta medida. Y de un modo más general: la cantidad de
información de un sistema observado —y en física sólo puede hablarse de sistemas observados—
depende del número de posibilidades distintas de observación. Toda la termodinámica estadística ha
podido ser reconstruida a partir de consideraciones de este tipo (Jaynes, A. Katz).
Más aún, la complejización que es percibida como un aumento de variedad, de heterogeneidad, y que es
medida, al menos parcialmente, por un aumento de la cantidad de información en el sentido probabilista
de Shannon —o también de neguentropía— la complejización como decíamos sólo puede producirse 9 a
expensas de una redundancia inicial. Esta aparece entonces como otro tipo de «posible», un posible en
segundo grado, no el de un estado entre otros posibles, sino el de una posibilidad de complejización. Y
esto es así porque lo lógico de la hipercomplejidad no puede ser concebido sino como: a) diversificación
y variabilidad por una actualización de «posibles» que disminuye la redundancia, y, a la vez, b) recoge de
nueva redundancia mediante el almacenamiento en la memoria de los «posibles» actualizados mediante
un mecanismo de adición repetitiva que en sí y en el momento en que se realiza es inútil, pero que
constituye una reserva de nuevos «posibles». En la lógica de la auto-organización por orden a partir del
ruido, algunas perturbaciones aleatorias pueden dejar de destruir la organización con la única condición
de que la fiabilidad del sistema
9
Véase más arriba, primera parte.
215
—asegurada por una redundancia estructural y funcional— no haya sido sobrepasada, y la
desorganización así producida haya posido ser superada y recuperada en otro estado de
organización/adaptación. Esto implica que cada uno de estos estados no tiene una adaptación
perfecta, sino que mantiene todavía unas reservas de su capacidad de adaptación, lo que hemos
denominado un «potencial de auto-organización».
Más aún, las grandes mutaciones, con aumento de las capacidades de auto-organización, consistirían en
verdaderas recargas de redundancia (genes o incluso cromosomas supernumerarios, copias inicialmente
idénticas de los preexistentes), seguidas de diversificación en y a partir de esta redundancia. Pues si la
novedad desorganizadora no sólo consiste en un aumento de variedad (nuevo gen, nueva enzima, nueva
vía metabólica) ganada a expensas de la reserva ya existente de redundancia, sino también en un
aumento de esta misma reserva (adición de material genético «inútil» en el presente estado de
adaptación, suficientemente repetitivo en relación con lo que ya existe como para poder ser leído y
ejecutado, pero ya lo bastante distinto como para constituir nuevas «aptitudes»), entonces la mutación
constituye un auténtico salto de organización y no sólo un cambio de estado de adaptación como los que
pueden observarse en los fenómenos de deriva genética. Ahí es donde es posible considerar que algunas
aptitudes realmente nuevas han aparecido —por adición y no por substitución— y esperan para
expresarse que se realicen las condiciones del entorno que exigen su actualización.
Esto es lo que permite comprender el «juego oscilatorio» de que habla Morin «entre, por una parte,
demandas de complejidad que el desarrollo sociocultural puede hacer al cerebro y, por otra parte, una
fuente cerebral de complejidad que dispone de reservas no agotadas, es decir, no utilizadas
socioculturalmente, y que puede enriquecerse sin cesar, como si se adelantase a partir de afortunadas
mutaciones» (pág. 94). Esta es la lógica subyacente en esta hominización donde «parece que el cerebro
haya ido, a la vez, siempre adelantado (por aptitudes no explotadas) y siempre retrasado (por la ausencia
de dispositivos que se conviertan en cada vez más útiles o necesarios), siempre fuente/reserva de
complejidad potencial, siempre limitado/sobrecargado en alguna parte. Y en este juego surgen las
mutaciones genéticas que desarrollan el cerebro, y que acrecientan su capacidad hasta mucho más allá
de las necesidades de la etapa evo-

216
lutiva, pero estableciendo, también, dispositivos que convienen a estas necesidades» (pág. 94).
La sobrecarga, la limitación en cada etapa proviene de que la redundancia, fuente de complejidad
potencial, es, efectivamente, una condición necesaria para una complejificación posible, pero no es
suficiente. Es necesario que aparezca, por ejemplo, por mutación aditiva —el gran cerebro— pero
cuando ha aparecido no basta para hacer funcionales todos los posibles que podrían diferenciarse.
Algunos de estos «posibles», exigidos sin embargo por el entorno, sólo podrán ser funcionales si otros
«posibles» han sido previamente actualizados. Rozamos ahí los límites de una teoría de la
hipercomplejidad que sólo estaría basada, todavía, en la teoría probabilista de Shannon, de la que, como
sabemos, está excluida la significación. Ahora bien, en el nivel de un canal de comunicación interior en
un organismo, la significación de la información es su funcionalidad. No es asombroso, pues, que la
teoría de Shannon, aun ampliada por el principio del orden a partir del ruido, sólo pueda conducir al
establecimiento de condiciones necesarias; las condiciones suficientes sólo podrían ser dictadas por el
carácter funcional o no, es decir, significante o no, de las combinaciones posibles realizadas. Pero, tal
cual, la teoría de la hipercomplejidad tiene, por lo menos, la ventaja de
fundamentar la intuición de «la inconclusión final» y del «sapiens-demens» permitiendo a Morin
afirmar: «así ocurría ya con el chimpancé cuyas posibilidades cerebrales superaban con mucho sus
necesidades sociales. Ocurre también con el Homo sapiens, cuyas más altas aptitudes están muy lejos de
haber sido, no ya agotadas, sino incluso a veces actualizadas» (página 94).
Esta afirmación, que lleva a la idea de que el Homo sapiens es, al mismo tiempo que la conclusión de la
hominización, un nuevo punto de partida, es así el resultado no ya de un deseo o del optimismo
impenitente de Morin, como ha podido afirmarse, sino de un análisis de un proceso ininterrumpido, en
cascadas, de hipercomplejización del que no tenemos razón alguna para pensar que deba detenerse. De
este modo, el Homo sapiens se contempla, a la vez, desde el punto de vista de su estado presente de
hipercomplejidad y del de sus «reservas de complejidad», de sus «aptitudes no actualizadas todavía».
Su estado presente es la juvenilización y el gran cerebro estaría en el orden que se quiera.

217
Y sus reservas de complejidad serían lo imaginario, sapiens-demens.

Memoria y lenguaje, aprendizaje y error. Lo imaginario y el éxtasis

El estado presente de Homo sapiens es la asociación gran cerebro-juvenilización que constituye ya la


meta final en la evolución hacia una mayor adaptación (así como el punto de partida de una nueva
etapa). En efecto, esta asociación constituye en un principio en el «cachorro» de hombre un estado
caracterizado no tanto por la adquisición de nuevas facultades más adaptadas con respecto a las etapas
anteriores de la hominización como por la adquisición de las facultades... de aprender, utilizables
durante una gran fracción de la duración de la vida. Como hemos indicado más arriba, una especie de
óptimo de organización está constituido por un compromiso en el que una redundancia inicial bastante
grande está asociada a una complejidad (= variedad, heterogeneidad) bastante grande también. Estas
características hacen posible un largo período de auto-organización (juvenilización) por aprendizaje no
dirigido (y también dirigido, claro) durante el que la redundancia inicial se utiliza en distintas sucesiones
de desorganización/reorganización creadoras de cada vez mayor variedad. Se llega, al término de este
período, a una diferenciación más grande todavía de los individuos, y a la individualidad heredada en
forma de combinatoria genética, se añade la adquirida en el aprendizaje por diferenciación, parcialmente
aleatoria, a partir de la redundancia (= indiferenciación) inicial.
Pero se comprende también cómo la carga en redundancia inicial que caracteriza la adquisición de
facultades de aprender está forzosamente acompañada por «aptitudes no actualizadas todavía», lo que
sitúa al Homo sapiens en un nuevo punto de partida. En efecto, esta redundancia inicial funciona como
una reserva de diversificación con asociaciones posibles, creadoras de nuevas pautas que desbordan
ampliamente el conjunto de las pautas de estructura y de función estrictamente necesarias para la
satisfacción de las necesidades inmediatas, y que implican la supervivencia en el entorno actual del
Homo sapiens. Estas reservas de complejización «inútiles», no adaptadas, son las que experimentamos
en el mundo de lo imaginario, del sapiens-demens, del sueño, que como hemos podido

218
adelantar cumple cada noche una función de recarga de redundancia, necesaria para la diaria
continuación del proceso de aprendizaje , adaptativo por diversificación, proceso que sin ello se agotaría
10
. De este modo, si «el final de la hominización es al mismo tiempo un principio» y «la
hominización termina en la definitiva, radical y creadora inconclusión del hombre», es que la
hominización es un proceso de hipercomplejización que continúa la evolución biológica, en la que cada
etapa es a la vez término y principio. La adaptación a un estado dado implica más que lo necesario y este
excedente será utilizado como fuente de nuevas adaptaciones que implicarán siempre nuevos excedentes, y
así sucesivamente. Es posible así ver cómo Morin se apoya en la intuición de una lógica de la organización
gracias a la cual no se trata ya (o no sólo) de una proyección optimista sobre el porvenir, sino que se trata
de lo que denomina, de modo todavía balbuceante, «no una lógica finalista, teilhardiana, sino la lógica de
la neguentropía, es decir, de la disposición propia del sistema auto-organizado complejo de la vida en su
sentido más amplio, incluyendo también al hombre y al espíritu para utilizar las fuerzas de la
desorganización en el mantenimiento y desarrollo de su propia organización para utilizar las variaciones
aleatorias, los acontecimientos perturbadores en el acrecentamiento de la diversidad y la complejidad»
(pág. 105).
Las manifestaciones exteriores de los sueños y de un imaginario posible en el animal nos obligan a
reconocer que no es tanto la simple existencia de los sueños y las asociaciones imaginarias lo que
caracterizan «las aptitudes todavía no actualizadas», las reservas «de complejidad», el excedente en el
hombre, sino su irrupción en su cultura y en el modo en cómo son vividas en los contextos bio-
socioculturales donde se definen. La huella de esta irrupción en el comportamiento de los primeros
hombres se encuentra hoy en las primeras pinturas y sepulturas.
Esta fundamental intuición de Morin nos suministra los más ricos y más originales párrafos de su libro,
donde la demencia del sapiens, el delirio, el exceso que se cristalizan alrededor de esas no- realidades que
son la muerte y la imagen, en vez de ser fallos en la emergencia de una racionalidad adaptada, realista y
prudente, son sus condiciones necesarias. Pero también, a propósito de estas páginas, de gran riqueza,
pueden formularse algunas críticas sobre el
10
H. Atlan, en L'Unité de l'Homme, op. cit., y más arriba, pág. 153.

219
modo en cómo Morin utiliza la noción —imperfectamente domina-da todavía— de hipercomplejidad. Una
utilización tal vez demasiado unívoca del principio del orden a partir del ruido le lleva demasiado deprisa a
identificar pura y simplemente baja complejidad con presencia de constricciones y ligaduras y como
corolario a identificar al estado de alta complejidad que caracteriza al Homo sapiens con la «irrupción del
error» que, aflojando la ligaduras, pone en marcha la imaginación y la invención. Así, en las sepulturas y
en las pinturas prehistóricas, aparecen junto con «la conclusión y la realización en un nivel superior de las
aptitudes desarrolladas por la hominización... los elementos de un universo antropológico nuevo con las
emergencias mágicas, míticas, rituales, estéticas» (pág. 120). En la lógica de la auto-organización, estas
emergencias fueron las manifestaciones de nuevas aptitudes, no necesarias todavía para la adaptación
inmediata, pero impulsoras hacia una evolución nueva por proyección sobre el medio y complejización de
este medio que, a su vez y como retroacción favorecerá el desarrollo de estas aptitudes haciéndolas
necesarias. Dicho de otro modo, esta «naturaleza imaginaria e imaginante del Homo sapiens», que aquí
aparece, constituye la expresión de la «relación ambigua y turbia que se ha establecido entre el cerebro
humano y el entorno» (pág. 120), y ello es una condición de la prosecución de la auto-organización.
Pero ahí es donde Morin efectúa un deslizamiento cuestionable, desde el propio punto de vista de la lógica
de la hipercompejidad. Si esta lógica actuaba ya, mucho antes del sapiens, es difícil comprender por qué
«Ia incertidumbre y la ambigüedad en la relación cerebro-entorno», así como el papel organizador de los
errores, sólo aparecieron con el sapiens. De hecho hay aquí deslizamiento de las nociones de error y de
ambigüedad, definidas desde el exterior como perturbaciones en transmisiones de información, hacia la
experiencia de lo imaginario y lo irracional percibidas
interiormente con respecto a cierta conciencia de la realidad. Sin embargo, el sapiens, imaginando y
delirando, no ha inventado los errores ni tampoco su papel organizador; toman sólo, en él, una nueva
forma, vinculada a su estado actual de organización y adaptación. A la es-pera de esta etapa, el aumento
de las capacidades de memoria con respecto a las etapas precedentes ha desempeñado un papel
fundamental que Morin ha desdeñado un poco, como hemos visto a pro-pósito del lenguaje. Si, por el
contrario, lo tenemos en cuenta, se hace posible situar la novedad del papel de lo imaginario con res-

220
pecto a las formas precedentes de errores fecundos y de ruido organizativo.
Pese a ello, Morin ha visto bien cómo la nueva relación con 1 muerte que se expresa en la sepultura
implica «un pensamiento que no se invierte totalmente en el acto presente, es decir... una presencia del
tiempo en el seno de la conciencia» (pág. 110). Pero no sólo se trata ahí de una simultaneidad en la
aparición de esta conciencia y la irrupción de lo imaginario. Esta nueva cualidad, la conciencia — que de
hecho puede asimilarse a una extensión de las capacidades de memoria, en el sentido cibernético (cf.
capítulo 5)— es la que permite a lo imaginario hacer «irrupción en la visión del mundo» Más
exactamente, lo imaginario y la ilusión pueden aparecer como errores y ambigüedades con respecto a esta
conciencia-memoria y su contenido. Pero lo imaginario no es menos real, no es más error que la
conciencia de lo real. La conciencia-memoria permite super posiciones de acontecimientos separados en
el tiempo y, por tanto una combinatoria más rica de estas superposiciones (mappings), lo que se expresa
en el diagnóstico de lo real o de lo imaginario de lo: acontecimientos. Dicho de otro modo, aparecen al
mismo tiempo en el sapiens la experiencia de las adecuaciones como la de las ambigüedades. Lo nuevo
en el sapiens no es el papel organizativo de. error, sino que lo es la experiencia del error porque también
es nueva la experiencia de la adecuación o «verdad». De ahí, en especial, el carácter extraordinario del
éxtasis, místico, estético, erótico c psicodélico, donde se resuelve esta contradicción: la presencia de lc
imaginario es tan fuerte que su carácter de ilusión, o de error, o de «otra cosa», desaparece, y al menos
temporalmente, la función fabricadora de lo imaginario no está ya en falso ante el estado actual de la
percepción del mundo real. La unidad se hace entre el hombre adaptado y el hombre imaginante gracias
al que prosigue el movimiento de adaptación y es este último el que va a «sobrevivir» a la «Muerte» del
hombre adaptado. El «dios» del hombre, es decir, su motor profundo y contradictorio, es alcanzado
entonces y se desvela.
Pero al margen de estos límites, al no haber de todos modos inventado la ilusión, ni el error, ni su papel
organizador, el sapiens les da una consistencia de ilusión y de error al mismo tiempo que los proyecta aún
más en su entorno. Les da así una mayor realidad precisamente cuando son percibidos como ilusiones y
errores o, al menos, como «fuerzas otras, u ocultas, o del más allá». Esto explica que «la irrupción de la
muerte en el sapiens es, a la vez, la irrupción

221
de una verdad y de una ilusión, la irrupción de la aclaración y del mito, la irrupción de una ansiedad y una
seguridad, la irrupción de un conocimiento objetivo y de una nueva subjetividad y, sobre todo, su
ambiguo vínculo» (pág. 113). Este ambiguo vínculo, «turbia unión en una doble conciencia» (pág. 112),
es la verdadera novedad que sólo puede comprenderse por referencia a la propia conciencia —entendida,
una vez más, como memoria, hecha posible por el gran cerebro—, y no «la irrupción del error» (pág.
120) o «del desorden» (pág. 124) y de su función organizativa, ya presentes en las etapas anteriores.
Lo mismo puede decirse a propósito de la pintura, de las imágenes o símbolos, en su función de «dobles»
imaginarios, de seres representados, y de su expresión en «la palabra, el signo, el graffiti, el dibujo»,
gracias a la que todo objeto «adquiere una existencia mental incluso al margen de su presencia» (pág. 115).
También ahí, y esto es nuevo, es gracias a la gran memoria del gran cerebro, que las aptitudes lógicas en el
lenguaje y en la simbolización han podido realizarse efectivamente —al igual que las aptitudes lógicas
necesarias para la solución de cierto problema pueden existir en la unidad de cálculo de un ordenador, pero
necesitan, para realizarse concretamente, que se les añadan capacidades de memoria suplementarias—. Se
ve, pues, que la aparición del hombre imaginario no está vinculada a la del error. El error y su papel
organizador han existido siempre, desde el principio de la evolución. El hombre imaginario surge al mismo
tiempo que el hombre de gran memoria.
La ilusión de lo imaginario no es un error con respecto a una verdad «real» establecida, sino con respecto a
otra proyección igualmente imaginaria que, a causa de ciertas adecuaciones y regularidades, se denomina
realidad, y que siempre forma parte de este mismo «ambiguo vínculo», ...«unión turbia» entre el cerebro y
su entorno. No hay más —ni menos— errores en las combinatorias de lo imaginario que en las
combinatorias de lo que se percibe como realidad. Las producciones propias del espíritu (imágenes,
símbolos, ideas) no son directamente «útiles», no están directamente conecta-das con el estado de
adaptación actual sino que, al igual que la con-ciencia temporal de la vida y de la muerte, son la expresión
del exceso de complejidad. Nuevas combinaciones, nuevas pautas se forman sin necesidad, sólo por
formarse, como el bebé que, según Piaget, «chupa por chupar». Morin vio, perfectamente, que el «len-
guaje ha abierto la puerta a la magia: la palabra que denomina una

222
cosa denomina la imagen mental de la cosa que evoca» (pág. 115). Pero este proceso no es todavía propio
de la magia en tanto que error o ilusión. Podemos encontrarlo en todas las proyecciones de lo imaginario
sobre lo real, es decir, en todas las aprehensiones de lo real por el pensamiento, pues lo imaginario
impregna, inevitablemente, todas las percepciones de una máquina cuyas capacidades de memoria
actualizan un amplio pasado. Se forman sin cesar, «por formarse», patrones de imágenes, «la acción
inmediatamente transformadora sobre las cosas es sustituida por una acción transformadora sobre las
imágenes» acumuladas en la memoria y proyectadas sobre un porvenir por definición imaginado y no real.
Observemos que este movimiento propiamente delirante parece haber encontrado cierto equilibrio de éxito
en las ciencias donde es posible una acción sobre las cosas gracias a las combinaciones de ideas y de
fórmulas que sólo existen en el espíritu 11. En la emergencia del pensamiento científico también la
«metáfora es primaria». Se plan-tea entonces la cuestión del criterio entre buena y mala metáfora o dicho
de otra forma se plantean las razones del «progreso de la ciencia» 12.
De este modo, si es cierto que «el desencadenamiento de lo imaginario, las derivaciones mitológicas y
mágicas, las confusiones de la subjetividad, la multiplicación de los errores y de la proliferación del
desorden, lejos de haber perjudicado al Homo sapiens están, por el contrario, vinculados a sus prodigiosos
desarrollos» (pág. 126), no es porque una mayor complejidad implique un mayor desorden y la existencia
de ligaduras sea lo propio de la escasa complejidad. La hipercomplejidad implica la aptitud para admitir y
utilizar un mayor desorden, pero esta aptitud sólo puede existir gracias a ligaduras múltiples y
multiformes. Lo imaginario, las derivaciones mitológicas, las confusiones de la subjetividad no son sólo
desorden sino, sobre todo, memoria y asociaciones que, por ser «libres», no dejan de representar ligaduras,
en el sentido probabilista e informativo del término, puesto que reducen los grados de libertad en la exacta
medida en que asocian. Hasta hoy, en la lógica de la evolución, se había hecho sobre todo hincapié en la
reproducción invariante, y como es difícil basar una lógica de la auto-organización en
11
H. Atlan, en L'Unité de l'Homme, op. cit., y más arriba, pág. 156.
12
Véase a este respecto la excelente obra de Judith E. Schlanger, Les Métaphores de l'organisme, París, Vrin, 1971, y su artículo:
«Sobre el problema epistemológico de lo nuevo», op. cit.

223
la mera reproducción, la memoria genética se transformó, bastante ilegítimamente, en «programa»
genético. Morin, rápidamente consciente de las insuficiencias de esta lógica, tendería ahora a caer en el
exceso opuesto, favoreciendo el principio del orden a partir del ruido como principio de auto-
organización y desdeñando los mecanismos de repetición y reproducción —las memorias— sin los que
este principio no puede ser funcional.
Se trata en esto, tal vez, también del mismo reproche de ideologismo que yo formulaba más arriba. Es
posible sorprender a Morin proyectando cierta visión de las realidades humanas actuales marcada por sus
afinidades de opinión, de ética y de compromiso socio-político. Al estar las ligaduras, la repetición, la
jerarquía ideológicamente depreciadas, el deslizamiento al extremo opuesto se efectúa naturalmente. El
reconocimiento del ruido como factor in-dispensable de auto-organización y de hipercomplejidad lleva,
muy pronto, a asociar escasa complejidad, es decir, antievolución, no- humanización, arcaísmo, a ligaduras
y jerarquía, pues «lo propio de la hipercomplejidad... es la disminución de las ligaduras».

La hipercomplejidad
Esta proyección ideológica puede considerarse responsable de una sorprendente omisión y de un análisis
cuestionable. La omisión es la del papel de la aparición del padre y las relaciones privilegiadas padre-hijo,
hijo-padre en el proceso de hipercomplejización. Este papel sólo está sugerido sin ser analizado pues el
aumento de jerarquía y de constricciones que implica se adecua difícilmente a la ecuación planteada a fin
de cuentas: constricciones = escasa complejidad. Volveremos a ello.
El análisis cuestionable es el del «instinto hecho añicos por el ruido» (pág. 135) que refuerza la convicción
del valor de esta ecuación (...poco hipercompleja, sin embargo). De hecho este instinto hecho añicos no es
el instinto estereotipo, sino que es el instinto ya desdoblado, triplicado, multiplicado por n veces sus
imágenes mentales y sus denominaciones almacenadas en memoria. Su «hacerse añicos» desemboca
entonces no a reprimirlo, sino a diversificarlo: varios comportamientos distintos se hacen posibles
portadores de lo que, al principio, era la propia información. Los instintos sexuales, de defensa y de
agresividad, son, primero, vividos de modo re-

224
dundante en sus múltiples representaciones, y ello es lo que les permite luego, bajo el efecto del ruido, una
diversificación y una riqueza de expresión desconocidas hasta entonces. En efecto, los mensajes instintivos
se asocian a otros mensajes (entre sí, y con sus significantes y sus imágenes mentales) de modo inevitable
y no forzosamente funcional durante su almacenamiento en la memoria y en el funcionamiento incesante
de los mecanismos de reconocimiento por asociación. El aprendizaje consiste luego en una diversificación
por inhibiciones, delimitaciones y diferenciaciones de algunas de estas asociaciones con respecto a otras.
De este modo, lo hecho añicos es un instinto que primero se había multiplicado. La ensoñación, el sueño,
son reconstituciones de asociaciones, es decir, de ligaduras, de redundancias que serán luego utilizadas
durante la vigilia como un nuevo material que debe «hacerse añicos».
Parecería pues que, hacia el final del libro e impulsado por la fascinación ante el errare humanum est,
Morin haya sustituido poco a poco la ecuación simplificadora (desaparición de las ligaduras =
hipercomplejidad) por las relaciones complejas y aparentemente contradictorias entre autonomía y
dependencia (es decir, constricciones) que había percibido y expresado en fórmulas deslumbradoras al
comienzo del libro como, por ejemplo, «la autonomía supone la complejidad, que a su vez supone una
gran riqueza de relaciones de todo tipo con el entorno, es decir, depende de interrelaciones que
constituyen muy exactamente las dependencias que son las condiciones para la relativa independencia...
La individualidad humana, postrera flor de esta complejidad, es lo más emancipado y lo más
dependiente que existe con respecto a la sociedad. El desarrollo y el mantenimiento de su autonomía
están vinculados a gran número de dependencias educativas (larga escolaridad, larga socialización),
culturales y técnicas. Es decir, que la dependencia/independencia eco-lógica del hombre se hallan en dos
grados superpuestos y, ellos mismos, interdependientes, el del ecosistema social y el del ecosistema
natural... El hombre no es una entidad cerrada...: es un sistema abierto, en relación de
autonomía/dependencia organizadora en el seno de un ecosistema» (pág. 32).
Sin embargo, ya a propósito del paso de «nuestros hermanos inferiores» a la sociedad homínida, el
análisis de las relaciones entre «complejidad y contradicciones» (págs. 48-49) había escotomizado,
como se ha indicado, el problema, muy extraño no obstante, de los padres. En efecto, a partir de las
sociedades de primates avanzados

225
donde competición/jerarquía en y a través de las clases biosociales (machos adultos, jóvenes, hembras)
sólo pueden «producir una jerarquía rígida o fatal dispersión» (pág. 49), sólo se concebirá el «progreso
en complejidad de la sociedad homínida» a partir del «desarrollo de cooperación y de amistad entre
machos». Podría entonces suponerse que la aparición del padre, más tarde, en las sociedades humanas,
podría clasificarse como un caso particular de estos «establecimientos de puentes afectivos
interindividuales entre adultos y jóvenes». Pero hacer esto reduciría considerablemente la riqueza de
esta nueva figura cuyo valor evolutivo en el «progreso en complejidad» debiera ser investigado. Morin
apenas aborda esta cuestión y es posible preguntarse si no lo hace porque le molesta y que hacerlo
implicaría la valorización de lo que hoy, en nuestras sociedades, aparece como constricciones que
bloquean el «Progreso» (no en complejidad... sino a secas).
Sin embargo, en ausencia de los bloqueos debidos a tal ideología, tal aparición podría interpretarse
como una mutación social que hubiera llevado a un salto fantástico en hipercomplejidad gracias a la
proyección de la contradicción en el mismo lugar donde se establecen las ambiguas relaciones entre el
individuo y la sociedad: has-ta este momento, ese lugar sólo estaba constituido, para el niño, por la
relación con la madre. Mientras que la competición/jerarquía fundaba el resto de las relaciones sociales,
la vinculación a la madre basta para fundar la pertenencia al grupo. Pero si la competición se atenúa
para dar paso a la cooperación y a la amistad, la relación de dependencia nutricia/autonomizante con la
sociedad ya no puede establecerse sólo a través de la relación maternal. El conjunto de las relaciones del
individuo con la sociedad se desequilibra hacia su aspecto nutricio: la competición/jerarquía no está ya
ahí para basar su aspecto autonomizante. El proceso corre el riesgo de detenerse en una rigidez
ciertamente no jerárquica, sino cristalina, la de la repetición, sin flexibilidad, de la redundancia sin
fiabilidad: donde el individuo ya sólo puede ser totalmente dependiente, inmovilizado en los vínculos
poderosos y unívocos que le unen a los demás, o totalmente autónomo y, por tanto, separado de la
sociedad. Con el padre, la relación del niño con la sociedad más fraterna ya no es unívoca. Ya no sólo la
simboliza la madre, sino una extraña pareja entre dos individuos muy distintos y antagonistas. He aquí,
pues, que la dualidad, la oposición y la contradicción vuelven a instalarse en la relación del individuo
con la sociedad en cuanto se percibe en relación con ella a través de la familia y no sólo de la madre. La
familia introduce una nueva combinatoria posible de las relaciones sociales, tanto en el plano de los
comportamientos como en el de lo simbolizante, y por ello introduce un factor considerable de
hipercomplejidad. El conocimiento y la conciencia del padre aporta con ellos la interiorización, en la
historia individual del joven, del movimiento de la independencia/autonomía que fundamenta su
sociedad en sistemas de alta complejidad. Mientras que, antaño, este movimiento y esta contradicción
sólo se manifestaban más tarde y secundariamente, en los juegos y, luego, en las relaciones sociales de
226
la vida adulta (competición/jerarquía), ahora se han introducido en la propia constitución del individuo.
La aparición del padre y de las estructuras familiares puede así interpretarse como un caso típico de
aumento de constricciones susceptibles, cuando se aflojan, de dar lugar a mayor complejidad. Una vez
más, no es el estado de ligaduras débiles lo que caracteriza la hipercomplejidad, sino el proceso de
disminución de las mismas; éste implica, por el contrario, un estado de ligaduras relativamente
importantes. (Evidentemente, no debe olvidarse que es necesario que se trate de ligaduras de un tipo tal
que puedan aflojarse. Es posible concebir cómo algunas formas de estructuras familiares pudieron, a su
vez, bloquearse en un estado de ligaduras no evolutivas.)

¿Ciencia de la política o política de la ciencia?


En el último capítulo sobre el hombre histórico, la ética y la ideología estallan casi a cada página. Morin
se ve llevado a hablar de «error fecundo y error fatal» (pág. 232), lo que le lleva a reconocer en el ruido
organizativo una tendencia a desembocar en el mero ruido y en el furor de la historia, lo que al parecer
debiera conducir a colocarlos entre los «errores fatales». Lógicamente, se trata de una voluntad de hacer
que las ciencias humanas desemboquen en las ciencias políticas. Pero no es seguro que dicho camino
sea el más adecuado, ya que existiendo muchos riesgos de psicologizar e ideologizar a las ciencias
humanas, no hay seguridad de conseguir un cambio, una ciencia de la política. «La historia es sólo una
sucesión de desastres irremediables» (pág. 205): eso sólo es cierto en una visión muy relativa de lo
bueno y de lo malo, del bien y del mal, donde una regresión, un «mal», sólo son percibidos con respecto
al

227
estado inmediatamente precedente, con respecto a una aspiración a la conservación y al reposo que es
también una aspiración a la muerte. Esas diferencias entre «errores fecundos y errores fatales» (pág.
232) sólo proceden del momento y del sistema sobre los que actúan. Son los mismos «errores» los que
producen la muerte biológica y producen el desarrollo y el aprendizaje no programado: pero ellos
aparecen en un organismo viejo, es decir, ya orientado en una vía de diversificación, mientras que, en el
segundo caso, aparecen en un organismo virgen de diversificación, lleno todavía de redundancia, de
«potencial de auto-organización». Una ciencia de lo político debiera llegar, si es posible, a encontrar los
compromisos entre esta aspiración al reposo y a la conservación y el propio movimiento que impide este
reposo, que no puede sino contrariar este reposo.
Una posibilidad de realizar tales compromisos se hallaría, tal vez, en un nuevo juego entre distintos
niveles jerárquicos de organización, entre lo particular y lo general, el individuo y su sociedad histórica,
cuyas relaciones contradictoriamente constitutivas autonomizantes (véase más arriba) Morin ha
mostrado bien. Nuevas relaciones de este tipo podrían establecerse en el Homo sapiens, a través, esta
vez, de los juegos de su conciencia, que puede ser a la vez individual, histórica, social, cósmica, etc. Es
posible imaginar aquí que estas relaciones se establecen a través de una conciencia antropológica de la
historia, gracias a un doble movimiento: a) de exteriorización, proyección en el
movimiento de la vida social de la pesadez del ser, de la aspiración al reposo y a la conservación que
orientan la vida del individuo, de modo que la muerte del individuo se disuelve en la estabilidad y la
permanencia (relativas) de la sociedad; y b) de interiorización consciente del movimiento de la historia,
en el individuo, de modo que se superpongan y entren en resonancia los movimientos individuales con los
de la sociedad y la historia. E, inversamente, b) interiorización de la estabilidad y de la permanencia del
marco social, estabilidad y permanencia evidente-mente relativos con respecto a la escala de tiempos de
los movimientos de agitación de los individuos; y a) exteriorización de esta agitación en la sociedad,
agitación que, finalmente, la pone en movimiento. Dicho de otro modo, se trataría, en este tipo de juegos,
de levantar acta de las relaciones jerárquicas/autonomizantes entre nuestras sociedades históricas y
nosotros mismos, y utilizar las po-
228
sibilidades de nuestra conciencia (y también, de nuestra inconciencia) de moverse en el interior de los
distintos niveles jerárquicos. En efecto, una organización jerarquizada implica que se cambia de escalas
de tiempo y de espacio cuando se pasa de un nivel (más general, más globalizador) a otro (más particular,
más individualizado). La evolución del primero se mide de escalas de espacio y de tiempo distintas de las
del segundo, y por ello, siempre puede aparecer como inmóvil y estable con respecto a las escalas de otro.
Como nuestro aparato cognitivo, consciencia-inconsciencia, des-empeña un papel de auto- organización
en la memoria 13, a la vez en el individuo (en nuestro psiquismo) y en la sociedad (por la cultura, el
conocimiento y el saber), hay una posibilidad absolutamente específica de vaivén de un nivel jerárquico a
otro, con las percepciones simultáneas de movimiento y de inmovilidad que ello implica.
Por otra parte, Morin llega a fin de cuentas, también con toda naturalidad, a la visión de una scienza
nuova, que sería la del hombre nuevo que está emergiendo, «el hombre peninsular» que integraría «la
ciencia de la ciencia en la propia ciencia» (pág. 230), «la descripción de la descripción» tras haberse
comprendido como «cada vez más, en microfísica, en teoría de la información, en historia, en etnografía...
el objeto es construido por el observador, y pasa siempre por una descripción cerebral». Esta ciencia
nueva tendrá, pues, que «establecer el metasistema del sistema científico..., la nueva metafísica que
permitirá no sin duda superar, sino comprender mejor, el formidable hueco que se amplía entre ciencia y
valores (ética), ciencia y finalidad (antropolítica)».
Así, la ciencia del hombre, apuntando a una ciencia de lo político, desembocará inevitablemente en una
ciencia del hombre que conoce y sabe, por tanto, en una ciencia de la ciencia, una nueva epistemología y,
por tanto, un nuevo paradigma, una nueva práctica científica. La reforma de la ciencia aquí evocada
implica una superación de la actitud operacional que se impuso y se sigue imponiendo cada vez más en la
práctica científica: el objetivo de la ciencia ya no es comprender — porque ¿qué significa comprender?,
puesto que sólo nos planteamos problemas que podemos resolver y eliminamos todas las cuestiones
consideradas como «no científicas»— sino resolver problemas de laboratorio gracias a los que se moldea
un
13
Véase H. Atlan, «Conciencia y deseos en sistemas auto-organizadores», en L’Unité de l’Homme, op. cit., y más arriba, págs.
98-105, y pág. 141.

229
nuevo universo técnico y lógico del que se tiende a considerar —debido a su eficacia operativa— que
coincide con toda la realidad física. El hecho de que no sea así, de que este universo sea cada vez más
actofactual —por ser repetitivo y reproducible, para que la ciencia antigua pueda aplicarse
eficazmente— es, evidentemente, la razón del abismo que sigue reconociéndose con cierto ingenuo
asombro entre las ciencias de laboratorio y la ciencia de lo real vivido. Hay ahí una diablura de la
epistemología occidental que H. Marcuse fue, que sepamos, el primero en denunciar. Se ha creído
que, para escapar a las añagazas de la metafísica, la ciencia sólo tenía que ser operativa y he aquí que
nos hemos encerrado en el universo alienante, unidimensional, de lo operativo sin negatividad, donde
lo ajeno, lo extraño, es sencillamente rechazado, alejado, cuando no puede ser recuperado.

De este modo el libro termina donde había comenzado, en lo que sigue siendo el proyecto central de
Morin de unificar los elementos dispersos del saber sobre el hombre y, para hacerlo, orientarlos en un
marco epistemológico distinto, un nuevo paradigma. Y con respecto a este proyecto, bien se ve que las
críticas y comentarios sobre los que nos hemos detenido en el camino sólo conciernen, todavía, a
matices de orientación. El libro de Morin traza, ya, los contornos de esta ciencia del hombre, que
integraría a la vez biología y antropología manteniéndose exenta de los pecados de biologismo y
antropologismo, que Morin evoca con sus votos y de la que indica, en primera página, que para él no ha
nacido todavía. Puede esperarse que por sus utilizaciones y juiciosas prolongaciones —y ahí es donde
las critic as expresadas más arriba pueden encontrar su razón de ser-, este libro significaría su fecha de
nacimiento. El peligro consistiría, evidentemente, en reificar los nuevos conceptos de hipercomplejidad,
ruido, auto-organización, etc., hasta reducirlos a un fenómeno de moda intelectual.
Mientras, y de todos modos, contribuye mucho a desbloquear la imagen que tenemos de nosotros
mismos. Literalmente, la pone en movimiento, gracias a la sustitución de la «imagen del hombre» por
la, siempre abierta, de la hominización. Encontramos ahí la prima-cía heraclitiana del movimiento, a la
que corresponde, en el orden del conocimiento, la primacía de la función metafórica sobre el concepto o
«metáfora inmoviizada» (J. E. Schlanger).

230
¿Cómo no comparar la auto-organización hominizadora con la' organización cognitiva tal como aparece
en las nuevas concepciones de una historia de las ciencias no triunfalista, impura, metafórica y
analógica 14? No existe el hombre, sino la hominización, que halla su fuente en la evolución. Su motor
no es, ciertamente, la conciencia —factor de conservación y de estabilización —, sino las corrientes de
materia, de energía y de información que atraviesan la materia y le permiten auto-organizarse. Pero he
aquí que estas corrientes y fuerzas adquieren, precisamente, a causa de la presencia de la con-ciencia,
una dimensión nueva. En vez de aparecer sólo sometidas a un principio del orden a partir del ruido, se
convierten en el in-consciente; se convierten en sinrazón y delirio debido a, y en relación con, la
presencia de la razón.
La función cognitiva sería, tal vez —siguiendo la intuición de Piaget—, el postrer lugar donde la lógica
de la evolución se manifiesta y se desvela del modo más rico. No sólo máquinas deseantes, sino
máquinas de asimilar, máquinas de proyectar, máquinas de aprender, máquinas de fabricar sentido, en
suma, máquinas de conocer (...intelectualmente y «bíblicamente»).
En fin, no es posible cerrar este libro sin saborear esta riqueza de expresión que, en, Morin, lo es todo,
desde los juegos de palabras y guiños —gustan o irritan, a mí me gustan—, hasta los neologismos
más o menos afortunados, más o menos justificados, pero siempre evocadores y portadores de
«ambigüedad creadora», verdadero juego de palabras, proyección evidente del funcionamiento
«frondoso», «neguentrópico», «neguentropológico», «asociativo/disociativo»,
«ordenado/desordenado», «programado/aleatorio», en resumen «hipercomplejo», del cerebro de Edgar
Morin.
231
9
LA TEORÍA DE LAS CATÁSTROFES
Entre las representaciones matemáticas de lo vivo propuestas en estos últimos años, la de René Thom
ocupa un lugar muy especial.
14
Véase especialmente J. E. Schlanger, «Sobre el problema epistemológico de lo nuevo», op. cit.
René Thom, matemático entre los más grandes, premiado en 1958 con la medalla Field, se ha dado a
conocer más recientemente a un público más amplio de no matemáticos incapaces en su mayo-ría de
comprender los trabajos que le valieron este reconocimiento. Lo debe a una parte de su obra, aparecida
más tarde, bastante debatida todavía, designada con el provocador título de teoría de las catástrofes.
Este trabajo, expuesto en un libro, Estabilidad estructural y Morfogénesis 1, es también de extremada
tecnicidad matemática. Y sin embargo, comienza a adquirir una especie de popularidad entre gran
número de pensadores, filósofos y científicos, matemáticos o no, la gran mayoría de los cuales no tiene
acceso al lenguaje técnico que permite comprender en profundidad la teoría de las catástrofes. Estos
investigadores sienten, intuitivamente, que esta teoría puede prestarles servicios, responder a sus
necesidades, e incluso, ser la teoría revolucionaria que aguardaban... cuando ni siquiera la dominan.
Naturalmente, podríamos liquidar el fenómeno considerándolo como una de esas modas intelectuales
parisinas, la eclosión de uno de esos nuevos «gurús» cuyas listas —no exhaustivas— se establecen y
renuevan de vez en cuando. Algunos no se privan de ello, aunque en ese caso se trataría más bien de un
gurú «indirecto», referencia y fuente de inspiración para los precedentes. Pero otros saben que, tras este
fenómeno, hay un pensamiento profundo y original. No se ve todavía con claridad adónde llegará —
tampoco su
1
W. A. Benjamin Inc., Reading Massachusetts, 1972.

232
autor, por otra parte— pero se advierte que es susceptible, tal vez, de ayudar a plantear bien algunos
problemas científicos y filosóficos que no sabemos todavía cómo abordar. Es posible que los frutos de la
teoría de las catástrofes sean, en el porvenir, muy distintos de los que pueden imaginarse sobre todo
cuando se trata de sus hinchas entusiastas pero mal informados. Sin embargo, hay en ella más que una
mina de ideas, aunque a veces sean cuestionables, referentes a la biología, la lingüística, la economía... Se
trata de una aproximación que renueva la relación de las matemáticas con el mundo físico y, por ello,
puede renovar, con otros modos de pensar, lo que hemos podido denominar el paradigma de nuestra época
29
.
El lenguaje de la teoría de las catástrofes es el de la topología, rama de las matemáticas de extremada
abstracción a cuyo desarrollo R. Thom ha contribuido en la primera parte de su obra, la que no ha sido
cuestionada y que realizó cuando era, como él dice con el humor frío y tranquilo que le caracteriza, un
matemático ortodoxo.

29Desde Khun, Foucault, Morin y otros, se sabe que el espíritu del tiempo condiciona también el pensamiento científico. En
una época dada, este espíritu, que Kuhn denomina su paradigma, dicta los criterios no formulados pero absolutos de la
cientificidad. Luego, bajo el efecto de lo que Foucault llamaba —a falta de comprender sus mecanismos— mutaciones del
saber, un nuevo paradigma viene a legitimar nuevas aproximaciones. Nuevas preguntas entran en el marco de la interrogación
científica, mientras algunas antiguas son olvidadas como «irrelevantes». Un episodio de la historia de las ciencias de los últimos
treinta años presentó en sus comienzos más de una semejanza con el fenómeno René Thom-teoría de las catástrofes. Me refiero
al destino de la teoría de la información de Shannon (1949). También
ahí una teoría matemática complicada, expresada en un lenguaje muy técnico que sólo los especialistas podían dominar,
designada con un nombre provocador, la información, atraía en seguida el interés entusiasta de los investigadores de todas las
disciplinas. Encontraban en su trabajo cuestiones cruciales que giraban alrededor de la noción, para ellos vaga pero
determinante, de información. Sin ni siquiera comprenderla en profundidad, presentían que la teoría de Shannon tenía que
aportar respuestas a estas preguntas ayudándoles a precisar y dominar esta noción. Ahora bien, la historia de las aplicaciones de
esta teoría en distintos campos del saber (véase, entre otros, H. Atlan, L’Organisation biologique et la Théorie de l'information,
op. cit.) es la de una sucesión de malentendidos, de entusiasmos seguidos de desilusiones, pero también de repercusiones de gran
riqueza, aunque muy distintas de las que estaban previstas; y, finalmente, de una contribución resplandeciente al nuevo
paradigma (sea cual sea, por otra parte, el modo de apreciar este nuevo espíritu del tiempo, el del signo y la estimulación). Dicho
de otro modo, el entusiasmo a priori de los hinchas mal informados del comienzo se demostró, a posteriori, justificado aunque no
por las razones que imaginaban. No es imposible que análogo destino aguarde a la teoría de las catástrofes.

233
En efecto, cuando el objetivo es una descripción geométrica de las formas y de su génesis tales como
aparecen en la naturaleza, la geometría que se estudia en el bachillerato es muy insuficiente. Así, por
ejemplo, las formas complicadas y cambiantes observadas en la estructura y la evolución de los seres vivos
no evocan inmediata-mente, en nosotros, formas geométricas. Pero no es así para R. Thom y otros
matemáticos arrastrados a la topología diferencial. El ejercicio de esta disciplina les ha enseñado a
describir matemática-mente y a «ver» en espacios con gran número de dimensiones formas geométricas
mucho más complicadas que las figuras a las que nos ha acostumbrado la geometría de nuestra infancia.
Esta formación permite reconocer formas muy abstractas, «naturalmente», como todos podemos reconocer
hexágonos en los panales. Esta facultad es utilizada para la observación y la explicación de fenómenos
naturales, bien en geología, bien en biología o bien, incluso, en lingüística y psicosociología donde se
trata, entonces, de formas todavía más abstractas, definidas en un espacio que no es forzosamente el de la
percepción de nuestros sentidos.
La búsqueda de explicaciones geométricas para la realización de todas las formas, incluso las más
complicadas, observadas durante el desarrollo de los seres vivos, era una tarea que parecía imponerse
naturalmente a las ciencias de la naturaleza y, en especial, a la biología, teniendo en cuenta la evolución de
las demás ciencias (físicas y químicas) hacia una matematización cada vez más avanzada. Esta exigencia
era expresada con fuerza y talento en un libro de d'Arcy Thompson 3, autor al que R. Thom se refiere a
menudo coma uno de sus predecesores. Pero esta exigencia se había quedado en el estado de programa de
investigación, pues el instrumento matemático no era el adecuado. Thom encontró este instrumento en la
dinámica cualitativa y la topología diferencial, ramas todavía poco utilizadas de las matemáticas, a cuyo
estudio será necesario consagrarnos. Digamos muy generalmente que la topología es el estudio lógico de
las formas en el sentido más amplio del término. Puede tratarse de una forma geométrica habitual. Pero se
trata sobre todo de estructuras cuyas propiedades lógicas de conectividad siguen siendo las mismas incluso
cuando su aspecto concreto puede deformarse en el sentido habitual. Más precisamente, la topología estu-
3
D'Arcy Thompson, On growth and forms, Cambridge University Press, 1917, nueva edición, 1972.

234
dia, en una figura, las propiedades que no cambian cuando ésta sufre transformaciones frecuentes, sin
discontinuidad. Así, un círculo, una elipse, un cuadrado o un triángulo inscrito en el círculo tienen las
mismas propiedades topológicas, las de una curva cerrada, que comparten además con el círculo
deformado por estiramientos y, achatamientos.
La topología ha acostumbrado a R. Thom a reconocer en las formas complicadas de los seres vivos y en la
naturaleza en general realizaciones de superficies más o menos atormentadas de las que es imposible dar
definiciones matemáticas bastante rigurosas. En relación con las diversas formas que constituyen las
figuras geométricas habituales sólo aparecen como casos particularmente simples o inmóviles. En efecto,
estas superficies no son figuras estáticas: son generadas por un dinamismo (o varios en conflicto) y ello
está en el origen del término catástrofes que Thom ha elegido para denominar
«dramatizándola», como él dice, su teoría.
Su hipótesis fundamental es que una forma o «una apariencia cuantitativa» es el resultado de una
discontinuidad en alguna parte: si en el espacio donde puede aparecer alguna cosa no se produce ninguna
discontinuidad, no aparecerá ninguna forma. La pregunta es evidente: ¿discontinuidad de qué? Figuras
dinámicas del tipo torbellino de un líquido, gotas en movimiento y otras crestas de ola se producen
también como resultados de discontinuidades en los movimientos que son la propia condición de su
existencia: chorro de líquido, formación de gotas, deslizamiento de capas de agua que constituyen las
olas, etc. La forma particular del torbellino de la espuma sobre las olas es el resultado de una
discontinuidad debida, por lo general, a fuerzas antagónicas, en el movimiento del líquido. Fuerzas que
tienden a romper la simetría del movimiento son contrarrestadas por otras que, por el contrario, tienden a
estabilizarlo. De ello resulta un estallido, una discontinuidad, una «catástrofe» en el movimiento cuya
forma se mantiene, sin embargo, mientras la estructura así realizada permanezca estable. De ahí la idea de
que toda forma debe poder ser vinculada a un movimiento, un dina-mismo particular en el que. una
discontinuidad va a engendrar una posibilidad de estructura. Esta posibilidad será realizada si, aunque
discontinua y resultante de una inestabilidad del régimen homogéneo precedente, ella misma produce una
estructura dinámica relativamente estable.
Esta hipótesis fundamental es la que Thom resume diciendo que

235
su método «da cierto fundamento a la aproximación estructural. Permite explicar la estructura por un
dinamismo subyacente... No debe considerarse que la estructura está dada a priori., que se sostiene en
cierto modo porque, en tanto que estructura, surge de un ideal platónico; sino, por el contrario, que lo que
hace la estabilidad de una estructura es que existen un dinamismo subyacente que la engendra y del que es
la manifestación» 4.
A partir de ahí, su trabajo consistió en estudiar las condiciones formales de aparición de estructuras
dinámicas estables, del modo más general posible, independientemente de la naturaleza física u otra
(lingüística, por ejemplo) de las fuerzas y elementos substratos que constituyen tales estructuras; siendo el
objetivo establecer una especie de catálogo de las formas dinámicas relativamente simples, tales que
cualquier forma encontrada en la naturaleza pudiera reducirse a una superposición o combinación de estas
formas simples llamadas «catástrofes elementales».
En esta andadura, Thom imagina lo que denomina la teoría del «despliegue universal de una
singularidad». Muy esquemáticamente, se trata de estudiar lo que ocurre en un punto donde aparece una
discontinuidad en una función matemática que representa cierto dinamismo que actúa en este punto. (Tal
punto es llamado singular por oposición a los demás llamados regulares donde la función es continua.) En
tal punto, contrariamente a lo que ocurre en otra parte, no sólo la función es discontinua, sino también esta
discontinuidad puede, según los valores de ciertos parámetros que se le sobreañaden, tomar varias formas
distintas. Estos parámetros expresan de hecho la acción del exterior del sistema dinámico en cuestión
(variables externas) mientras que las variables propiamente dichas de la función (variables internas)
expresan el dinamismo propio del sistema.
Las variables externas en el caso más estudiado son, sencillamente, las tres coordenadas del espacio
y el tiempo. Las variables internas pueden ser, por ejemplo, las concentraciones de los distintos
constituyentes químicos de un organismo, cuyo dina-mismo es dirigido por las leyes que rigen
reacciones químicas y difusión de la materia.
Esta búsqueda de las condiciones de aparición de discontinuidades estructuralmente estables y de un
catálogo de catástrofes ele-
4
R. Thom, «Estabilidad estructural y catástrofes», en Structure et dynamique des systemes, seminarios interdisciplinarios del
Colegio de Francia, A. Lichnerowicz, F. Perroux, G. Gadoffre (Eds.), París, Maloine, 1976, págs. 51-88.
236
mentales a partir de singularidades de funciones choca con dificultades que la dinámica cualitativa (rama
de las matemáticas inaugurada por Poincaré) no ha llegado todavía a superar en los casos más generales,
donde ninguna hipótesis se ha formulado sobre la naturaleza de estas funciones.
Esta tarea está reservada al futuro trabajo de matemáticos en el marco de una teoría, todavía en pañales,
llamada de las bifurcaciones. El mérito de Thom es el de haber llamado la atención —de los matemáticos
y de los demás— sobre lo que puede esperarse, tal vez, de los desarrollos de esta teoría.
En cambio, con ayuda de dos hipótesis suplementarias que restringen, es verdad, la generalidad de los
fenómenos pero que están a menudo justificadas en la práctica, Thom consigue demostrar el carácter finito
del número posible de catástrofes elementales y establecer su catálogo, que se limita a siete. Estas
hipótesis son, por una parte, que el dinamismo subyacente se ejerce en nuestro espacio-tiempo de cuatro
dimensiones (es decir, que el número de variables externas no excede de cuatro); por otra parte, que este
dinamismo puede ser descrito con la ayuda de una función que admite un potencial. Las singularidades de
una función corresponden entonces a mínimos o máximos de este potencial. En estas condiciones, muestra
que el número de singularidades posibles (con su despliegue universal) se limita a siete, dadas por siete
expresiones relativamente simples del potencial. Los despliegues universales de esas siete singularidades
desembocan en siete figuras dinámicas posibles representadas por superficies más o menos complicadas
des-plegadas en el espacio. Secciones de estas superficies por distintos planos correspondientes a distintos
tiempos representan formas elementales susceptibles de engendrarse unas a otras de modo estable.
Las siete catástrofes elementales llevan los gráficos nombres de pliegue, frunce, cola de golondrina,
mariposa, ombligo hiperbólico, ombligo elíptico y ombligo parabólico.
He aquí, resumido en líneas muy generales, el aspecto técnico de la teoría de las catástrofes. A partir de ahí
se plantea la cuestión por donde hemos empezado: ¿qué explica la curiosidad, el entusiasmo y la
fascinación incluso, o también las reservas irónicas y las indignadas críticas por parte de los investigadores
de distintas disciplinas, pocos de los cuales han hecho el esfuerzo de adquirir un mínimo del lenguaje
técnico necesario para penetrar profundamen-

237
te en la amplitud —es tentador decir el «despliegue» en todas direcciones— del pensamiento de
Thom?
Es que, incluso sin comprender sus sutilezas y la estética matemática que desarrolla, se advierte con
bastante rapidez lo que está en juego, en el plano de cierta filosofía de la ciencia. Tanto más cuanto Thom,
en sus tentativas de explicación y de vulgarización, no se priva de insistir de modo provocador sobre los
presupuestos metodológicos de su aproximación. Es un determinado modo de
abordar los problemas, una actitud general ante las cuestiones no resueltas, en resumen, cierta
concepción de la metodología científica lo que se expresa a través de la tecnicidad de su exposición.
Ella es la que desencadena estas reacciones, a menudo pasionales, al entrar en resonancia o, por el
contrario, al chocar de frente con los presupuestos metodológicos de unos y otros actuando en la más
diversas disciplinas.
Lo que todo el mundo presiente es un nuevo modo —atractivo o molesto según las personas— de
abordar las cuestiones del determinismo y de la finalidad en las génesis naturales de formas y las de las
relaciones del todo y de las partes en los sistemas organiza-dos. Lo que está en juego es la
aproximación global y formalizadora con respecto al análisis detallado de la serie de las causas y los
efectos, es la primacía de lo abstracto y lo formal sobre lo concreto que sería una realización, en cierto
modo independiente, del material que lo constituye. Aplicada al estudio de los seres vivos, esta
aproximación va, evidentemente, a contrapelo de la biología moderna, analítica, reduccionista,
molecular, enraizada en la bioquímica.
Lo que está en juego es, también, la validez del razonamiento por analogías que, como se sabe, sirve de
soporte a todos los delirios. Y Thom conoce bien el riesgo que corre al tocar esos campos casi tabúes
del pensamiento científico: «a este respecto, queda por establecer una buena doctrina de la utilización
de las analogías... Entre comprobar la presencia de accidentes morfológicos isomorfos sobre substratos
distintos y establecer entre estos substratos un acoplamiento fundamental para explicar tales analogías,
hay un enorme paso, el que da precisamente el pensamiento delirante. Si algunas de mis
consideraciones, especialmente en biología, han parecido al lector vecinas del delirio, podrá, tras una
relectura, con-vencerse de que en ningún punto, eso espero, he dado ese paso» (pág. 317).

238
De hecho, esta metodología es una consecuencia lógica de su formación precedente en los ejercicios de
la topología. (A menos que su interés anterior por la topología haya sido ya consecuencia de su punto
de vista.) En efecto, no hace sino llevar al extremo y, sobre todo, hacer salir del campo esotérico de las
matemáticas una tradición representada por cierta corriente de las matemáticas modernas. Desde este
punto de vista, la lectura de una reciente reedición de un filósofo de las matemáticas, Albert Lautman 5,
muerto en 1942, es muy ilustradora. Desde hacía mucho tiempo ya —desde comienzos de siglo— las
matemáticas habían descubierto eso por lo que «se intenta establecer un vínculo entre la estructura del
todo y las propiedades de las partes por las que se manifiestan en las par-tes la influencia organizadora
del todo al que pertenecen» 6.
Estas consideraciones, que se creen propias de la biología y de la sociología, han sido descubiertas por
las matemáticas reflexionando sobre las relaciones entre lo local y lo global, lo intrínseco y lo
extrínseco, donde no se trata de organismos vivos, sino de seres matemáticos rigurosamente definidos.
Así, los problemas lógicos que la filosofía de la biología cree haber resuelto con los conceptos de
teleonomia y programa (Mayer, Monod) habían sido ya encontrados y resueltos por los filósofos de las
matemáticas en el propio curso del desarrollo de las matemáticas. Y es que, en efecto, «la idea de la
acción organizadora de una estructura sobre los elementos de un conjunto es plenamente inteligible en
matemáticas, aun cuando, transportada a otros campos, pierde parte de su limpidez racional. La
prevención que, a veces, siente el filósofo ante arreglos demasiado armoniosos no proviene tanto de
que subordinen las partes a la idea de un todo que las organiza, como del hecho de que la sustancia con
la que esta organización del conjunto opera es, unas veces, de un antropomorfismo ingenuo y otras de
una misteriosa obscuridad. La biología, como la sociología, carece a menudo, en efecto, de los
instrumentos lógicos necesarios para constituir una teoría de la solidaridad del todo y sus partes: (...) y
las matemáticas pueden hacerle a la filosofía el eminente favor de ofrecerle el ejemplo de armonías
interiores cuyo mecanismo satisface las más
rigurosas exigencias lógicas» 7.
5
A. Lautman, Essai sur l’unité des mathématiques et divers écrits, París, UGE, Col. «10/ 18», 1977.
6
A. Lautman, op. cit., pág. 39.
7
A. Lautman, op. cit., pág. 40.

239
Asimismo, un modo de pensamiento finalista tan sorprendente para un espíritu científico cuando se
expresa de modo antropomórfico o teológico a propósito de sistemas vivos está, desde hace mucho
tiempo, integrado en los discursos matemático y físico o bajo la forma abstracta pero rigurosa de los
principios de máximo y mínimo: cada vez que una ley física expresa que bajo ciertas condiciones una
magnitud caraterística de un sistema debe alcanzar un máximo o un mínimo, se trata de una expresión
rigurosa y determinista y de un aparente finalismo: eso quiere decir, en efecto, que la evolución del
sistema está dirigida hacia su estado final de máximo o mínimo, al menos a partir de su estado inicial, sin
que por ello deba atribuírsele una voluntad o una intención 8. Lo que era cierto en 1938 pare-ce seguir
siéndolo hoy para R. Thom, por lo que respecta a los útiles lógicos de los que se sirve la biología.
Mientras la biología moderna triunfa y pretende haber resuelto sus problemas seculares de «aparente
finalidad» y de «organización del todo a partir de sus constituyentes moleculares», Thom rechaza
desdeñosamente lo que considera falsas explicaciones y el resultado de una «quincallería irrelevante». Al
mismo tiempo, sabe muy bien que sus propias explicaciones sólo pueden dejar pasmados a los biólogos
experimenta-les debido a su abstracción generalizadora y su activo galanteo con el analogismo.
Pero Thom sigue su camino, porque sabe también que en el contexto de las matemáticas, donde la
topología toma el relevo del análisis clásico, su andadura nada tiene de asombroso ni de heterodoxo. Se
guarda mucho de dar el paso que separa la analogía fecunda de la analogía delirante.
La única pregunta que sigue planteada es entonces: esas teorías que asustan hoy por su abstracción, como
antaño asustaban las de Galois y de Riemann, ¿tienen alguna posibilidad de ayudar a conocer y
comprender mejor la realidad? Los precedentes de Galois y de Riemann, cuyas aplicaciones a la física son
hoy irreemplazables, están ahí evidentemente para hacer reflexionar a quienes se sentirían pronto tentados
a rechazar la teoría de las catástrofes hacia los limbos del delirio. Pero el propio Thom responde a la
pregunta distinguiendo dos clases de aplicaciones de su teoría, que denomina científicas y metafísicas. En
las primeras, se trata de ayudar a la
8
Véase los ejemplos presentados y discutidos por A. Lautman, op. cit., págs. 122-126.

240
resolución de problemas donde el número elevado de variables y la forma complicada de las ecuaciones
impiden ser eficaces a los métodos de análisis clásico. Pero los problemas a resolver son problemas
científicos clásicos donde las variables y las fuerzas están bien definidas y puestas en ecuaciones. La
teoría de las catástrofes aporta entonces un instrumento matemático más que permite la solución —
cualitativa al menos— de sistemas de ecuaciones con derivadas parciales.
Pero junto a estas aplicaciones llamadas científicas, las aplicaciones llamadas «metafísicas» son,
visiblemente, las que más interesan a René Thom. Ahí se trata de una andadura inversa: nos hallamos ante
una morfología, es decir, un sistema proporcionado por la naturaleza (vivo, social, lingüístico...) y se trata
de explicar su aparición, su estabilidad y su evolución, considerándolo como solución de una dinámica
subyacente. La teoría de las catástrofes permite proponer tales dinámicas, es decir, ecuaciones. Los
criterios de explicación son entonces, a menudo, criterios de simplicidad y
de elegancia, más que criterios de verificación experimental. Además, las variables, las fuerzas y los
potenciales no necesitan, forzosamente, ser definidos de modo concreto. De ahí el carácter abstracto de
estas aplicaciones que Thom denomina metafísicas. Pero, visible-mente, son éstas las que prefiere pues
son las que le parecen más prometedoras. No tiene inconveniente en reconocer su carácter sorprendente
para la andadura científica habitual pero critica a ésta, reclamando con sus votos un nuevo espíritu
científico: «¿Son nuestros modelos susceptibles de control experimental? ¿es posible, gracias a ellos,
hacer previsiones experimentalmente controlables? A riesgo de decepcionar al lector, tengo que
responder negativamente a esta pregunta. Este es el defecto propio de todo modelo cualitativo en
relación a los modelos cuantitativos clásicos (...).
Ante esta impotencia constante, los espíritus estrictamente empiristas se verán tentados a rechazar
nuestros modelos como una construcción especulativa sin interés. En el plano de la edificación de la
ciencia actual, probablemente tienen razón. Pero, a más largo plazo, existen dos razones que debieran
incitar a todo sabio a con-cederles cierto crédito. La primera es que todo modelo cuantitativo presupone
una parcelación cualitativa de la realidad, el aislamiento en un sistema estable experimentalmente
reproducible. Admitimos como datos, a priori, estas grandes divisiones, esta taxonomía de la
experiencia en grandes disciplinas: física, química, biología... Esta

241
descomposición que nuestro aparato perceptivo nos lega casi in-conscientemente es utilizada por todos
los sabios, aunque, coma monsierur Jourdain, estén haciendo prosa sin saberlo. ¿No sería interesante,
en estas condiciones, cuestionar esta descomposición e integrarla en el marco de una teoría general y
abstracta, más que aceptarla ciegamente como un dato irreductible de la realidad?
La segunda razón es que no conocemos los límites de aplicabilidad de los modelos cuantitativos. Los
grandes éxitos de la física del siglo XIX, basados en la utilización y la explotación de las leyes físicas,
pudieron hacer creer que todos los fenómenos serían justificables por esquemas análogos y ¡que iban a
poner la vida, el propio pensamiento, en ecuaciones! Ahora bien, si se piensa, muy pocos fenómenos
dependen de leyes expresadas matemáticamente de modo simple; como máximo, no hay más que tres,
bautizados por esta razón como fundamentales: la gravitación (ley de Newton), la luz y la electricidad
(leyes de Maxwell). Pero esta simplicidad sólo es aparente, expresa únicamente el carácter
estrechamente vincula-do a la geometría del espacio de la gravitación y del electromagnetismo, es el
resultado de un efecto estadístico que afecta a gran número de pequeños fenómenos aislados e
independientes. En cuanto se desciende a la escala cuántica, en efecto, la situación cambia; no se
comprenden ya los hechos fundamentales que aseguran la estabilidad de la materia, no se explica la
estabilidad del protón. La mecánica cuántica, con su salto en la estadística, ha sido sólo un débil
paliativo de nuestra ignorancia. Además, aun cuando un sis-tema es regido por leyes de evolución
explícita, falta mucho para que su comportamiento cualitativo sea calculable y previsible. En cuanto el
número de los parámetros que interviene en el sistema aumenta, las posibilidades de cálculo
aproximado disminuyen (...). Los vendedores de quincalla electrónica quisieran hacernos creer que con
la difusión de los ordenadores se abrirá una nueva era para el pensamiento científico y la humanidad.
Como máximo podrán hacernos percibir dónde está el problema esencial, que está en la construcción de
los modelos (...). No es imposible, a fin de cuentas, que la ciencia se esté acercando ya a sus últimas
posibilidades de descripción finita; lo indescriptible, lo informalizable está ahora a nuestro alcance y
tenemos que aceptar el desafío. Tendremos que hallar las mejores maneras de acercarnos al azar, de
describir las catástrofes generalizadas que rompen las simetrías, de formalizar lo informalizable. En
esta tarea, el cerebro humano, con su viejo pasa
242
do biológico, sus hábiles aproximaciones, su sutil sensibilidad estética, sigue y seguirá siendo por
mucho tiempo irreemplazable.
Se ve, pues, que lo que aquí aportamos no es una teoría científica sino un método; describir los modelos
dinámicos compatibles con una morfología empíricamente dada, ese es el primer paso en la
construcción de un modelo; es también el primer paso en la comprensión de los fenómenos estudiados.
Desde este punto de vista, nuestros métodos, demasiado indeterminados en sí mismos, llevarán a un arte
de los modelos y no a una técnica estándar explicitada de una vez por todas. En el marco de un substrato
dado, puede esperarse que los teóricos sean capaces de desarrollar un modelo cuantitativo como lo ha
hecho la mecánica cuántica para las interacciones elementales; pero eso es sólo una esperanza (...).
No sin mala conciencia, un matemático se ha decidido a abordar temas aparentemente tan alejados de
sus preocupaciones habituales. Gran parte de mis afirmoiciones se debe a la pura especulación; sin duda
podrá tratárselas de ensoñaciones... acepto el calificativo; ¿acaso la ensoñación no es la catástrofe
virtual en la que se inicia el conocimiento? En el momento en que tantos sabios calculan por todo el
mundo, ¿no sería deseable que algunos, cuando pueden hacerlo, sueñen?» (págs. 322-326).

Para Kuhn, el paso de un paradigma (espíritu del tiempo) al siguiente se realiza gracias a hombres que
tienen un pie en la antigua pendiente y adelantan el otro hacia lo nuevo. Insensiblemente, su discurso se
desplaza desde un discurso integrado al precedente, a un discurso creador de lo nuevo. Parece que, con
respecto al futuro nuevo paradigma, René Thom sea uno de estos hombres.

243
10
LA GNOSIS DE PRINCETON 30
El subtítulo nos avisa ya: sabios en busca de una religión. Reportaje realizado por el filósofo R. Ruyer 31
sobre un «movimiento» aristocrático y discreto de científicos americanos que intentan, como ellos
dicen, «poner de nuevo la ciencia al derecho». Más precisa-mente, se trata del reencuentro de las
ciencias de hoy —física de la naturaleza, de la energía y de la información— con la metafísica, en la
que se toman en serio los problemas del «yo», del origen del pensamiento —«piensa» el universo como
«llueve» (it thinks) y por ello «yo» pienso— de la conciencia (in)formadora y del sentido. Para los
neognósticos, la astronomía, la microfísica, la biología muestran con toda evidencia la presencia de tal
«conciencia» actuando tanto en la evolución de las galaxias, de las partículas elementales como en la
diferenciación embrionaria: más generalmente, cada vez que se trata de una entidad organizada
caracterizada por un comportamiento global, de un todo («holon») y no solamente de un «montón», de
un «amasijo». Para ellos, la aproximación científica habitual que hace surgir el orden del desorden, el
antiazar del azar, es el resultado de un postulado, llamado del Ciego absoluto, que consideran como un
mito al igual que su contrario, el de una Conciencia clarividente. Pero, «mito por mito», la Gnosis elige
al menos el que no es absurdo... filosofía de la luz consciente en un universo parecido al área visual de
un cerebro vivo, que tiene «una verdadera unidad, y no la falsa unidad del cerebro de un cadáver cuyas
moléculas regresan a la masa pulverulenta de las moléculas terrestres» (pág. 77). Dicho de otro modo, la
existencia de una

30A propósito de R. Ruyer, La Gnosis de Princeton, Fayard, París, 1975. Ya publicado en Le Gai Savoir, núm. 2, 1975.
31Autor de varias obras, entre ellas un libro que ha encontrado su lugar en el universo intelectual del «movimiento»:
Paradoxes de la conscience et Limites de l’automatisme, París, Albin Michel, 1966.
244
causalidad descendente (es decir, del todo organizado hacia sus par-tes), superpuesta a la causalidad
ascendente (de las partes hacia el todo) habitualmente admitida, les parece menos absurda que su
ausencia.
De este modo, naturalmente, se ven llevados hacia la Causa única, la Unitas del Universo, el Alma
o la conciencia del Mundo a la que, con ciertas reticencias, llaman de todos modos Dios. Como es
lógico, este Dios que lo penetra todo para poner «al derecho» la comprensión de los fenómenos que nos
sugieren las ciencias de hoy no es el Dios de las religiones puesto que abre la investigación más que
cerrarla. No se plantea como la explicación mágica y verbal, ni como «punto omega», sino que invita a
comprender cada vez más, cada vez más profundamente. Sin embargo, el deslizamiento es fácil y no es
posible desprenderse de cierto malestar, junto a los momentos de entusiasmo (en sentido etimológico,
forzosamente, cuando el dios nos penetra) que el libro nos procura. El lenguaje, irritante a menudo, es
evidentemente muy importante y toda la empresa pare-ce hecha de una sucesión de deslizamientos. Los
viejos problemas metafísicos del «yo», de la conciencia, del espíritu en la materia, no se cuestionan
verdaderamente. Son retomados y reformulados con la ayuda de un nuevo lenguaje proporcionado por
las ciencias de la naturaleza. Pero, para hacerlo, los conceptos de causalidad descendente, de sentido, de
conciencia, son planteados sin ser realmente cuestionados. O, de serlo, lo son con la ayuda de
deslizamientos de conceptos como el de —de nuevo— información: a partir del concepto claro y
dominado, aunque limitado, de información probabilista de la que está excluida la significación, se pasa
abusivamente al de información significativa, de sentido, que es precisamente el problemático. La
aproximación habitual, reduccionista, de las ciencias de la naturaleza nos haría ver como un «tapiz» al
revés: la Nueva Gnosis sería una inversión que nos permitiría ver lo que la hace posible. Pero esta
inversión es, inevitablemente, acompañada por discontinuidades lógicas donde, si puedo decirlo así, se
pierde el hilo. Sin prohibir en absoluto la aproximación cientificista, reduccionista y operativa, me
gustaría más intentar atravesar el tapiz para verlo del derecho, más que darle la vuelta 3.
En una segunda parte, práctica, que sigue —aunque no nace
3
Véase, por ejemplo, más arriba, «Conciencia y deseos en sistemas auto-organizadores» pág. 141.

245
de— la teoría, es donde más aparece el carácter aristocrático —¿anarquista?— de este movimiento de
intelectuales exasperados por las modas intelectuales: «desviación de desviaciones», que pronto será
tachada de reaccionaria por algunos. Y, sin embargo, allí es donde se desarrollan nociones como las de
montañas psíquicas, actitudes-comportamientos soportes de ideas, psicosíntesis (y no- análisis), que
encuentran sus justificaciones no en la teoría, sino en la búsqueda de una «buena técnica» de
construcción del organismo psíquico. Dialéctica sutil entre pensamiento y acción, ideología y
comportamiento, conciencia pensamiento y conciencia orgánica, se trata ahí de una abertura de gran
riqueza con respecto a las ideologías humanistas habituales. En efecto, por un lado «las normas reinan
en todos los campos, contrariamente a las creencias ingenuas de los idealistas de la libertad, de la fe, de
la creatividad arbitraria, y estas normas son técnicas, no morales».
Pero, por otro lado, «el empleo de las buenas técnicas no se debe siempre a una previa voluntad
consciente de técnica sino, por el contrario, a menudo, a creencias mitológicas que no pretenden en
absoluto el éxito técnico» (pág. 244). Por ello, «la Nueva Gnosis reduce el mito al mínimo
indispensable», tras haber reconocido que «reducirlo más sería ilusorio e incluso contradictorio» (pág.
293). En eso reside la apertura de esta aproximación, donde la ciencia no es ya una pantalla ante los
problemas que hasta el momento ha desdeñado, donde una sabiduría y una metafísica se
hacen de nuevo posibles a partir de las ciencias de la naturaleza y no contra ellas o al margen de ellas.
Eso es lo que puede crear —más allá de cualquier reticencia, de cualquier objeción— una gran
simpatía por el inicio que significa este movimiento, bocanada de aire fresco sobre nuestra cultura —
que oscila de un neo-dogmatismo a otro cientificismo mecanicista, antropología, psicoanálisis barato,
budismo zen—, blancos preferidos de los neo-gnósticos.

247
Cuarta parte

OCASIONES, LEYES,
ARBITRARIEDADES, PERTENENCIAS «He sido
engendrado, cuando me tocó el turno, y después es la pertenencia. Lo
he intentado todo para sustraer mi persona de dicha pertenencia, pero
nadie lo ha alcanzado. Siempre estamos agrupados.»
Emile Ajar, Pseudo, Mercure de France, 1976.

249
11
ISRAEL EN CUESTIONA 1

1. Un pueblo, su historia, su cultura

La historia del pueblo judío comienza —al igual que la de sus relaciones con la Torá— en la huida de
Egipto, hace tres o cuatro milenios.
El hecho de que el o los primeros milenios de esta historia sólo nos sean conocidos a través de la
propia Torá no cambia gran cosa de esta realidad histórica. Aunque el relato bíblico se considere más
mítico que histórico, se trata del mito de origen del pueblo judío, que desempeña, en la determinación
de la identidad de este pueblo, el mismo papel, como mínimo, que el mito de origen de cualquier otro
pueblo, tribu o familia.
Mucho más, las relaciones entre esos mitos —el conjunto de la Torá escrita y oral, si se les considera
como tales— y el pueblo judío histórico tienen una relación genérica muy particular.
No se trata sólo de viejos relatos que se transmiten piadosa-
1
Inicialmente aparecido en Les Nouveaux Cahiers, núm. 40, 1975, págs. 3-15. Desde entonces, dos
modificaciones esenciales han aparecido en el contexto político: el comienzo del proceso de paz,
naturalmente, y, en el plano interior, el reforzamiento de la ideología religiosa nacionalista. Esta, en
parte reacción ante la crisis del sionismo socialista y normalizador descrito un poco más adelante, era
denuncia-da ya en un artículo cuando sólo estaba comenzando a tomar cuerpo, ha desemboca-do hoy
en los excesos del Bloque de la Fe. La hipótesis explicativa, aquí presentada, de la perennidad de un
pueblo a través de los milenios de historia de desequilibrios y de crisis superadas nos ha sido sugerida
por los modelos de sistemas abiertos oscilantes y estables, o también por los de organización por
desorganización superada y reorganización analizados en la primera parte de este libro. Se trata, en
efecto, de una sociedad a la vez estallada, dispersa y unificada, en el espacio y el tiempo, experiencia
ejemplar de renovación permanente y de estabilidades renovadas. De este modo, no es imposible
imaginar que en un movimiento inverso, algunos de estos modelos nos hayan sido sugeridos por el
impacto de la experiencia histórica sobre la percepción de la realidad
física y biológica.
250
mente, de ancianos a iniciados, y que utilizan los hechiceros —sacerdotes y, después, rabinos— para
establecer su poder y organizar su sociedad. Se trata, además, de la materia de toda una enseñanza —Torá
significa enseñanza— que ha sido desde hace siglos objeto de un estudio y una investigación, a la vez
popular e intelectual-mente muy refinada, al mismo tiempo que moldeaba, producía, engendraba al propio
pueblo judío. Popular, pues se trata de uno de los primeros sistemas de instrucción obligatoria y de
escolarización generalizada que fue establecido, hace unos dos mil años, y que se ha mantenido, con
altibajos, hasta hoy. Intelectualmente refinada, casi por las mismas razones: a partir del instante en que el
estudio de la Torá, no sólo de modo recitativo, sino analítico y crítico también, constituía el pilar
institucional fundamental a cuyo alrededor se organizaban las comunidades judías dispersas, estas
comunidades se transformaban, ipsofacto, en fábricas y depósitos de inteligencia.
Estas emergían, además, efectivamente, aquí y allá, gracias a las condiciones favorables para el
florecimiento intelectual que reinaban en estas comunidades, cuya infraestructura estaba colocada al
servicio de la escuela, de la enseñanza y de la investigación — el Talmud-Torá en todas sus formas, con
todos sus niveles de alumnos y maestros, del menos dotado al genio, «gaon», reconocido por todo el
pueblo, cuyas producciones y renombre se extendían a través de toda la red de estas comunidades-
escuelas dispersas por el mundo.
La historia del pueblo judío, tras la destrucción del templo de Jerusalén, símbolo del arraigo nacional
territorial hace dos mil años, es la historia de estas escuelas, dividida en grandes períodos que han
marcado la evolución de la enseñanza, tanto en su contenido como en sus instituciones. Es el período de
los «Tanaim», los «Enseñantes» de la Michna, seguido por el de los «Amoraim», los «Hablantes» de los
Talmudes de Jerusalén y de Babilonia, seguido por el de los «Gaonim», los «Genios», dispersos, y luego
por el de los «Poskim, richonim y aharonim», los legisladores decisionarios, antiguos y recientes.
Esta organización, puesta en funcionamiento desde el regreso del primer exilio en Babilonia, antes del
segundo templo, reemplazó a la organización nacional monárquica y sacerdotal desde el final del segundo
templo, tanto en las juderías dispersas como en las comunidades que seguían viviendo, a duras penas, en
la tierra de Israel, primero bajo la dominación romana, luego bajo la bizantina, luego bajo la árabe, luego
bajo la turca.

251
A cambio, los maestros —rabbi o rav quiere decir maestro— eran los encargados de la organización, no
sólo de la Escuela, sino también del derecho, de la organización de la vida social e individual de estas
comunidades.
En efecto, sus producciones intelectuales tenían por objeto, a fin de cuentas, incluso tras los más
abstractos rodeos, desembocar en el enunciado del derecho, de la ley práctica para las comunidades,
derecho y ley que sigue tratándose de descubrir y revelar, aun cuando, en una forma prototípica, fueron
dados, de una vez por todas, «a Moisés en el Sinaí».
Esta ley recubría y sigue recubriendo todavía todos los aspectos de la vida de los individuos, sociales y
personales. Un lugar especialmente importante, fue, y sigue siendo, reservado a la busca de una forma de
florecimiento de la vida sexual y familiar, responsable máximo de la generación de futuros alumnos y de
su integración en el sistema de enseñanza.
Dicho de otro modo, estas relaciones genéricas recíprocas entre la naturaleza (es decir, el tipo de hombres
y organizaciones que constituyen el pueblo y su entorno) y la cultura de este pueblo, relaciones hoy
reconocidas por todo pueblo y toda cultura, eran vi-vidas allí, además, de modo consciente, a través del
papel constitutivo y generador de la sociedad judía que desempeñaba la
Torá para quienes, a la vez, la estudiaban, la renovaban, la enunciaban y la aplicaban en su comunidad.

2. El desierto, la tierra y el incesto

Para este pueblo privado de tierra de arraigo, la Torá, su cultura, más que para cualquier otro pueblo, ha
adquirido un carácter de fuente de identidad y de referencia colectiva.
Este carácter es, evidentemente, el de toda cultura para cualquier pueblo, pero por lo general el papel de
la cultura es con la geografía, es decir, la tierra nutricia, madre patria de todos los Estados modernos, en
y a partir de la cual el grupo se ha constituido como pueblo desarrollando su cultura, lo que a su vez
completaba el desarrollo del pueblo en nación, incluso en Estado.
Sin embargo, para el pueblo judío, sin tierra desde hacía dos mil años, la Torá acumuló el papel
generativo de la cultura y de la tierra. Mucho más, y este es un punto capital, las privilegiadas rela-

252
ciones que el pueblo judío pudo establecer en su historia con una tierra particular, la tierra de Israel, por
fundamentales y constitutivas que sean, no dejan de estar excluidas del mito de origen de la identidad
nacional, por tanto.
El pueblo judío, en la conciencia que tiene de sí mismo, no nació en la tierra de Israel. Nació en Egipto,
más precisamente durante la propia huida de Egipto, comparada por la tradición a la expulsión y la
liberación de un parto 2.
La tierra de Israel no es, para el pueblo judío, la madre patria (madre-padre) generadora y nutricia del
pueblo. Este papel fue des-empeñado, por lo que respecta a la progenitora, por el antiguo Egipto,
comparado por la tradición a un útero y visto como la cuna de toda la civilización mediterránea, y, por
lo que concierne a la madre nutricia, el papel lo desempeñó la propia Torá junto con el desierto como
lugar de su inicial desvelamiento.
La tierra de Israel es más bien la mujer, la prometida, la esposa futura que debe fecundarse, el objeto
del deseo, el medio de la realización y la superación, una vez que la madre, como mujer, ha que-dado
prohibida.
La prohibición del regreso a Egipto que la Torá hace al pueblo judío es significativa desde este punto
de vista, así como los relatos bíblicos sobre la aterrorizada fascinación que la tierra de Israel ejercía
sobre los hebreos del desierto, sometidos al mismo tiempo a las nostalgias continuamente reprimidas
del «regreso a Egipto». Este adopta así el aspecto de incesto que no debe cometerse. Existe en efecto
otro incesto, que debe cometerse, y que ha sido consumado por el pueblo judío a lo largo de los siglos,
con la Torá, madre nutricia y mujer al mismo tiempo. Todo ocurre como si la relación de tipo
incestuoso que cada pueblo tiene con su tierra, de la que ha nacido, a la que desea y a la que regresa,
hubiera sido violentamente rota por la separación entre esas dos tierras, la progenitora, Egipto, por un
lado, y la deseada, la tierra de Canaán, por el otro. En el desierto, no- tierra entre ambas, la Torá es
descubierta llenando el lugar de la una y de la otra, Israel, en exilio, tendrá fuerzas para sobrevivir sin
tierra, pues aquella a la que aspira no es su madre sino su mujer. Habiendo superado el corte que
representa la prohibición de su madre, podrá vivir, huérfano de tierra (pues siempre lo había estado,
aun durante su existencia nacional), casado con la tie-
2
Ver Maharal, Gvurot Hachem, cap. 3, Midrach sobre Deuteronomio IV, 34.253

rra de Israel. Sin tierra en absoluto, será como un hombre sin mujer, condenado a oscilar entre la
sublimación y el decaimiento; pero podrá mantenerse en exilio, al revés que la mayoría de los demás
pueblos para quienes el exilio es, a la vez y al mismo tiempo, la separación de la madre y de la mujer,
como una obligación, no sólo de vivir sin mujer, sino también de existir sin haber nacido.

3. El pueblo judío contemporáneo: ¿«Mito de origen», «programa» o huida hacia lo indecible?

Se ve cómo la relación genérica recíproca de la Torá y de su pueblo, caso particular de las relaciones
recíprocas de cultura y naturaleza, adquiere entre los judíos históricos una intensidad especial a causa de
su tipo de relaciones con el mundo de la naturaleza, las tierras. A menos que sea al revés: que esta
división, esta separación de la tierra progenitora y la tierra deseada, sea el resultado —y no sólo la causa
— de la particular relación del pueblo judío con el mundo de su cultura.
Sea como sea, se considere esta cultura una historia, o un mito, o un derecho, o una filosofía, o una
ciencia o una religión —y, como cualquier cultura, lo es todo a la vez— su efecto constitutivo del
pueblo judío está lo bastante arraigado como para que sea indispensable recurrir a ella más allá (y más
acá) de consideraciones del orden de la ciencia histórica occidental.
Dicho de otro modo, que el nacimiento del pueblo judío en los acontecimientos de la huida de Egipto y
del Éxodo, contado, enseñado y renovado por la Torá durante siglos y milenios, sea un hecho histórico o
mítico no importa puesto que ha adquirido el lugar que se conoce en esta Torá, cultura generadora del
pueblo judío histórico, al mismo tiempo que vehiculada por él.
Por ello, la identidad judía inicial, la imagen de sí mismo que el pueblo judío ha portado en su
conciencia desde sus orígenes, y en la que reconoce su verdadera legitimidad ante sus propios ojos, le es
proporcionada por la huida de Egipto tal como fue, y es todavía, vivida en los relatos, metáforas e
innumerables enseñanzas de la tradición, ampliados y ramificados sin cesar a lo largo de los siglos. Es
notable, desde este punto de vista, que un judío israelí no religioso, sionista de la primera hora, haya
reaccionado al malestar causado en Israel, en 1973, por una fiesta de la independencia de-

254
masiado vivida al modo militar y estatal —es decir demasiado occidental, demasiado «no judía»—
declarando que, para él, que había participado en todas las luchas de liberación nacional y en la con-
quista de la independencia en 1948, la verdadera fiesta nacional no se ubicaba en el día de la creación
del Estado de Israel sino en el día de Pascua, aniversario de la salida de Egipto.
De hecho, se trata, más que de un aniversario de fiesta nacional, de una partida de nacimiento y, al
mismo tiempo, de un programa. Reflexionando sobre el significado del lugar central de la huida de
Egipto en el nacimiento del pueblo judío y en la orientación de su historia se descubrirá el hilo
conductor de respuestas a una serie de preguntas sobre la identidad de este pueblo.
Estas preguntas se plantean, primero, a los no-judíos en la medida en que el pueblo judío es difícilmente
clasificable entre los demás pueblos por simple comparación taxonómica y se les presenta, o bien como
un escándalo histórico, o bien como restos que no se resignan a desaparecer, o bien como el misterioso
depositario en el que pueden injertarse todos los fantasmas, tanto filo como anti-semitas. Pero se
plantean también, y tal vez sobre todo, a millones de judíos, en la diáspora y en Israel, para quienes el
vínculo consciente con su cultura se ha visto cortado desde hace una, dos o incluso tres generaciones.
Esta aculturación en beneficio de la cultura dominante, occidental cristiana, es la misma que la de los
países colonizados y ha producido el mismo tipo de alienación con las mismas búsquedas errantes de
identidad, los mismos tipos de pseudo-soluciones, sugeridas también por el entorno —nacionalismo,
territorialista o no, crispación religiosa «ortodoxa», asimilación por identificación con la nación
occidental circundante o, también, desesperada huida hacia adelante en los mesianismos
internacionalistas que, se supone, resuelven al borrarlas todas las contradicciones nacidas de las
diferencias de historia y de culturas—, y finalmente, las propias neurosis. Al mismo tiempo, de modo
empecinado, el pasa-do, reciente y más antiguo, sigue presente, encarnado en los restos ideológicos del
sionismo, en la realidad de la existencia de Israel que impide olvidar el enigma, y en las comunidades
ortodoxas tradicionales, testigos exteriormente imperturbables de una existencia judía que fue auténtica
y no aculturizada hasta hace unos doscientos años.
Además, esta presencia se refuerza y se renueva por el efecto de los distintos avatares del antisemitismo,
de derechas y de izquier-

255
das, cuyos mecanismos 3 (Sartre) y discursos4 (Faye) han sido, además, suficientemente estudiados. Las
realidades judías —Israel, comunidades tradicionales más o menos ortodoxas e, incluso, comunidades
laicas de tipo nacionalista— impiden la desaparición de las preguntas sobre la identidad manteniendo
más o menos viva la persona (no identificada) de este pueblo. Pero, al mismo tiempo, las respuestas que
proporcionan —nacionalismos, religión, asimilación— no suprimen la neurosis de la alienación, muy al
contrario, al estar inspiradas en sistemas de pensamiento ajenos, sugeridos por transposiciones
imitativas de la cultura occidental unidimensional dominante, en resumen, al ser ellas mismas resultados
de la pérdida de identidad y de la aculturación.
Así, en la propia cultura judía, y a la cabeza la Torá en su con-junto —Biblia, Talmud, Midrach, Cábala
y Filosofía— es donde se hallarán los elementos de respuesta a estas preguntas, dicho de otro modo, a lo
que podría denominarse el mito judío (inspirándose una vez más en definiciones sugeridas por la
epistemología occidental). Entendemos por mito no ya la ilusión de la fábula, sino la expresión más
auténtica de la función organizadora específica e identificadora que caracteriza una sociedad, aunque el
nivel de realidad y de significancia no esté todavía muy claro en el análisis y el discurso occidental de
las ciencias humanas 5. De ahí el carácter, a la vez significativo y absurdo, real e ilusorio, abierto y
cerrado de lo que la conciencia occidental —las universidades, los institutos de investigación, los
medios de comunicación— reconoce como mitos en las civilizaciones lejanas, en la suya propia y en
aquellas —la greco-romana, la judía— de las que se reconoce nacida. En este sentido, la Torá puede
desempeñar hoy, a los ojos del exterior, no judío y judío desjudaizado, el papel del mito judío y
justificar así que se busque en ella las respuestas a las preguntas «¿quién es este pueblo?», inquiriendo
su partida de nacimiento, cómo se llama, cómo se ve y cómo se denomina a sí mismo y con respecto a
los demás, desde sus orígenes y a través de las peripecias de su existencia, hasta el período presente y la
pérdida de su propia identidad, incluidos.
3
J.-P. Sartre, Réflexions sur la Question juive, París, Gallimard, 1954.
4
J.-P. Faye, Migrations du récit sur lepeuple juif París, Belfond, 1974.
5
Véase, por ejemplo, Pierre Smith «La naturaleza de los mitos», en L’Unité de l'homme, París, Editions du Seuil, 174, págs.
714-730.

256
Es preciso también, naturalmente, guardarse mucho de cualquier forma de reducción, disfrazada
incluso, de la Torá a un fenómeno de predicación religiosa como hacen, por desgracia, buen número de
maestros del pensamiento judío. ¿No es curioso que «maestro de pensamiento» se haya convertido en
un término peyorativo mientras que «maestro» ha desaparecido, sencillamente, del vocabulario? Sus
discursos, a veces brillantes, a veces groseros, remiten siempre, a fin de cuentas, a un misterio de Israel
que sería, en cierto modo, el misterio privilegiado, una especie de super-mis- terio —si no es un
espejismo— que hasta cierto punto sería la prueba siempre buscada de la existencia de Dios,
presentando a El mismo como el misterio de los misterios. A consecuencia de lo cual esta función
misteriosa que se propone como «explicación» —res-puesta explicativa a las preguntas sobre nuestra
identidad— sólo puede ser aceptada, como mucho, por los creyentes, lo que, al mismo tiempo, priva
definitivamente a todos los judíos no creyentes (¿por qué algunos son creyentes a priori y aceptan el
Dios-misterio como explicación y otros no? Nuevo misterio) de cualquier esperanza de obtener
respuesta a su pregunta: «¿Quién soy yo?»
A su vez y por lo que respecta a quienes aceptan tales respuestas, les acecha un mortal peligro de
paranoia en los períodos de crisis, ya que en estos períodos las preguntas no son ya sólo de tipo teórico,
de las que se pueden olvidar en la vida cotidiana, sino que se imponen a través de los acontecimientos
políticos y sociales en los que estamos implicados.
Me refiero, por ejemplo, a los últimos acontecimientos que han sacudido a los judíos del mundo entero,
es decir, la guerra del Kippur y sus prolongaciones.
Esta guerra ha revelado una cierta debilidad de Israel, lo que naturalmente ha conducido a los que
practican este tipo de análisis a percibirla como una prueba divina, de la misma forma que el
aislamiento diplomático de Israel y las condenas unilaterales de la ONU hacen brotar, de nuevo, todos
las imágenes, casi arquetípicas, del odio ancestral a los judíos, de este anti-judaísmo básico, esencial,
constante de la historia, que reviste discursos y formas distintos según los contextos y las
circunstancias.
El carácter enigmático de este antijudaísmo se subraya de buen grado —como si no fuera bastante
evidente y necesitara exageración—, no para intentar circunscribirlo y resolver el enigma, sino para
mejor remitirnos al misterio insondable. Y ahí reside el peli-

257
gro de paranoia. En los análisis descritos, este odio que nos rodea, este antijudaísmo sería el resultado
de nuestra relación particular con un creador que lo hace todo de modo oscuro y por razones más
oscuras todavía. ¿Cómo no se ve que esta actitud es simétrica de las proclamas de la Inquisición sobre
el carácter católico y español de Dios, a las que responden hoy las de un Gaddafi sobre la superioridad
ontológica del Islam y la misión redentora universal que le fue confiada por el Altísimo con su corolario
de guerra santa liberadora? Digo simétrica, y no análoga, pues una actitud intenta «fundar» en el
misterio de la trascendencia una elección de la persecución mientras que la otra intenta, también,
«fundar» en el misterio de una trascendencia una elección del poder que debe imponerse y no podría
soportar contradicción.
Sin embargo, es la misma paranoia la que en una situación excepcional, sufrida o deseada, está
«fundada» en los misterios de una trascendencia. Paranoia, pues se trata de discursos y actitudes
cerrados en los que nada está fundamentado; no comprendemos nuestra situación más que cuando la
vinculamos al misterio insondable del creador y no tenemos posibilidad alguna de tener imperio sobre
ella. Permanecemos bloqueados en nuestra situación. Por lo que se refiere a nuestro discurso,
incomprensible para el exterior, sólo sir-ve para envolvernos en palabras y mejor encerrarnos en ellas.
Y sin embargo, bien vemos a nuestro alrededor qué grande es la tentación de dejarse hechizar y
encerrar por estos discursos paranoicos, algo que Jean Daniel 6 expresaba de modo muy sugestivo al
observar que «hay en el corazón de cada judío un lugar para Begin, y en el corazón de cada árabe
un lugar para Gaddafi» 7.
La paradoja llega al colmo cuando esta actitud de pseudo-explicación y verdadera huida en el misterio
invoca la tradición de la Torá. Y ahí hallamos todas las divagaciones posibles que culminan en estas
manipulaciones mágicas de cifras que utilizan predicciones proféticas y la antigua técnica de la
«guematría» sacada de su con-texto tradicional (para «basar» especulaciones mesiánicas de cálculos de
fin de los tiempos, que se revelan particularmente falsos, además, salvo ciertas —resonantes—
excepciones), que bastan para
6
Le Nouvel Observateur, octubre de 1973.
7
Noviembre de 1978: La simetría ha sido rota por la llegada al poder de Begin y su empresa de negociación de paz con Sadat
que, con el patrocinio de J. Carter, hace aparecer otro aspecto de lo religioso, muy diferente y muy interesante (Le Nouvel
Observateur, núm. 667, agosto de 1977).

258
hacer olvidar todas las demás y autorizar todo tipo de retoques a posteriori 8.
Paradoja en efecto, pues realmente no se necesita una Torá, que se presenta como sabiduría, enseñanza,
ilustración, si no ilustra, aunque sea mínimamente, los mecanismos y procesos responsables de las
situaciones y las constantes de nuestra historia. Es evidente que, en la perspectiva de la Torá como saber
que ilustra y búsqueda enseñada, todo análisis, por parcial que sea, coda hipótesis, por cuestionable que
sea, sobre estos mecanismos, valen más que el re-curso a «los caminos impenetrables del Señor». Y si
realmente no se desea recurrir a los análisis parciales y provisionales y a las hipó-tesis de búsqueda, que
se critiquen y se destruyan en nombre de una mayor exigencia y rigor, dejando abiertas las preguntas
replantea-das, así, en un mayor nivel de profundidad.
Por nuestra parte, el análisis del mito judío y de su episodio central, la huida de Egipto, nos servirá de
hilo conductor en la comprensión de estos mecanismos, en especial, el fondo común de todos estos
antijudaísmos —cuyos discursos analiza J.-P. Faye 9, a la vez idénticos y renovados, desde la
Antigüedad romana hasta el antisemitismo cristiano de la Edad Media, el humanista del siglo de las
Luces y los primeros socialistas, y los antisemitismos nacionales y nazis de los siglos XIX y XX—, por
último fondo común que sólo puede hallarse en el interior de quienes son, permanentemente, objeto de
estos discursos, mientras que, sin embargo, los sujetos y las circunstancias cambian. De esta forma
dicho fondo común se nos evidenciará, claramente, como una de las consecuencias de la «partida de
nacimiento» y de la constitución del pueblo judío a partir de un movimiento de liberación vivido hasta
sus límites más extremos: fue en la huida de Egipto donde un pueblo y una nación nacieron y se
constituyeron en el movimiento de una liberación de esclavos que se desea total, definitiva, absoluta.
4. El éxodo como liberación-programa y programa de liberación
No es la salida de Egipto, la liberación, la que remite al misterio de Dios; es, por el contrario, el Dios de
Israel, su motor interior, su
8
Nouveaux Cahiers, núm. 39, 1974-1975.
9
J.-P. Faye, Migrations du récit sur lepeuple juif, op. cit.

259
persona activa, su sistema de «auto-organización», el que se define por la huida de Egipto: «Yo soy
el ser del tiempo, tu dios que te ha hecho salir de Egipto, de la casa de la esclavitud» es el leit-motiv por
el que el dios de Israel se presenta, se nombra y se define. Y no puede tratarse de una liberación relativa
entre otras, entre dos alienaciones, pues el pueblo que así nace no tiene más programa que éste.
Cualquier liberación de la opresión trae consigo la esperanza de una liberación total, universal y
definitiva; como los movimientos mesiánicos en los pueblos colonizados (e incluso el propio
marxismo). Pero, en cualquier caso, la liberación, una vez obtenida, desemboca enseguida en la
instalación de una nueva sociedad donde no se trata ya de liberación universal puesto que, por
definición en cierto modo, ésta ha tenido ya lugar.
El mito judío contiene los relatos de las faltas y caída de los propios judíos con respecto a su proyecto
de liberación. Gracias a ello, la liberación de la salida de Egipto y la existencia nacional pueden no
agotar, al contrario, la esperanza y la exigencia de la liberación universal.
La tierra prometida más allá del desierto no es un objetivo en sí, sino un medio para realizar este
programa que se expresa en la alianza entre Israel y su dios, es decir, la adecuación entre la sociedad
concreta de los hombres de Israel y su imagen, a la vez imagen que tienen de sí mismos y conciencia
del tiempo, del proyecto que está en ellos.
Como vamos a ver, uno de los términos de esta alianza es la relación con la tierra; la otra es,
precisamente, la relación con la Torá, que debe garantizar la ejecución del programa, y que es preciso
comprender, recordemos una vez más, en el contexto antiguo y mítico. Tanto más cuanto, al mismo
tiempo, esta alianza se expresa también: «Yo seré para vosotros como si fueseis dioses y vosotros seréis
para mí como si fueseis pueblo» 10, como si los conceptos habituales de dioses y pueblo no conviniesen
por ellos mismos y no se tratase nada más que de un «todo ocurre como si», que se utiliza para describir
una situación con la ayuda de las únicas imágenes disponibles de las que se sabe, además, que son
falsas.
Se trata de moldear este pueblo de antiguos esclavos en el movimiento de una liberación que se quiere
total. Las tensiones entre
10
Levítico, XXVI, 12; Exodo, VI, 7.

260
Moisés y los ancianos del pueblo inciden precisamente en ello: lo que, para los antiguos, podía ser sólo
la liberación de la esclavitud de Egipto es, para Moisés, el inicio de una liberación que debe proseguir,
liberación de toda alienación, de toda limitación, de todo particularismo, que desemboca en el infinito y
su desierto, lugares indispensables del descubrimiento de la Sabiduría y de la Ley, postuladas también,
en principio, como infinitas —pero inteligibles—, es decir, renovándose sin cesar, sin fin, en compañía
del movimiento también incesante de la propia vida, de los individuos, del pueblo, de las sociedades,
del mundo.
En estos conflictos que enfrentan a Moisés con los mandos tradicionales del pueblo, jefes de las tribus,
aristocracia descendiente de los antiguos hebreos, para quienes, con toda naturalidad, esta liberación
tomaba una forma nacional, Moisés se apoya en una masa de esclavos no hebreos que se ha unido al
movimiento y a quienes la Biblia denomina el erev rav, la «muchedumbre numerosa», o la «gran
mezcla» 11.
Curiosamente, mientras los hebreos propiamente dichos están vinculados a «como si Dios» en el
que son «como si pueblo», esta muchedumbre es, según el Midrach, denominada en la Biblia el
pueblo de Moisés 12.
Naturalmente, en estas tensiones, Moisés no se opone al deseo nacional territorial, pero intenta
canalizarlo siempre hacia algo más. «Seréis para mí un reino de sacerdotes y un pueblo consagrado» 13
(que debe entenderse, una vez más, en ese contexto y no en la acepción ritual que se ha hecho habitual),
tal es el programa que Moisés asigna a ese pueblo, más allá de una simple
realización nacional.
Y, para no correr el riesgo de caer en nuevas alienaciones tras esta realización, aparece continuamente
una exhortación que será, efectivamente, escuchada de generación en generación: «Recordaréis que
erais esclavos en Egipto: (...) lo contarás a tu hijo 14 (...) Soy el ser del tiempo, tu dios que te ha hecho
salir de Egipto, de la casa de esclavitud 15 (...) No oprimirás (...) amarás el extranjero, pues
''Exodo, XII, 38, y Rachi sobre Exodo, XXXII, 7.
12
Ibid.
13
Exodo, XIX, 6.
14
Exodo, XIII, 8; Deuteronomio, VI, 20.
15
Exodo, VI, 6; VI, 7; XX, 2; Levítico, XXVI, 13.261

fuisteis extranjeros en el país de Egipto 16 (...), pues fuiste esclavo en el país de Egipto 11.
Dicho de otro modo, esta alianza de Israel y de su dios que Moisés impone en el desierto, cuando la
tierra antigua no está ya allí para imponer sus limitaciones y la nueva no está todavía allí para intentar
reemplazarla, es esta identificación de un pueblo de antiguos esclavos con un deseo, una imagen, un
programa de liberación universal, con un conocimiento que, como dice A. I. H. Kook, se confunde con
un deseo de conocimiento 18.
Las idolatrías son combatidas, no en sí mismas, sino a causa de su peligro de estancamiento y
circularidad. Son rechazadas como idolatrías, es decir, dioses de muerte, a causa del tipo de satisfacción
de deseos que comportan, en la que el propio deseo puede verse sumido. Por el contrario, la obra
portadora de vida y de libertad implica que, cuando se ha satisfecho el deseo se cuide la fuente, que no
se mezcle satisfacción del deseo pasado en la que éste se agota con el deseo futuro que debe permanecer
vivo.
Eso es lo que se expresa en esos mandamientos, tan curiosos a primera vista: «No harás cocer el
cabrito en la leche de su madre 19»; «cuando encuentres un nido de pájaros, toma los huevos y los
polluelos, pero deja libre a la madre 20...»
Estas prohibiciones entienden y generalizan la del incesto que, de pronto, adquiere un nuevo
significado. La madre es la fuente del deseo y de su satisfacción, pues es fuente de la propia vida, y la
mujer poseída es la misma satisfacción. Su fusión significaría esta mezcla, mortal en cuanto destructora
del deseo, entre la satisfacción en la que el deseo pasado se agota y la fuente de todos los deseos
16
Exodo, XXII, 20; XXIII, 9; Levítico, XIX, 34; Deuteronomio, X, 19.
17
Deuteronomio, V, 15; XV, 15.
18
(...) «Secreto de la existencia de Israel (...) obscura andadura (...) donde los caminos del vagabundeo son los grados de una
ascensión (...), el obscurecimiento, una propiedad de la iluminación (...) Mientras (alcanzando algún conocimiento) pensamos
ejecutar algún programa, nuestro pensamiento y nuestro espíritu en movimiento nos advierten en seguida que sólo estamos
deseando un ideal de conocimiento... (este deseo, chekika), en sí, es la característica del conocimiento del Ser y de su servicio,
en el que situamos el fundamento de nuestra visión del mundo (...), inconmensurable con cualquier conocimiento, intelectual
o moral (...), gestiones mecánicas que, a fin de cuentas, se apoderan de las andaduras ajenas...» (Abraham Itzhak Hacohen
Kook, «El conocimiento deseante», en OrotHakodech, t. II, 5.° discurso, cap. 28, pág. 557-558, Jerusalén, Mossad Harav
Kook, 2.a ed., 1964).
19
Exodo, XXIII, 19; XXXIV, 26. Deuteronomio, XIX, 21.
20
Deuteronomio, XXII, 67.

262
futuros. Y la separación entre tierra-madre nutricia y tierra-mujer fecundada, de la que hablábamos más
arriba, procede también del mismo movimiento.
En el desierto, entre ambas tierras, se vislumbra la posibilidad de liberación total, universal, definitiva
puesto que cabe la renovación y el resurgimiento. «Como las acciones del país de Egipto en el que
residisteis, no actuaréis, y como los del país de Canaán, adonde os conduje, no actuaréis 21.» Algo que el
Midrach refuerza, además, subrayando el carácter ya sospechoso e infortunado, portador de muerte, de
cualquier residencia 22.
A partir de ahí, una vez que el contrato ha sido sellado, la Torá comienza a ser enseñada, la historia va a
comenzar, una historia que sólo será —pero lo será totalmente— la de las contradicciones insolubles pero
vitales entre el impulso hacia la liberación total y universal y la realidad, que se espera siempre
provisional, de las limitaciones, de los particularismos, incluido sobre todo el nuestro.
Ello significó que el peligro mortal de suprimir el primer término de la contradicción (y, por tanto, la
propia contradicción, es decir, de instalarse definitivamente, detenerse y disminuirse a las meras
dimensiones de un particularismo alienante) ha sido evitado. Este peligro aparece como el de una falsa
relación con la tierra, bien volviendo a Egipto por miedo a la nueva o bien por una relación con la nueva
al margen de la alianza, como si fuera la antigua 23.
Y esto ha sido posible después de que el programa, la imagen de pueblo liberado, estuviera impreso. Ha
sido necesario, para ello, aguardar cuarenta años: que la antigua generación haya desaparecido en el
desierto y que una nueva generación haya crecido con, como única determinación, la no-tierra del
desierto, la no-limitación, no-definición, y la Torá, cultura «caída del cielo».
5. De la apertura liberadora al conformismo de una organización social
En este nuevo pueblo así constituido, cuya madre no es ya Egipto, sino el desierto y la Torá, el programa
de liberación definitiva, superando tal o cual esclavitud y no pudiendo satisfacerse con ello,
21
Levítico, XVIII, 3.
22
Talmud Babli Sanhedrin, 106 (a) y Midrach Raba, Noah, cap. 38.
23
Véase Números, XIV.

263
está definitivamente inscrito. Un pueblo ha nacido, no de las adaptaciones y los acomodos de la existencia
a los límites y constricciones de una tierra determinada, sino de una experiencia de viajes fuera de dichas
limitaciones, de un viaje colectivo de cuarenta años que moldeará definitivamente la imagen que este
pueblo tendrá de sí mismo: viviendo en la tierra y no en el cielo, porque al fin y al cabo el desierto es
tierra, pero viajando en un «siempre hacia otra parte», viaje iniciático cuyas etapas no corren el riesgo de
verse reducidas a tal o cual figura de paisajes determinados.
Y así, a partir de ahí, casi desde el origen, el movimiento va a darse la vuelta y engendrar, entre otros
«subproductos», este odio que sólo desaparecerá efectivamente con el final del propio movimiento. En
efecto, la liberación universal de todas las alienaciones quiere decir también subversión de las
alienaciones existentes, y, por tanto, no sólo rechazo de, sino también rechazo por toda forma de sociedad
organizada. Sin embargo, y es mucho más grave, este rechazo implica, en un principio, y provoca
efectivamente un re-pliegue sobre sí mismos de estos anunciadores de libertad, es decir, implica
finalmente construir una nueva sociedad, organizada también. Así, un grupo de marginales,
marginalizados inicialmente por la exigencia del cambio radical, se ve rápidamente enfrentado al
problema de perdurar: ya sea porque ningún cambio intervenga o ya sea porque los cambios- coartadas
canalicen, asfixiándolas, las esperanzas de la mayoría. En efecto, los marginales, ante esta perspectiva de
una larga espera sólo pueden o volver al seno de los grupos centrales «por donde pasa la historia», u
organizar su continuidad esperando el gran anochecer o el mesías..., situaciones
que en ambos casos contradicen en muchos puntos su marginalidad inicial al crear una nueva
conformidad, nuevas alienaciones.
La vitalidad del grupo social así constituido dependerá de la profundidad del rastro de las exigencias
iniciales en su organización social, que de todos modos las contradice: estas exigencias iniciales
participan de la negatividad imaginaria y de la utopía —el cambio mesiánico—, mientras que la
organización que se desarrolla choca con las limitaciones internas y externas con respecto a las que será
«adaptadora» como función de organización y «adaptada» como estado de organización. Y, sin embargo,
son las exigencias iniciales las que justifican la organización, al menos, para los individuos del grupo.
De ellas procederá el mínimo entusiasmo individual necesario para la constitución y la cohesión del
nuevo grupo social. La

264
organización estará más o menos asegurada, en términos de duración, según haya conseguido más o
menos integrar, sin desnaturalizarlos, estos factores de negatividad y de utopía que, a la vez, la
contradicen y le sirven de garantía.
En el caso de los hebreos, la nueva sociedad organizada, «ni como los residentes de la tierra de donde
procedéis, ni como los de la tierra a donde vais», conservará, pues, la huella de la iluminación y del
proyecto inicial, pero, como organización social, tendrá también sus esclavos. Mejor —o peor—, es,
precisamente, en el particular estatuto que tendrán los esclavos donde se expresará —o embarrancará—
el proyecto inicial de liberación de la esclavitud.
Tras la liberación de la esclavitud de Egipto, el gran éxtasis de todo el pueblo en el Sinaí (donde
este pueblo descubre a su Dios motor interior, habitualmente oculto, con quien sella la alianza-
programa) desemboca enseguida en leyes de organización social específica 24, la primera de las
cuales, arquetípica, concierne al estatuto de los dos tipos de esclavos 25.
Por una parte, los esclavos hebreos, testigos de la subsistencia de las limitaciones y alienaciones
interiores en el grupo. En efecto, de nada serviría limitarse a una declaración formal de abolición de la
esclavitud cuando existen condiciones que permiten a miembros del grupo encontrarse en estado de total
dependencia económica, suprimiendo su autonomía de personas y en evidente contradicción con el
proyecto inscrito en el nacimiento del grupo: «recordarás que j fuiste esclavo en Egipto». Conflicto,
contradicción que la ley organizadora, al instituir la liberación obligatoria de los esclavos hebreos, se
esfuerza entonces en resolver, haciendo transitorio y reversible ese estado de alienación y convirtiéndolo
en fuente de nueva liberación. Ahora bien, al hacer esto, y al mismo tiempo, no puede sino
institucionalizar la esclavitud, aunque en forma de un mal necesario del que hay que desembarazarse.
Por otra parte, junto a los esclavos hebreos, los esclavos extranjeros dan testimonio, por su parte, de la
supervivencia de las constricciones exteriores que estallan, a veces, en guerras 26 productoras de
vencidos reducidos a la esclavitud, situación, a su vez, que también está en contradicción con el
proyecto inicial: «recordarás que
24
Rachi sobre Exodo, XXI, 1.
25
Exodo, XXI, 1 a 6 y XXI, 31; Levítico, XXV, 42 y 44.
26
Deuteronomio, XXI, 10, y XXIII, 16.

265
fuiste extranjero en el país de Egipto», y que la ley organizadora no puede, también ahí, sino
institucionalizarla.
Es decir, en tanto en cuanto la pretensión a la universalidad no sea también universal, chocará con
la realidad de las diferencias y los rechazos particularistas, que la arrojaron a ella misma, de forma
inevitable, hacia su propio particularismo.
En este dilema, la pretensión a la universalidad será tanto más fácilmente denigrada y despreciada
cuanto más se haya visto forza-da a encerrarse en la vestidura particular de un pueblo, de una nación, de
una tierra, de un Estado. Entonces, la vida de este pueblo dependerá de una especie de contrato entre la
vestidura y el cuerpo, el portavoz y la palabra.
De esta forma, y en tanto en cuanto el particularismo judío siga siendo un medio al servicio de las
expresiones diversas del proyecto inicial, incluso aunque provisionalmente sólo sean entendidas como
tales y en último extremo por los propios judíos, conservará la suficiente fuerza para resistir esas burlas
y este odio que, pese a ello y a causa de ello, produce y exacerba. Al mismo tiempo, mantendrá la
suficiente fuerza objetiva como para imponer su existencia en me-dio de los otros particularismos, de
los otros pueblos, naciones, Estados.
Pero cuando el particularismo judío es vivido como un fin en sí mismo, entonces, la justificación
según la cual «tiene derecho a existir como los demás» no es ya suficiente para animar una fuerza
interior que le permita resistir la burla y los ataques de los demás.

6. El vaivén histórico e ideológico

La existencia de este particularismo «como los demás» es no sólo contradictoria en los términos, sino
que, sobre todo, está desprovista de cualquier interés con respecto al grupo inicialmente marginal, y
conduce, finalmente, al estallido del propio grupo. De este modo, el exilio y la dispersión en medio de
las naciones son aceptados a la vez como una consecuencia de estos ataques de los demás y como
ocasión para reencontrarse con el proyecto inicial de universalidad. Es, por otra parte, este reencuentro
lo que permite al exilio no ser un exilio «como los demás» y, finalmente, perdurar.
Pero entonces, a su vez, este exilio que no es como los demás y hace perdurar una existencia dispersa
más de lo «normal», engen-

264
organización estará más o menos asegurada, en términos de duración, según haya conseguido más o
menos integrar, sin desnaturalizarlos, estos factores de negatividad y de utopía que, a la vez, la
contradicen y le sirven de garantía.
En el caso de los hebreos, la nueva sociedad organizada, «ni como los residentes de la tierra de donde
procedéis, ni como los de la tierra a donde vais», conservará, pues, la huella de la iluminación y del
proyecto inicial, pero, como organización social, tendrá también sus esclavos. Mejor —o peor—, es,
precisamente, en el particular estatuto que tendrán los esclavos donde se expresará —o embarrancará—
el proyecto inicial de liberación de la esclavitud.
Tras la liberación de la esclavitud de Egipto, el gran éxtasis de todo el pueblo en el Sinaí (donde este
pueblo descubre a su Dios motor interior, habitualmente oculto, con quien sella la alianza- programa)
desemboca enseguida en leyes de organización social específica 24, la primera de las cuales,
arquetípica, concierne al estatuto de los dos tipos de esclavos 25.
Por una parte, los esclavos hebreos, testigos de la subsistencia de las limitaciones y alienaciones
interiores en el grupo. En efecto, de nada serviría limitarse a una declaración formal de abolición de la
esclavitud cuando existen condiciones que permiten a miembros del grupo encontrarse en estado de
total dependencia económica, suprimiendo su autonomía de personas y en evidente contradicción con el
proyecto inscrito en el nacimiento del grupo: «recordarás que j fuiste esclavo en Egipto». Conflicto,
contradicción que la ley organizadora, al instituir la liberación obligatoria de los esclavos
hebreos, se esfuerza entonces en resolver, haciendo transitorio y reversible ese estado de alienación y
convirtiéndolo en fuente de nueva liberación. Ahora bien, al hacer esto, y al mismo tiempo, no puede
sino institucionalizar la esclavitud, aunque en forma de un mal necesario del que hay que
desembarazarse.
Por otra parte, junto a los esclavos hebreos, los esclavos extranjeros dan testimonio, por su parte, de la
supervivencia de las constricciones exteriores que estallan, a veces, en guerras 26 productoras de
vencidos reducidos a la esclavitud, situación, a su vez, que también está en contradicción con el
proyecto inicial: «recordarás que
24
Rachi sobre Exodo, XXI, 1.
25
Exodo, XXI, 1 a 6 y XXI, 31; Levítico, XXV, 42 y 44.
26
Deuteronomio, XXI, 10, y XXIII, 16.265
fuiste extranjero en el país de Egipto», y que la ley organizadora no puede, también ahí, sino
institucionalizarla.
Es decir, en tanto en cuanto la pretensión a la universalidad no sea también universal, chocará con la
realidad de las diferencias y los rechazos particularistas, que la arrojaron a ella misma, de forma
inevitable, hacia su propio particularismo.
En este dilema, la pretensión a la universalidad será tanto más fácilmente denigrada y despreciada
cuanto más se haya visto forza-da a encerrarse en la vestidura particular de un pueblo, de una nación, de
una tierra, de un Estado. Entonces, la vida de este pueblo dependerá de una especie de contrato entre la
vestidura y el cuerpo, el portavoz y la palabra.
De esta forma, y en tanto en cuanto el particularismo judío siga siendo un medio al servicio de las
expresiones diversas del proyecto inicial, incluso aunque provisionalmente sólo sean entendidas como
tales y en último extremo por los propios judíos, conservará la suficiente fuerza para resistir esas burlas
y este odio que, pese a ello y a causa de ello, produce y exacerba. Al mismo tiempo, mantendrá la
suficiente fuerza objetiva como para imponer su existencia en me-dio de los otros particularismos, de los
otros pueblos, naciones, Estados.
Pero cuando el particularismo judío es vivido como un fin en sí mismo, entonces, la justificación
según la cual «tiene derecho a existir como los demás» no es ya suficiente para animar una fuerza
interior que le permita resistir la burla y los ataques de los demás.

6. El vaivén histórico e ideológico

La existencia de este particularismo «como los demás» es no sólo contradictoria en los términos, sino
que, sobre todo, está des-provista de cualquier interés con respecto al grupo inicialmente marginal, y
conduce, finalmente, al estallido del propio grupo. De este modo, el exilio y la dispersión en medio de
las naciones son aceptados a la vez como una consecuencia de estos ataques de los demás y como
ocasión para reencontrarse con el proyecto inicial de universalidad. Es, por otra parte, este reencuentro
lo que permite al exilio no ser un exilio «como los demás» y, finalmente, perdurar.
Pero entonces, a su vez, este exilio que no es como los demás y hace perdurar una existencia dispersa
más de lo «normal», engen-

266
dra el odio de las naciones organizadas contra esos fermentos de subversión. Estos son percibidos
entonces con los estigmas de las maldiciones de la historia, ya sea en la imagen de pueblo pecador y
reprobado por Dios mantenida por ciertos cristianos, o de veneno-enfermedad de la historia para toda
una corriente del Islam 27, o también, de pueblo-clase, parásito sin legitimidad (por Marx y por Léon).
Este odio y este rechazo por las sociedades organizadas —y por las ideologías organizadoras y
clasificadoras, aunque sean revolucionarias— de cualquier portador de esperanza de liberación universal,
no puede cesar mientras las propias sociedades —y esas ideologías— no se hayan liberado de las
alienaciones particulares sobre las que se fundaron. Ahora bien, cuanto más esperanzas hayan sido
deportadas en la liberación, más odio emprenderá el fracaso de la misma en un sistema social o en una
ideología determinada.
Entre los distintos antijudaísmos, los antisemitismos de inspiración cristiana y musulmana y, más
recientemente, el antisemitismo marxista, con sus variantes soviéticas e izquierdistas diversas, aparecen
con bastante claridad como ejemplos de este mecanismo.
Por lo que se refiere al antisemitismo nazi, sus teorizaciones por el propio Hitler son lo bastante explícitas
como para que también ahí se vea otra variedad de competición en la aspiración a la universalidad: el
«verdadero enemigo del pueblo alemán» era el judío, que fue el primero en haber tenido vocación, al
menos para Hitler y los nazis, de «dominar» el universo.
Así, con toda naturalidad, el círculo se cierra, o mejor dicho el bucle del espiral: los dispersados de esta
esperanza tienden, de nuevo, a replegarse sobre sí mismos para escapar, precisamente, de este odio y para
permitir de nuevo, a dicha esperanza de liberación radical y universal, desarrollarse y encarnarse —
paradójicamente todavía— al abrigo de su recuperado particularismo de pueblo, de nación, de tierra, de
Estado. Y así sucesivamente, hasta el exilio siguiente si se demuestra, una vez más, que los límites de la
vestidura particularista son decididamente demasiado estrechos para el proyecto inicial.
Pues esta existencia particular, específica, sigue siendo paradóji-
27
Les Juifs et Israel vus par les théologiens arabes, Actas de la 4.a Conferencia de la Academia de Investigaciones Islámicas, 1968,
Ginebra, Editions de l'Avenir 1972.

267
ca y antinómica con respecto al proyecto inicial de universalidad que se encuentra en el propio sionismo, y
en el que la esperanza socialista redentora ha constituido uno de sus avatares. En efecto, la empresa
sionista no escapó a esta paradoja constitutiva de la historia del pueblo judío: el deseo de un Estado judío
sólo pudo nacer de la conjunción de los rechazos antisemitas y del hacerse cargo, de nuevo, del proyecto
universalista inicial.
Dicho proyecto, en sus formulaciones tradicionales judías, se había reducido —al menos, en su expresión
pública— a las dimensiones de una religión exangüe, a imagen de las comunidades dispersas organizadas
en la persecución, el odio, el desprecio y, luego, la aculturación.
En cambio, y entre tanto, habían penetrado, aunque desfigurándose considerablemente, los ideales
dominantes de la moral y del mesianismo cristiano, que están en el origen de las visiones proféticas a lo
Tolstoi y de las exigencias de justicia universal que actúan en las diversas ideologías socialistas, incluido
el marxismo.
De este modo, en estos lenguajes, profético y socialista, los primeros sionistas habían re-encontrado el
nuevo avatar del proyecto judío inicial a cuyo alrededor era necesario agruparse si no se deseaba
resignarse a la desaparición pura y simple por una asimilación con los pueblos y naciones circundantes, lo
que debía significar el punto final de la dispersión perseguidora y aculturizante.
Sin embargo, estos lenguajes eran, al mismo tiempo, portadores de antisemitismo, de acuerdo con el
mecanismo anterior; en la misma medida en que anunciaban ideologías organizadoras de libe-ración
universal, la mera existencia de judíos particulares y dispersos, pretendidos portadores de otra
«universidad», era un irrisorio escándalo. Y esta es, probablemente, la razón del rechazo de asimilación a
ideologías verbalmente universalistas cuando, sin embargo, y para los judíos, era grande la
tentación de ver por fin universalizada su propia pretensión de universalidad.
Esta tentación estuvo en el origen de los grandes debates entre socialistas de origen judío, por una
parte, que veían en el socialismo, internacionalismo primero, soviético más tarde, la «solución del
problema judío» que acompañaría la liberación universal, y, por otra parte, los judíos socialistas,
sionistas o no, para quienes la existencia de la desaparición del particularismo judío en nombre de un
internacionalismo que mantuviera especificidades y poderes de las demás naciones era recibida con la
desconfianza adquirida a lo largo

268
de los siglos de liberación forzosa, de salvación y de amor cristianos impuestos por el fuego.
El mismo debate está hoy dividiendo a los jóvenes judíos occidentales en su relación con el
izquierdismo y con las distintas ideologías revolucionarias internacionalistas, «maoístas» y
trotskistas.
Los unos ven en estas ideologías la promesa de liberación en la que la vivencia judía podrá florecer
desapareciendo como particularismo nacional, mientras los otros no pueden evitar encontrar sospechoso
el deseo de que el nacionalismo judío sea el primero que desaparezca.
Sólo podemos, pues, permanecer suspendidos, una vez más, entre Ios dos polos de esta contradicción
vivificante, con el continuo riesgo de exilio cercano si, de nuevo, la aspiración a detenerse, al reposo, a
la residencia, a «tener un rey como los demás pueblos» vence al proyecto inicial: «vosotros seréis para
mí como si fueséis [a llegar a ser] pueblo y Yo seré para vosotros como si fueseis [a llegar a ser]
dioses.»
Pues es eso mismo, ese vaivén, la alianza de Israel y de su dios, lo que garantiza la extraña perennidad
de este pueblo: identificación colectiva de los judíos como familia y grupo humano particular con este
proyecto universal que, forzosamente, los supera y, por tanto, de cierto modo, los niega, pero sin el que
no tienen razón alguna para ser particulares.
Esa es la alianza, la identificación con este dios, ciertamente celoso porque les exige que se superen sin
cesar para servirle y, sobre todo, que no se detengan nunca en ninguna aproximación, en ninguna
apariencia de liberación y de generalidad, ídolo. tanto más detestable cuanto más se aproxime, en
verdad, el objetivo siempre rechazado. Y es esta identificación la que implica a la vez —en cierto modo
mecánica y automáticamente, y en ello se trata de una alianza inteligible y no de un «misterio»—, la
perennidad de este pueblo y su rechazo por los demás, teniendo en cuenta cómo son las sociedades
humanas organizadas, incluidos los judíos.
La perennidad es asegurada por este movimiento de vaivén de lo universal a lo particular, del
nacionalismo estrecho al internacionalismo disolvente. Al mismo tiempo, por ello mantiene las mismas
relaciones de rechazo por las demás sociedades cuyas existencias particulares y alienantes se denuncian
sin cesar y se sienten amenazadas por la mera existencia oscilante y multiforme de la sociedad judía.

269
Esta superposición contradictoria de la perennidad y del rechazo es la que constituye, tradicionalmente,
la alianza, pues una alianza, en hebreo, se «rompe» para «sellarse». Sólo hay alianza entre «separados»,
opuestos. La propia alianza es la contradicción que existe en la reunión de lo que está
fundamentalmente disociado. La alianza de Israel y de su dios es la contradicción entre la finitud y la
pequeñez humana, aceptadas y reivindicadas en las instituciones familiares, tribales y sociales, y el
infinito de lo imaginario, del pensamiento y del discurso, percibido en sus experiencias de liberación
y del desierto, encontrado y buscado en las del rito, del discurso, del pensamiento.
La alianza es la contradicción que garantiza la perennidad de la
existencia restringida que no termina de morir, englobándola en un movimiento de vaivén que la niega y
la mata, pero le impide, al
mismo tiempo, morir, practicándole la abertura y dándole el mínimo impulso que le permite ponerse de
nuevo en marcha.
Es, pues, importante comprender los términos y los mecanismos de la alianza que nos atraviesa, siempre
esencialmente contradictorios, pues, en distintos momentos de nuestra historia, implican objetivos y
actitudes distintos.
Es importante comprender que toda reducción a uno de los
términos de la contradicción sólo puede ser para nosotros, siempre desarraigados, la muerte, bien en la
ilusión de un universalismo
siempre falso e imperialista o bien en los empequeñecimientos de la vida nacional.
Al mismo tiempo, la reflexión sobre nosotros mismos, y la
comprensión de lo que nos sucede en términos de interacciones recíprocas de nuestro proyecto con
nuestro entorno —puesto que
éstas son las categorías en que pensamos hoy— pueden salvarnos de una paranoia que nos propone
cierta mística, en la que nuestro
ser sólo se basaría en una trascendencia que sería expulsada de to-das partes salvo del «destino judío», y
cuyo carácter misterioso e ininteligible es sólo capaz, de hecho, de basar nuestro no-ser. 7.

7. El doble criterio
Esta situación suspendida, pero en movimiento, este vaivén que es la verdadera vida del pueblo en su
conjunto, más allá de sus

270
polos nacional, nacionalista, religioso, político, humanista, etc., debe traducirse en el nivel de los
juicios que hacemos sobre nosotros mismos por la existencia de un doble criterio. Un criterio exterior,
definido por comparación con los demás pueblos, y un criterio interior, definido en relación al
proyecto, al motor enterrado, única fuente verdaderamente eficaz de fuerza interior y de vitalidad. Si
podemos tener buena conciencia y estar «seguros de nosotros mismos» con relación al exterior, sólo
una mala conciencia y una exigencia constantemente renovada en relación a nuestros propios criterios
pueden asegurar realmente, desde el interior, nuestro porvenir.
En tanto que pueblo «como los demás pueblos» comprometido en su existencia particular de sociedad
implantada en la tierra, de nación, de Estado, los derechos y deberes del pueblo judío deben ser
apreciados según los mismos criterios que los de todos los pueblos, naciones, Estados. Particularmente,
el derecho a la autodeterminación, incluida la autodeterminación nacional y política, reconocido a todos
los grupos humanos, no puede ser negado a las sociedades judías por ningún pretexto vinculado a la
visión más o menos fantasmática que los demás pueblos pueden tener del hecho judío. En particular, el
comportamiento de un Estado judío que ha conseguido constituirse por métodos ni más ni menos
legítimos que los demás Estados, desde cualquier punto de vista —histórico, del derecho de los pueblos
a disponer de sí mismos, del derecho brechtiano según el cual la tierra pertenece a quien la cultiva,
defensa victoriosa contra otra nación de intereses contradictorios que le niega sus derechos—, no puede
ser juzgado según criterios distintos de los demás Estados, a saber: respeto por la vida humana, justicia
de la sociedad edificada, respeto por los derechos y la soberanía de los demás pueblos, en resumen,
contribución al desarrollo de condiciones que permitan el florecimiento de las potencialidades humanas
en lo que tienen de común a toda la especie humana y, teniendo en cuenta la existencia de diferencias
históricas, geográficas, lingüísticas, cultura-les, tradicionales que caracterizan cada pueblo, cada
sociedad. Desde este punto de vista, es evidente que ni el movimiento sionista ni el Estado de Israel que
surgió de él, no han «desmerecido» ni pueden ver contestada su legitimidad, ni desde el punto de vista
del tipo de sociedad y de relaciones interhumanas que en ella se han desarrollado, ni desde el punto de
vista de sus contribuciones específicas a la búsqueda común de nuevas vías de desarrollo, y pese a las
dificul-

271
tades y las contradicciones creadas por la oposición de la nación árabe en general y de su rama palestina
en particular.
Incluso con respecto a esta guerra, a la suerte de los árabes palestinos y a la aspiración nacional
resultante, caballo de batalla para todos los que contestan la legitimidad del Estado judío, el
comportamiento de la nación judía sólo puede ser considerado «inocente», e incluso de una inocencia
casi angélica si se compara al de las demás naciones colocadas en situaciones análogas de conflictos de
intereses y de lucha por la supervivencia.

Pero sucede que eso no basta para mantenernos con vida. Por razones que dependen de nuestra historia,
de nuestro proyecto, no basta que tengamos razón con respecto a los criterios de los demás —y, por
tanto, que otros no estén en modo alguno «justificados» en una empresa de destrucción contra el Estado
judío— para que hallemos en nosotros mismos la fuerza de las luchas. Todo ocurre como si eso no fuera
lo bastante interesante, como si no valiera la pena. ¿Son numerosos los judíos dispuestos a combatir
arriesgando su vida sólo por una exisencia nacional, provincial y limitada, en la que el único proyecto
sea «ser como los demás»? Extraña problemática, por otra parte, la que consiste en definir su identidad
por un proyecto de ser o no ser «como los demás». ¿A qué pueblo se le plantea así la cuestión de ser o
no ser «como los demás», y qué existencia nacional podría basarse y, sobre todo, mantenerse en esta
aspiración puramente negativa al anonimato del «como los demás», resultado de siglos de excepción
trágica y de persecuciones?
Nuestra verdadera legitimidad es la que nos funda, no sólo de derecho, sino también de hecho, si
deseamos no sólo tener razón, sino también continuar existiendo.
Y esta legitimidad sólo podemos juzgarla en relación, no sólo al derecho internacional, sino también al
criterio interior que nos proporciona nuestro condicionamiento histórico y cultural, nuestro mito de
origen, nuestro motor interior. Y ahí, en relación a este criterio, es evidente que las realizaciones
actuales del movimiento sionista y del Estado de Israel son trágicamente insuficientes: una sociedad
apenas más justa que otras, aunque resuelva sus problemas de desigualdades, pero por completo
encerrada en sí misma, basada en la noción de patria y en la experiencia de una vida provinciana y

272
apagada (al margen del heroísmo 28 del arado y del fusil), donde las condiciones intelectuales propias de
las sociedades judías tradicionales son desdeñosamente tratadas, mientras el espíritu que más se acoge y
favorece —al margen de la investigación científica— es sólo una pálida imitación
del music-hall y de la «distracción» de las sociedades occidentales mediterráneas, el famoso
«bidur» israelí.
Naturalmente, una vez más, eso es perfectamente comprensible y justificable desde el punto de vista de
las condiciones de existencia de la sociedad israelí, y en modo alguno puede justificar, por el contrario,
una negativa de legitimidad por parte de cualquier censor. Pero es preciso ver que, interiormente, en
relación a las exigencias y aspiraciones, aún informuladas, que los judíos tienen para sí mismos, ese
estado de cosas no puede prolongarse durante mu-cho tiempo.
Es notable, por otra parte, que estas exigencias y aspiraciones a una sociedad más conectada con lo
universal, estructural y funcionalmente, se encuentra no sólo en la parte más activa de los jóvenes judíos
del mundo entero, sino también entre los propios jóvenes israelíes. Todas las encuestas y todos los
sondeos de opinión en la juventud israelí, desde un poco antes y un poco después de la guerra del
Kippur, muestran una profunda insatisfacción con respecto a los ideales oficiales del sionismo de los
pioneros, del patrio-
28
La valentía o el heroísmo (gvoura) judío, del que se dice, en las bendiciones matinales, que «rodea Israel», es, según el
Rav Kook, no la valentía que conquista y domina a los demás, sino la de la conquista de si y de la vida del espíritu (A. I.
Hakohen Kook, OlatReiya, t. I, Jerusalén, Mossad Harav Kook, 3.a ed., 1969, pág. 75).
Un autor israelí contemporáneo, Rachel Rosensweig, proyecta esas ideas en el análisis de la situación actual desarrollando
temas tradicionales como: «¿Quién es un héroe?, el que convierte a su enemigo en su amigo» (Avot de Rabbi Nathan, pág. 75,
de la edición Cherter), o también: «Si has dominado tu mal instinto para hacer de tu enemigo un amigo, te prometo que haré
de tu enemigo tu amigo.» (Mehilta de Rabbi Shimon Bar Yohai, pág. 215.)
Su estudio, impresionante por su profundidad y su erudición, ha aparecido recientemente en Chdemot, revista de un
movimiento kibbútico. Subraya los peligros mortales contenidos en el heroísmo a la Bar Kochba que se ha impuesto, hasta el
presente, en los modelos israelíes, en vez de ese heroísmo del espíritu y del dominio de sí del que el pueblo judío ha extraído
siempre su verdadera fuerza.
El título de este artículo, que pretende movilizar Israel hacia una auténtica «conquista» de la amistad árabe, es «Misión del
sionismo hoy: conquistar asocia-dos».
273
tismo y del culto al Estado. Todo ocurre como si este espíritu de apertura a lo universal, calificado de
cosmopolita y disolvente por ciertos antisemitas, se ejerciera también desde el interior a expensas del
propio particularismo judío. Y es normal que así sea, ya que la supervivencia de un pueblo, con sus dos
componentes, particular y universal, dependerá de que cada uno de los dos componentes sea capaz de
reconocer al otro.
En conclusión, en estos tiempos en que, de nuevo, la legitimidad de una soberanía nacional judía en
Israel es discutida, en que son numerosos quienes, amigos y enemigos, contemplan la eventualidad de la
desaparición del Estado de Israel, sacrificado a la política de los imperialismos que se reparten el
mundo, tal vez no sea inútil precisar que este texto no pretende en modo alguno preparar o justificar a
priori esta eventualidad. Muy al contrario, en el actual estado de las relaciones entre los pueblos, la
desaparición del Estado de Israel que, de todos modos, no se lograría sin hacer bastante ruido, sería un
golpe mortal para todo el pueblo judío, y es impensable desde el punto de vista de los demás pueblos,
como una amputación intolerable de la imagen que los hombres se han forjado de sí mismos. Al igual
que la creación de ese Estado dio dignidad, dimensión y un nuevo impulso a la conciencia que los judíos
—sionistas o no— tienen de sí mismos y de su relación con los demás, semejante catástrofe,
produciéndose menos de dos generaciones después de la del genocidio hitleriano, transformaría a los
judíos de todas partes, a sus propios ojos y a los de los demás pueblos, en esos eternos chivos
expiatorios, vagando de catástrofe en catástrofe, sin poder esperar nada mejor que una supervivencia
miserable —¡o dorada!— al precio de una despersonalización y una alienación que ningún pueblo del
mundo está, hoy, dispuesto a aceptar.
Pero este estudio ha querido intentar un análisis de las corrientes contradictorias que «animan» —en el
sentido propio de: hacen vivir—, desde el interior, al pueblo judío en sus relaciones consigo mismo y
con las naciones. El conocimiento de estas corrientes y de estas fuerzas, más allá de las consignas y de
la política cotidiana, debiera permitirnos, entre otras cosas, dominar mejor nuestra historia para evitar,
tal vez, este tipo de catástrofes.

274
12
ACERCA DE LOS «PSICOANALISTAS JUDIOS» 1
Wladimir Granoff nos gratifica con una historia (analítica) del movimiento psicoanalítico francés,
discurso a toro pasado sobre lo ocurrido, en el que el autor recuerda y reivindica su responsabilidad en
el origen de la existencia actual de, por lo menos, dos sociedades de psicoanálisis. Historia de
escisiones, de des-vinculaciones y de reivindicaciones que, evidentemente, debe leerse, releerse y
desleerse, en el interior de un lenguaje de psicoanálisis, y no como una sucesión cualquiera de
conflictos, de escuelas y de excomuniones de cleros. En el libro la historia del movimiento analítico
adquiere las dimensiones de una historia sagrada o mítica, la de la puesta en marcha del complejo de
Edipo. como anuncia, por otra parte, el subtítulo del libro. Además, el libro, burbujeante de inteligencia
y agilidad, se lee sin fatiga, pese a sus quinientas cincuenta páginas, como una epopeya que culmina en
una magnífica y última conferencia-capítulo.
Aunque se trate de una serie de conferencias pronunciadas ante un público de analistas, su edición
como libro implica un público más amplio. Desde este punto de vista quiero situarme para seña-lar, de
entrada, la trampa en la que no debe caerse: pese a todo lo que puede aprenderse en él sobre ciertos
hechos y actuaciones, hay que guardarse mucho de creer una sola palabra de lo que se dice. Sobre todo,
es preciso no imaginar que todo lo descrito pueda ser cierto en un lugar cualquiera, diferente del de la
subjetividad del autor y de sus condiscípulos.
Por otra parte, el autor lo sabe bien pues se presenta ante los
1
Inicialmente aparecido en Critique, núm. XX, 1977, págs. 245-255, sobre: Wladimir Granoff, Filiations. L'avenir du
complexe d'Oedipe, París, Editions de Minuit, 1975, 551 págs., y Marthe Robert, D'Oedipe a Moise: Freud et la conscience
juive, París, Calmann-Lévy, 1974, 278 págs.
275
que no son de su casa como un «extraño», lo que justifica con el episodio de las relaciones Freud-
Ferenczi, prototipo de la situación del analista en el momento particular de la cura cuando se convierte
«en el extraño del que no hay que creer una sola palabra» (páginas 225-226).
En efecto, se trata, al mismo tiempo, como en todo discurso analítico, de un desvelamiento de lo oculto
que aspira a una mayor verdad, después del desvelamiento anterior. Ahora bien, nada del discurso del
libro lleva a creer que sea efectivamente así, salvo para aquellos cuya adhesión se ha ganado ya al
margen de este propio discurso, gracias a una fe tanto más sólida cuanto sólo se transmite por la
experiencia interior e indecible del serrallo de las «casas» psicoanalíticas y sus distintas alcobas.
El dogmatismo neo-freudiano se presenta de forma nítida y to-tal: Freud, en este como en todos los
temas, ha mostrado el camino y puesto que Freud lo dijo todo, quien hable al «margen de Freud» o bien
no existe o bien es un traidor para aquel (el autor) que ha llegado a ver como sacrilegio el hecho de que
puedan verse «analistas de profesión pedir a no-analistas que les ilustraran sobre lo
que ocurría en ellos» (pág. 28). ¡Tan difíciles son de digerir para un verdadero defensor de la ortodoxia (?)
las fechorías disolventes de la apertura a las disciplinas antropológicas! Sorprende ver semejan-te
ingenuidad —aunque sea brillante— pero al mismo tiempo hace que uno se pregunte: «¿Pero de dónde
sale tal aplomo, tal seguridad?» un poco como ante los zelotes de tal o cual secta para quienes la idea
misma de que pueda ser de otro modo parece perfectamente incongruente.
Y sorprende tanto más cuanto, una vez más, la fuerza se saborea en cada página, especialmente en la
crítica y en la destrucción de los sutiles mecanismos de las ambigüedades de lo oculto-desvelado, del
silencio que habla, de la palabra que calla, etc. En este sentido puede apreciarse el notable resultado del
efecto de la práctica analítica sobre el aguzamiento de un espíritu hablante. Pero ello está puesto al
servicio del dogma, jamás cuestionado en sí mismo, ferozmente defendido contra, entre otras cosas, la
interdisciplinariedad en la que la disciplina analítica correría el riesgo de fundirse y de verse reemplazada,
hasta el punto de que uno de los objetivos enunciados de la empresa es permitir distinguir no ya quién es
«buen» analista de quien lo es malo, sino quién es freudiano de quien no lo es. Como ocurre siempre en
casos semejantes, la bri-

276
llante crítica sirve para enmascarar el dogmatismo de las afirmaciones tras la apertura y la libertad de la
negación.
Sin embargo, el autor busca también salir de su casa o, al menos, hablar para el exterior. Para ello, se ve
llevado a discutir muy brevemente el estatuto de la prueba, preocupación epistemológica en la que valdría
la pena profundizar. Por desgracia, W. Granoff se de-tiene muy pronto en este camino 32 tras haberse
limitado a reconocer su estatuto particular y ambiguo en el discurso psicoanalítico: éste se pretende
expresado en un «habla» en la que la noción de prueba es, simplemente, incongruente, pero al mismo
tiempo se pretende desvelador de descubrimientos en los que el carácter de verdades ocultas se apoya en
las formas verbales que, pese a todo, le sirven de pruebas. Pero eso sólo se reconoce e, incluso, se
reivindica —«la prueba sólo es para sí»— de forma que sirva para rechazar de antemano cualquier
acusación de dogmatismo y de obscurantismo: pertenecería al estatuto del discurso psicoanalítico no
encontrar sus justificación más que en su sola existencia, aun cuando se dé aires de discurso «científico» o
de «verdad».
Pero —¿o sobre todo?— entre analistas, las pruebas sólo serían «compañías» que permiten a los miembros
de la «casa» (= de la misma sociedad) reforzarse unos a otros, y que no permitirían, en modo alguno,
diálogos para establecer acuerdos, aunque fuesen parciales, con sociedades con «casas» distintas. ¿No es
éste un modo de justificar la existencia y la práctica de sociedades encerradas en sí mismas y que se
combaten a golpes de excomunión?: ¿quién es «realmente» analista, quién es «realmente» freudiano?, etc.,
comba-te del que uno se puede preguntar cuál es el objeto: ¿acaso no lo sea el conjunto de los pacientes
potenciales?; y combate realiza-do al modo de bandas rivales o de clanes cuya única justificación —que
no lo es porque, ni siquiera en teoría, tiene que serlo— es la práctica por filiación divergente a partir del
gran antecesor ¿sola y única fuente de todas las verdades?
Si realmente es así, cuesta ver lo que distingue a estas sociedades de las bandas de gangsters y asesinos
que han elegido como campo de actuación el mundo del «gran público amplio y cultivado»

32Estamos lejos, y es una lástima, de las interrogaciones sobre el estatuto epistemológico de la interpretación del que otro
analista, Serge Viderman, ha mostrado que pueden ser, en el campo del psicoanálisis, tan rigurosas como en otra parte (La
Construction de l'espace analytique, Denoel, 1970).

21
a quien se dirige también este libro: vosotros, pacientes potenciales, y vosotros, candidatos a la
iniciación, sabed bien que no tenéis más elección que veros sometidos a la ley del medio con todos sus
riesgos de extorsiones forzosas, castigos, ejecuciones incluso; pero también con todos los beneficios
secundarios vinculados al privilegio del conocer (?) que se anda por un camino ni «cerrado» ni
«prohibido», con un cuerpo abierto, por fin, a todas las «metamorfosis». Si la práctica de las sociedades
es, efectivamente, la que se nos sugiere en el libro, tenemos tanta razón para sentirnos inquietos como
cuando se nos dice, también, hasta qué punto las motivaciones del deseo de ser analista provienen de
pulsiones sádicas más refinadas todavía que las de ser médico o cirujano... lo que no es poco.
Pero, en fin, también se nos tranquiliza sugiriéndonos rápida-mente que lo que está en juego en la
relación con el cuerpo, mantenido «cerrado», de los (las) pacientes no es al fin y al cabo excesivamente
malvado, y que incluso cuando se pasa a los actos donde «todas las locuras están permitidas» (pág. 36),
estas locuras no lo son real-mente mientras la paciente consienta; y que de todos modos, cómo llamar a
eso locuras cuando se trata en realidad de trivialidades cotidianas en la vida parisina 3. En cambio, en el
nivel de la relación con la teoría, no ya con el cuerpo del paciente, sino con el «corpus teórico», la regla
se invierte punto por punto. Se trata de un cambio bastante notable en el que merece la pena detenerse
pues constituye visiblemente uno de los fundamentos de la ideología analítica que aquí se nos propone.
Ideología en la que se encuentran, entre otros, ciertos acentos paulinos, lo que no deja de ser «picante»
cuando se conoce la continuación: en efecto, lo que se nos dice se parece a lo que, antaño, decía san
Pablo saltándose la ley: todo está permitido en la obra (aunque no todo sea conveniente), mientras
vuestra salvación sólo depende de vuestra comunión — con la cabeza y el corazón— con el padre-hijo.
En este caso, Granoff nos lo dice de un modo un poco más moderno, pero formalmente idéntico: lo
importante no es tanto la conducta, «en la que pueden hacerse locuras», como la adhesión al dogma, «en
la que ninguna locura está permitida».
3
¿Qué pensaría Phyllis Chester? (Les Femmes et la Follie, París, Payot, 1975, capítulo sobre los «terapeutas seductores».)
Pero, naturalmente, ahí se trata de prácticas de «anglosajones», cuyo contexto no puede compararse al de los divanes
perfectamente franceses.

278
Es posible preguntarse, una vez más, qué motiva tan encarnizado afecto por la letra de Freud como
fundamento de una práctica en 1975. El ejercicio de la exégesis talmúdica del texto bíblico nos ha
enseñado que sólo conviene aferrarse a la letra del texto de referencia como medio de hacerle decir algo
que proviene de otra parte. Sabemos así que el secreto a voces del complejo de Edipo, realmente
demasiado difundido desde Freud, está a «punto» (?) de verse reemplazado en una función técnicamente
indispensable (de secreto a voces) por «el secreto del amor»: «nuestro secreto, cada vez más público, se
ha convertido en el secreto que debe guardarse en el análisis, porque el mismo Edipo se ha convertido
desde hace mucho tiempo en un secreto a voces. Desvelamiento del secreto demasiado antiguo como
para que pueda ejercer mucho tiempo todavía todas las prerrogativas propias del secreto a voces, lo que
sitúa al complejo de Edipo en vías de extinción. Ante ello intentaremos saber qué destino se le dibuja.
El nuevo secreto a voces es el secreto del análisis, entendido como secreto del amor. En este sentido,
como ocurre en el caso de cualquier analista, su secreto de amor desempeña la misma función que si
utilizase su relación con el complejo de Edipo, con sus progenitores, consigo mismo y con sus parejas,
en su relación con los analizados y eso es, y lo digo con toda claridad, lo que se denomina política en las
sociedades de análisis: la oreja des-de la que escucho y la manera en la que acepto hablar ahora,
teniendo en cuenta toda mi actividad —especialmente algunos de sus aspectos— que sólo la sordera
hizo posible. Lo que también me autoriza a decir que la principal actividad de las instancias adminis-
trativas de las sociedades de análisis está constituida por la demanda y por la recolección de falsas
explicaciones plausibles (págs. 108-109). Se levanta acta.
Pero eso nos lleva a otro orden de motivaciones, tal vez menos político y más analítico sugerido en
filigrana a lo largo de estas conferencias, para estallar en la última. Se trata de lo que se funda en la teoría
de la filiación analítica por «parejas malcasadas» en la que el papel del padre que fue un hijo (el analista
que fue analiza-do) es subrayado con respecto al de su propio padre (abuelo, analista del analista). En la
medida que las relaciones de esta pareja que-dan, evidentemente, marcadas por el complejo de Edipo y, en
especial, por el asesinato del padre-maestro analista, la historia de estas filiaciones parisinas coincide con
la mítica de los orígenes del cristianismo según el Freud del Moisés y el Monoteísmo. El asesi-

279
nato del padre se renueva en las filiaciones de maestro a discípulo y las distintas escuelas analíticas
corresponderían a diferentes actitudes posibles ante este hecho: la confesión del hijo y su perdón, que le
permiten ser divinizado a su vez y confundirse con el padre (La-can) o la reivindicación por los hijos y su
empecinado arraigo en la relación con el abuelo gracias al cual el asesinato del padre es, no perdonado,
sino, en cierto modo, legalizado (los «psicoanalistas judíos» post-lacanianos).
Es fácil ver ahí una de las posibles claves de ese aferrarse obstinadamente a una ortodoxia freudiana que,
de otro modo y en otro contexto epistemológico, no deja de extrañar. Freud sería ese abuelo al que Granoff
se aferraría más allá de Lacan, como Moisés habría sido el abuelo al que Freud se aferró más allá de su
padre (o de Fliess, o de Breuer, según se favorezca al uno o al otro como «par- tenaire» del «auto-análisis»
de Freud). Vemos, pues, cómo, a fin de cuentas, este discurso analítico sobre las filiaciones freudianas
llega a conceder un lugar preferente a la problemática de los orígenes judíos o no judíos de Freud y de
algunos de sus discípulos. Evidentemente, puesto que se trata de la historia del movimiento en Francia, la
articulación de esta problemática se realiza alrededor del freudiano no judío (cristiano?) Lacan, y de sus
discípulos disiden-tes «psicoanalistas judíos» (como si no existieran en Francia otros psicoanalistas no
judíos que no fueran Lacan...
¿Pero, sin duda, caen ellos para el autor del criterio infalible del freudismo, en la categoría de los «no-
freudianos» que salen ipso facto del campo de su análisis?).
He aquí, pues, que esta problemática desborda los divanes y los círculos más o menos privados de
analistas para exponerse a la luz del desvelamiento hacia un «público amplio y cultivado» (?) Pero si se
habla de los psicoanalistas judíos, hablemos entonces. Y para ello, permítaseme una asociación o una
«locura teórica» (puesto que no reivindico el sello de freudiano, parece que tengo el derecho a hacerlo)
que este tipo de ejercicio me sugiere irresistiblemente.
Se trata de la comparación entre la Cábala y el psicoanálisis, hecha y deshecha ya numerosas veces,
retomada y vuelta a dejar luego. Granoff menciona, por otra parte, estas tentativas (pág. 74) y yo estaría
bastante de acuerdo con la crítica que de ellas hace. Y es que, en efecto, lo que puede resultar interesante
en esta comparación no es tanto la cuestión de una filiación de la Cábala con el psicoanálisis sino la de una
comparación. El acercamiento y la com-

280
paración pueden imponerse en un juego de asociaciones «libres» —no porque Freud fuera judío, sino
porque se trata de dos aproximaciones distintas a lo oculto y a sus desvelamientos—. Merece la pena
siempre comparar dos aproximaciones a la escucha del in-consciente, tanto para quienes viven de la
tradición psicoanalítica como para quienes viven de la tradición judía. Una ciencia de los sueños expresada
en un lenguaje cultural occidental ni puede cotejarse, ni siquiera y sobre todo para diferenciarse, con otras
ciencias de los sueños nacidas de otras culturas, de otras experiencias, de otros lenguajes. Si existiera un
corpus teórico escrito sobre la ciencia de los sueños de los incas, por ejemplo, el cotejo y las
comparaciones con el psicoanálisis se impondría evidentemente; todavía más y con mayor interés si los
incas hubieran tenido una civilización de lo escrito y del libro que les hubiera permitido sobrevivir,
dispersos, a la destrucción de su imperio, de modo que sus teorías hubieran sido escritas por los propios
incas a lo largo de los siglos, y no por etnólogos modernos occidentales, ya más o menos analistas-
analizantes.
Los cotejos y comparaciones de la Cábala con el psicoanálisis sólo pueden hacerse en este contexto. El
hecho de que Freud fuera judío puede perfectamente dejarse de lado en este contexto, no como negación,
sino como consecuencia de que era judío en un nivel muy distinto a éste, completamente separado de
estas enseñan-zas muy poco conocidas y muy poco difundidas en el medio desjudaizado que era el suyo.
Verdaderamente, Freud nunca tuvo acceso a ellas, y de cualquier manera era incapaz de penetrar en
profundidad a causa de la barrera de la lengua hebraica que no dominaba. Sé que pueden construirse
interpretaciones sobre una filiación inconsciente, pero también puede no hacerse: visiblemente, ahí, lo
importante es sólo el deseo que se tiene o no se tiene, y un análisis crítico de este deseo —como el de
Granoff, ¿por qué no?—está perfectamente justificado.
Pero el gran mérito de Marthe Robert es haber planteado el problema de Freud y la conciencia judía en
términos tales que, por primera vez, las ambiguas relaciones entre judaísmo y psicoanálisis puedan ser
comprendidas sin caer en lo descabellado de las filiaciones inconscientes ni en la negación de cualquier
relación. Marthe Robert ha visto bien la situación de Freud, judío desjudaizado, como Kafka, «entre dos
culturas», de la segunda generación después de la emancipación. Esta situación, por su negatividad, le
permitió descu-

281
brir el psicoanálisis. El judaísmo de Freud no es tanto un contenido teórico o ideológico —bastante
reducido de hecho 33— como una situación de minoritario en una sociedad occidental de la que, al mismo
tiempo, se nutría; de extranjero que domina la cultura de la sociedad que, a la vez, le atrae y le rechaza. El
descubrimiento del psicoanálisis no es tanto una andadura judía como anti-occidental. La situación judía
sólo está ahí para permitir, por la distancia que implica del propio medio de la cultura occidental,
descubrir todo lo que esta cultura ha querido reprimir. Precisamente por eso, esta situación, en su
particularidad, permitía un descubrimiento de alcance universal cuyo impacto más importante era,
justamente, esta misma cultura. Pero la trayectoria de Jung y su fascinación por las culturas de extremo
oriente muestran bien a las claras cómo el análisis del inconsciente puede vincularse no sólo al mito judío,
sino también a los mitos chino e indio. Eso muestra cómo el judaísmo de Freud le aportaba no un
contenido positivo que le habría llevado a redescubrir el inconsciente, sino la posibilidad de una distancia
y de una subversión con respecto al Occidente del siglo XIX, única civilización de la que, por un
momento, el inconsciente parece expulsa-do. Su descubrimiento del inconsciente lo debe a su negatividad
judía y no a su relación consciente con el mito judío. Por ello, lo expresará en el lenguaje del mito griego
y de la ciencia. Además, intentará luego, según la interpretación que da Marthe Robert de Moisés y el
Monoteísmo, desjudaizar a Moisés como si necesitara justificar su propia andadura al margen de la familia
judía hasta Atenas. De modo mucho menos convincente, Granoff vuelve a tomar en cuenta el judaísmo o
la judeidad de Freud, en su relación con Moisés y, luego, la andadura de Lacan, que proseguiría la vía de
la confesión y el perdón que Freud asignó al cristianismo (lamentando vaga-mente que el pueblo judío
histórico no la hubiera seguido), y por fin en el aferrarse al más-acá, de lo que denomina los
«psicoanalistas judíos» (pág. 548), y entre ellos, aparentemente, él mismo.

33Aunque Freud hubiera conocido el hebreo, lo que es muy poco verosímil, para él sólo podría ser una lengua de catecismo
infantil y no una lengua de cultura. Ello justifica, de todos modos, su declaración explícita de ignorancia de esta lengua en un
contexto «adulto». Como Marthe Robert, después de Kafka, vio perfectamente, su percepción del mundo judío era sólo
familiar, con exclusión de una participación vivida en un pensamiento judío cuyo lugar era, por entero, ocupado por su
cultura greco-alemana.
26

De esos tres momentos de la filiación —Freud-Lacan-psicoanalistas llamados judíos— quisiera


proponer una interpretación «loca» inspirada en la comparación del discurso cabalista y psico-
analítico que indiqué más arriba. Como en ambos casos se trata de discursos-desvelamientos de lo que
está oculto y eso es por definición indesvelable, las experiencias, consideradas privilegiadas para estos
desvelamientos, los portavoces del inconsciente son, evidentemente, de la mayor importancia pues
ellos son los que visten lo oculto al desvelarlo, es decir, le dan su forma visible, aquella de la que puede
hablarse y a la que puede designarse. La comparación de estos portavoces, tal como aparecen en los
discursos de la Cábala y del psicoanálisis respectivamente, es lo que yo propongo utilizar como un hilo
conductor en esta «locura» interpretativa.
En los discursos cabalistas sobre los séphirot, los nombres y las figuras, los lugares privilegiados del
desvelamiento de lo oculto son algo que debe hallarse: en el cuerpo humano y las relaciones parentales
por una parte, con las figuras principales del abuelo, del padre y de la madre, del hijo y de la mujer del
hijo (Cábala de la estatura y de las figuras); en la estructura del lenguaje hebreo, por otra parte (Cábala
de los nombres, de las letras y demás signos de la escritura); y por fin, en los personajes-
acontecimientos de la historia mítica (de la Biblia) y post-mítica del pueblo de Israel, familia
depositaria de estos desvelamientos de la historia.
Se sabe que de estos tres modos, los dos primeros (cuerpos y relaciones parentales, estructura del
lenguaje) tienen también en el discurso psicoanalítico del estatuto de portavoces, lugares privilegiados
de desvelamientos del inconsciente. Sin embargo, aunque se encuentren juntos en la obra de Freud,
parece que el primer modo, el de las relaciones parentales, desempeña, en la forma de los esquemas del
Edipo, un papel mucho más central y originario que el segundo, el de las estructuras del lenguaje.
Desde este punto de vista, Lacan, acentuando, por el contrario, la importancia de este segundo modo,
aparece, efectivamente, como un continuador que completa, transformándola, la obra de su predecesor.
Desde este punto de vista, el lacanismo podría percibirse como siendo al freudismo lo que el
cristianismo quiere ser al judaísmo. ¡Lacan-san Pablo de Freud-rabbi Gamliel! Entonces, el
descubrimiento del tercer modo, el de la historia mítica, aparecería por fin... en Granoff don-de la
historia (sagrada) del movimiento serviría para basar el rechazo de esta pseudo- realización mutiladora
y la obstinación en el

283
más-acá judaico. Pero ahí, la historia se hace cómica. Postrera ironía, Granoff «analista judío», se ve de
hecho llevado a adoptar una doctrina de lo más paulino: la de la salvación por la fe que se convertirá en
el dogma, a expensas de la práctica rigurosa, remitida al «todo os está permitido» de san Pablo.
De este modo, Granoff, queriéndose «analista judío», defiende una doctrina cristiana que, hasta en su
formulación, es exactamente lo inverso de lo que sería una doctrina judía de las relaciones cabeza-
piernas-sexo, del corpus teórico a la vivencia corporal. «Resumiendo, y para fijar las ideas, podríamos
decir que en esta relación (con el cuerpo del paciente) se está dispuesto a hacer locuras... Decimos,
como un eco: con la teoría no se hacen locuras» (pág. 37). «La insensatez se convierte en locura si se
sube a la cabeza. La ausencia de insensatez no vuelve menos loco, si se desciende al sexo» (pág. 549).
La actitud resumida de estas fórmulas es exacta-mente la contraria de aquella, bien conocida, en la que
aferrarse a una praxis rigurosa permite una gran libertad de elaboración teórica 34. Cabía esperar más
bien, de un «psicoanalista judío» (si eso

34Podría hallarse una formulación a la vez precisa e ilustrativa, entre otras, en las págs. 59 y sigs. del tratado Hulin del
Talmud de Babilonia, leídas en una interpretación cabalista sugerida, especialmente, por el comentario de Recanati. Se trata
allí de signos de reconocimiento de especies animales autorizadas para la alimentación porque vehiculan un simbolismo de
la «vida» y, por ello, convienen al pueblo consagrado, también, por la alianza a esta «vida». Se descubre
la identidad de Israel a través de los rasgos del animal permitido, en oposición con los de aproximaciones frustradas que son el
camello-Ismael y el cerdo-Esaú. Según esta lectura, el animal portador de «vida» —porque expresa el simbolismo de una
verdad en la que se unen lo finito y lo infinito, lo delimitado y lo informe, lo distinto y lo confundido —es definido por dos
rasgos: los pies (hendidos-cortados) por los que se expresa la práctica de la conducta trazan el camino delimitándolo,
diferenciándolo, separándolo de otros caminos; por el contrario, la cabeza —por su ausencia de dientes cortan-tes en la
mandíbula superior— expresaría el lugar de los desahogos sin contención y del gran flujo unificador, culminando
eventualmente en el incesto (hesed), lugar, pues, de todas las «locuras» posibles... que sólo son además percibidas como locuras
en canto desborden al terreno de los pies. La verdad unificadora de la cabeza y de las piernas —de lo teórico y de lo práctico,
de lo pensado y lo vivido— aparece a medio camino en el corazón y el sexo «fundamento del mundo». Esta verdad, multi-forme
además —tanto como especies permitidas existen—, parece alimentar a la familia portadora de sus desvelamientos.
Se ve, pues, que la máxima granoffiana —todas las locuras en los pies y el sexo, ningún extravío en la cabeza— está
exactamente invertida. Se podría, claro, objetar que se trata de animales para consumir... en vez de pacientes. ¿Pero no se trata
realmente, también aquí, de consumo? Y el consumo no indica la identidad del consumidor?

284
quiere decir algo) una fórmula del tipo: «ninguna locura en las piernas, todas las locuras en la cabeza:
...algunas, cuidadosamente filtradas en el sexo por donde pasa todo conocimiento (y no sólo aquél que el
falso pudor occidental califica de bíblico)».
Lo propio de los judíos desjudaizados que somos o hemos sido, judíos cristianizados, occidentalizados,
deshebraizados (uno de cuyos tres florones, ya clásicos, fue Freud), es plantear la cuestión del maestro en
términos de padre. «Hazte un maestro (o dueño, maitre)» 6, dice el Tratado de los padres. Lo que
significa elígete, una vez esté constituida tu personalidad adulta, y ejerciendo tu sentido crítico, un
maestro para que te enseñe en las categorías lógicas y reemplace, renovándolos, los alimentos morales de
los biberones de tu padre. Luego, renueva tu elección, que puede ser aproximada, cada vez que tu
andadura te lo pida. Hablar de filiación con respecto a los maestros sería una agresión contra la que el
Tratado de los padres, justamente, pone en guardia al aprendiz de sabio. Los padres eficaces, que se
preocupan del desarrollo de sus hijos hasta hacerse adultos, les condicionan a separarse de ellos y a
desarrollar-se en relación con un saber crítico, abierto al exterior, más que con sus propios alimentos,
restringidos al medio familiar.
El pueblo judío de cultura se ha guardado bien de esta regresión disociando el origen de la enseñanza,
«Moisés nuestro maestro», de los orígenes de las filiaciones, «Abraham, Isaac, Jacob, nuestros padres».
Moisés, en la percepción judía mítica e histórica (que Freud no podía compartir 7), nunca ha sido un padre.
Prototipo de los rabbis talmidei-hahamim, nuestros aprendices-sabios que les seguirán y se harán, no se
supone que soporta la problemática del crimen y el perdón. Esta se encuentra, efectivamente, aunque
proyectada sobre otros personajes, en las relaciones entre los padres-hijos Abraham, Isaac, Jacob. Está,
por otra parte, re-invertida en asesina-to del hijo (Isaac por Abraham) y engaño del padre (el mismo hijo
Isaac, convertido en padre, por su hijo, Jacob). Para Moisés y sus discípulos, se trata de otro linaje, muy
distinto del de los Padres de una Iglesia: el de los maestros-alumnos de los sabios que mantienen
relaciones siempre turbulentas con la descendencia de los padres.
6
En hebreo, el maestro que enseña (rav) y el dueño del esclavo (adon, baal) son palabras muy distintas (en francés son la
misma palabra, maitre). Sólo el último evoca la autoridad y la propiedad mientras que el primero evoca la abundancia
(«mucho»).
7
Véase nota 4, pág. 281.

285
Podría formularse una teoría de la religión como reunión de esta disociación, regreso al maestro- padre, a
la que la religión judía tampoco escapa, evidentemente, cuando es religión.
Por lo que respecta a los «psicoanalistas judíos», de los que se nos habla aquí, podemos preguntarnos si
son freudianos judíos, al modo como lo era y podría serlo hoy Freud, o si se toman por judíos freudianos
al modo como se nos dice que habrían sido Moisés y sus discípulos. Hace tres cuartos de siglo, en su
situación de salida de la primera generación de judíos asimilados, Freud fue inducido a descubrir el
psicoanálisis. Hoy, en nuestra situación de judíos descolonizados postasimilación, tras la experiencia de
los universos concentracionarios y los derrumbamientos que siguieron, podemos ciertamente utilizar el
psicoanálisis pero evidentemente no descubrirlo. Estaríamos más bien tentados a descubrir, renovándolo,
el mito judío, a la vez en su universalidad y en sus dimensiones históricas particulares.
Sea como sea, felizmente para los pacientes, con la ayuda de la bondadosa naturaleza, algunas curas
tienen éxito sin que sea indispensable que el terapeuta domine los fundamentos teóricos de su éxito.
Otras curas, por desgracia, fracasan sin que esto confirme o desmienta en absoluto la teoría de tal o cual
escuela. Los discursos conscientes, teorizantes de algunos psicoanalistas, nos hacen creer que, por lo que
les concierne, de todos modos, «no saben lo que hacen».

286
13
LA VIDA Y LA MUERTE: BIOLOGIA O ETICA1

Existe un viejo sueño de la humanidad, el de la unidad de la ley moral y la ley natural, el de un mundo en
el que el bien se confunda con lo cierto —y, además, también, de paso, con lo bello, ¿por qué no?—. Este
sueño está en nuestros días y en nuestras latitudes bastante destrozado, pero como un ave fénix renace sin
cesar de sus cenizas.
Ya Moisés, antes de morir, hablaba de él al pueblo de Israel, hablaba en nombre del Nombre, si así puede
decirse, y les decía: «Mira, he puesto ante ti, hoy, la vida, y el bien, y la muerte, y el mal...
He tomado por testigo ante ti, hoy, a los cielos y la tierra, la vida y la muerte; he puesto ante ti la
bendición y la maldición. Elegirás la vida para que vivas, tú y tu simiente.» (Deut. XXX, 15-19.) En
estos términos habla Moisés, dirigiéndose al pueblo de Israel en la encrucijada de los caminos, en el
momento de abandonarlo. Es también el momento en que este pueblo, condenado hasta entonces a
vagabundear por el desierto, y por las revelaciones del infinito, se compromete en una empresa de
realización nacional y territorial, empresa necesaria para su estabilización, pero llena de peligros entre
los que no es el menor el del encogimiento y rigidez social.
Ahora bien, este texto expresa, aparentemente, de modo muy atractivo y en ese contexto particular, este
viejo sueño de la humanidad, esta unidad de la ley moral y de la ley natural, que sigue siendo, como todo
el mundo sabe, uno de los fundamentos de la actitud judía ante la ley. Además, aquí, la ley natural es
expresada en términos de vida y de muerte. Bien y mal no serían sino aspectos particulares traspuestos al
campo de la vida social y de la vida sub-
1
Comunicación en el XVII Coloquio de intelectuales judíos de lengua francesa, París, 1976, publicado en Le Modele de
l'Occident, París, PUF, 1977, pág. 33-46.

287
jetiva, de la vida y de la muerte; y la elección del bien sería aconsejable, como dice Rachi, a quien
hubiera aceptado el consejo previo de elegir la vida y no la muerte.
De hecho, como veremos, el texto bíblico no es tan ingenuo, y sólo aparece tan simple en una lectura
edificante y catequizadora. Algunos comentaristas tradicionales lo vieron hace ya mucho tiempo;
podemos citar, por ejemplo, el autor del Or Ha'Haym. Pero como ocurre en otros muchos casos, debemos
aprender a releerlos.
Por otra parte, sabemos que existe otro discurso sobre la vida y la muerte, que aparentemente nada
tiene que ver con ese, el de la biología. Como todo discurso científico, está basado en una actitud muy
opuesta, resumida en el postulado de objetividad. El discurso científico está completamente disociado de
consideraciones de moral social o individual. Por ello, además, constituye un fenómeno específico de
nuestra civilización occidental en su estado actual, cuando el viejo sueño de la humanidad ha sido,
aparentemente, abandonado de modo definitivo, cuando la ley moral y la ley natural no tienen ya ningún
campo común.
Voy a intentar comparar ambos discursos o, más exactamente, buscar algunos puntos de orientación que
permitan un vaivén del uno al otro. En la medida en que dicen explícitamente lo contrario el uno del otro
(el uno se apoya en esta unidad, el otro, por el contrario, la ignora) este vaivén —que concierne no a lo
que les es explícito, sino a lo que en ellos está implícito y los funda— permite, tal vez, comprenderlos
mejor a ambos.
El texto bíblico, como veremos, no es tan ingenuo como parece: las relaciones entre las parejas bien/mal,
vida/muerte, son mucho más complejas y ambiguas de lo que se cree. Ello es evidente en cuanto se toma
en serio la propia formulación del texto: se des-prende de él una serie de preguntas cuyos elementos de
respuesta pueden hallarse en los comentarios talmúdicos, cabalísticos o más tardíos, y también tal vez en
una reflexión sobre ciertas corrientes de la biología de hoy.
La correspondencia entre las dos parejas bien/mal, vida/muerte, es formulada de dos modos distintos. La
primera formulación contiene todo esto revuelto, sin que se trate claramente de una verdadera alternativa:
«Pongo ante ti la vida y el bien y la muerte y el mal»; más exactamente, los términos de la alternativa son
ambiguos. Puede tratarse, como se cree habitualmente, de la alternativa entre vida y bien por un lado, y
muerte y mal por el otro; pero

288
puede tratarse también de la alternativa opuesta, entre la vida y el bien, es decir, la vida por un lado, el
bien por el otro; alternativa que se repite luego entre la muerte por un lado y el mal por el otro. Entonces,
la vida y el mal estarían en el mismo campo, y el bien y la muerte en el otro. De hecho, la forma de esta
primera formulación es, al parecer, voluntariamente ambigua con el fin de preservar ambas
eventualidades.
Sólo en una segunda formulación, algunos versículos más lejos, la alternativa se presenta de modo más
determinado, tal como solemos comprenderla: «La vida y la muerte he puesto ante ti, la maldición y la
bendición.» Ahí, en efecto, la fórmula es clara: por un lado la vida, por el otro la muerte; por un lado la
bendición, por el otro la maldición.
Pero esta última formulación termina con una exhortación que hace rebrotar la ambigüedad del
comienzo: «Elegirás la vida para que vivas, tú y tu simiente.» Hubiera sido de esperar: «elegirás el bien
para que vivas»; o también: «elegirás la bendición para que vivas»; o tambien: «elegirás la vida» a secas.
¿Qué quiere decir: «elegirás la vida para que vivas»? —lo que deja suponer que «podrías elegir la vida
para que no vivas»—. Precisamente de esta eventualidad se trata aquí, y también en la primera
formulación donde todo se da revuelto: la vida y el bien y la muerte y el mal; se trata, efectivamente, de
la ambigüedad entre estas dos alternativas opuestas: aquella en la que el bien estaría del lado de la vida —
con, como corolario, el mal del lado de la muerte—, pero también aquella, por el contrario, donde el bien
estaría del lado de la muerte y, como corolario, el mal del lado de la vida. En la primera formulación,
ambas alternativas son igualmente posibles, igualmente verdaderas, están igualmente presentes. Si se las
acepta a ambas juntas, resulta que cierta vida será, al mismo tiempo, una muerte, y que cierta muerte será
al mismo tiempo una vida: la vida por el bien de la primera alternativa conducirá a la muerte de la
segunda alternativa, y la muerte por el mal de la primera alternativa llevará a la vida por el mal de la
segunda alternativa.
La exhortación final, que de otro modo sería incomprensible, adquiere entonces todo su peso y toda su
riqueza: el consejo que se te da es que descubras un camino en medio de este revoltijo de vida y de
muerte, de bien y de mal, un camino que te permita elegir una vida que no sea una muerte,
precisamente cuando la realidad es tal que toda elección de vida debe llevarte ineludiblemente a una elec-

289
ción de muerte: «elige la vida para que vivas», pues sabes que si eliges la vida corres el riesgo de verte
llevado a su contrario.
Y ello, evidentemente, no queda compensado por el hecho de que si eliges la muerte corres, también, el
riesgo de verte llevado a elegir la vida —lo que sería evocado por una fórmula del tipo: «Elige la muerte
para que vivas.»— Tal fórmula es imposible, como imposible es el clásico grito de «¡Viva la muerte!»,
pues no se puede olvidar que, pese a todo, la elección de la muerte comporta también, con toda evidencia,
el riesgo de morir. Dicho de otro modo, las elecciones de la vida o de la muerte no son simétricas.
¿Es posible salir de estas contradicciones y de estas paradojas, paradojas y contradicciones que, sin
embargo, no pueden evitarse si se toma en serio la doble formulación de los textos bíblicos? Si se está
sensibilizado por un cierto modo de ver las cosas, se hallará en ciertos textos rabínicos algunas
indicaciones sobre el modo de salir de estas contradiciones o, más exactamente, de vivir con estas
contradicciones.

Pero se puede intentar, antes, mostrar por qué ciertas consideraciones, surgidas de reflexiones sobre la
vida y la muerte como las que pueden sugerirnos las biología actual, contribuyen a esclarecer un poco
estas preguntas, aunque, y es importante subrayarlo, el propósito explícito del discurso científico pretende
mantenerse por completo separado de cuestiones de este tipo. Intentando ser tan poco técnico como sea
posible, no es inútil detenerse un poco en esta particularidad del discurso científico que es el postulado de
objetividad, postulado que distingue el discurso científico de buen nú-mero de otros discursos. En la
medida en que la ciencia es una de las producciones más características de la civilización occidental, esta
particularidad es una marca de tal civilización, para lo mejor y para lo peor.
Este postulado implica, entre otras cosas, que los fenómenos sean observados por métodos llamados
objetivos, es decir, en líneas generales, reproducibles e independientes, no de la existencia de
observadores, sino de la subjetividad de los observadores.
Este postulado implica también que la interpretación de estas observaciones no apele en modo alguno a
esta subjetividad, aun compartida, en forma de juicios de valor a priori sobre el carácter deseable de tal o
cual resultado —lo que excluye de entrada que nos

290
preocupemos del carácter moral, bueno o malo, de tal o cual resultado, de tal o cual teoría.
La búsqueda de la verdad —o, mejor, de este tipo de verdad buscada por el ejercicio del método
experimental— prevalece sobre cualquier otra preocupación, con la enorme ventaja de la apertura, es
decir, la posibilidad de ser puesta constantemente en cuestión y revisada; pero también, evidentemente,
con el inconveniente de su posible disociación con el mundo de las verdades subjetivas, de la estética y de
la ética.
Esta disociación, que se comprueba hoy no sólo como posible, sino como un estado de hecho,
probablemente responsable, además, de lo que a menudo se denomina la crisis de la ciencia e, incluso, la
crisis de Occidente, tiene una historia. No siempre ha existido así, ni siquiera en Occidente.
La ciencia, nacida en la antigua Grecia, sólo ha adquirido el rostro que hoy le conocemos durante los dos
últimos siglos de su historia. Antes, digamos hasta Newton, para fijar las ideas la ley moral se confundía
con la ley natural o, más exactamente, ambas leyes tenían un origen común, a saber: Dios creador que era
la garantía de su unidad. Esta unidad nunca se percibía directamente como un dato de experiencia; por otra
parte, sigue sin ser percibida así, o muy raras veces. Por el contrario, la experiencia, a menudo, hacía —
sigue haciendo— dudar de que las leyes de la naturaleza funcionen en armonía con las leyes morales. Pero
como las leyes de la naturaleza eran percibidas como la expresión de la voluntad de Dios, al igual que las
propias leyes morales, este origen divino le servía de garantía a la unidad de estas leyes, al menos en
principio, aun cuando la experiencia contradijera a veces esta unidad; esta contradicción por la experiencia
podía, entonces, cargarse, como se dice, en la cuenta de la ignorancia de los impenetrables designios de
Dios en quien, por definición, la contradicción debía desaparecer.
El advenimiento de la mecánica racional y su aplicación a la mecánica celeste, con la cosmología de
Kepler y de Galileo, modificaron un poco las cosas mostrando fenómenos naturales gobernados no por
una impenetrable voluntad de Dios, sino por leyes accesibles a la razón humana; mejor, por leyes
matemáticas que parecen producto de la razón.

Se piense, como Galileo, que el universo es un libro cuya lengua son las matemáticas o, como Poincaré,
que las matemáticas son la

291
lengua del hombre cuando estudia la naturaleza, Dios ha cambiado de estatuto. Comenzó haciéndose
matemático, luego desapareció progresivamente, sustituido por los físicos — matemáticos también—, en
cuanto pudieron prescindir de él. En cualquier caso, la garantía de la unidad de la ley moral y la ley
natural no era ya un Dios creador-legislador, sino la razón humana. De ahí el período de las grandes
ideologías del siglo XIX, cuando la razón tenía que des-cubrir las reglas de conducta y de organización de
la sociedad, en armonía con las leyes de la naturaleza.
Hoy, todo eso ha terminado. Estas ideologías han fracasado, y el libre ejercicio de la razón crítica ha
desembocado en el fracaso de la propia razón en la tarea de fundamentar una ética individual y social. De
este modo, se ha llegado a un estado muy particular, específico de la civilización occidental en este punto
de su historia. En ese estado, mientras las leyes de la naturaleza son cada vez mejor descifradas y
dominadas por esta forma particular de ejercicio de la razón que es el método científico, nos resignamos a
que este ejercicio no sirva prácticamente de ayuda alguna para la vivencia individual y social, la
elaboración o el descubrimiento de una ética.
De este modo, por lo que concierne a las ciencias de la vida, desembocamos en una especie de paradoja: la
biología se ocupa de la vida y de la muerte pero no, o muy poco en todo caso, de la vida y la muerte de los
hombres reales en sociedad. Algunas aplicaciones médicas, que utilizan conceptos y técnicas biológicas,
no deben ilusionarnos; sólo afectan a una fracción muy pequeña de la población; además, y sobre todo, de
todos modos sólo se trata de problemas de salud y no de problemas de vida, lo que, en el contexto en el
que nos hallamos, no es lo mismo.
Esta situación es muy bien advertida por la mayoría de los biólogos actuales, que reaccionan en función de
sus inclinaciones individuales pues, en todo caso, no pueden ignorarlas. Se sabe que Jacques Monod
escribió su famoso libro, con el éxito que todos conocemos, para intentar, precisamente, resolver esta
paradoja. La solución que propone es fundamentar una ética no sobre la propia ciencia, pues-to que es
imposible, sino sobre el postulado extracientífico o metafísico que fundamenta la ciencia, a saber: el
postulado de objetividad.
Es una actitud que muchos científicos, biólogos especialmente, tenderían a compartir. Otros, como ese
grupo de científicos americanos que Ruyer presentó en su libro La Gnosis de Princeton,
36

intentan con el mismo objetivo fundamentar un nuevo espiritualismo a partir de conceptos de la


ciencia de hoy, de los que dicen que «vuelven a ponerlos al derecho» cuando los completan, hin-
chándolos y deformándolos a menudo, con significaciones metafí-
2
sicas 2.
Fran9ois Jacob ha resumido muy bien la situación al decir: «En los laboratorios no se interroga ya a la
vida; hoy nos interesamos por los algoritmos del mundo viviente», es decir, por la lógica de los
organismos considerados como máquinas programadas, sistemas cibernéticos de los que se trata de
descubrir los programas y la lógica de la organización.
Esta actitud coincide con la corriente mayoritaria del pensamiento tecnológico contemporáneo, a saber:
la corriente operativa. Nadie se preocupa de descubrir verdades, ni siquiera parciales, sino de saber si
«la cosa funciona». Las teorías científicas no tienen, en último extremo, valor más que si pueden servir
para hacer experimentos, si son origen de operaciones de las que se sabe que, a fin de cuentas,
desembocarán en la prueba de la falsedad de tales teorías y, por tanto, a lograr que sean rechazadas. La
realidad descrita no es, en sí, la de los objetos observados, sino la de las mismas operaciones de
observación, de medida y de fabricación.
Esta toma de conciencia del papel de la observación, del observador y de sus operaciones en el discurso
científico es algo muy importante: esta toma de conciencia ha podido parecer liberadora,
verdaderamente, en la medida en que permite eliminar muchos falsos problemas esencialistas con sus
implicaciones totalitarias. En efecto, aun cuando se critique esa actitud operativa, porque se perciban
sus límites, de todos modos no hay que olvidar que, en cierta medida, pone a cubierto de las trampas
que consisten en identificar la ciencia con tal o cual ideología que, a veces, puede tomar formas
totalitarias extremadamente peligrosas. Y la actitud opuesta des-emboca, a menudo, en la extrapolación
de un punto particular del discurso científico para extenderlo a la realidad entera. Esta actitud fue el
origen de dos aplicaciones pervertidas de la genética, donde las falsas relaciones entre verdad científica
e ideología alcanzaron el máximo del horror en su utilización por un poder totalitario. Se trata,
naturalmente, de la genética nazi que fundamentaba las leyes raciales, y de la genética soviética
stalinista de Lyssenko.
2
Cfr. más arriba, capítulo: «La Gnosis de Princeton», pág. 243.

293
Ahí, la cuestión de la verdad o del error científico no tiene ya nada que ver con la de la ideología que lo
utiliza; se advierte, curiosamente, que los horrores stalinistas eran cometidos en nombre de una
genética que hoy se califica de delirante, pero que, en cambio, los horrores hitlerianos eran cometidos,
por su parte, en nombre de una genética que hoy se reconoce como auténtica, aunque, evidentemente,
su campo de aplicación deba ser cuidadosamente delimitado.
En relación con estas perversiones, la actitud operativa parece siempre especialmente lúcida y
liberadora, en la propia medida en que pone al abrigo de confusiones de este tipo entre búsqueda
científica e ideología. Pero debe observarse también que esta actitud operativa es, como mínimo, la
constatación de un fracaso: el fracaso de las posibles relaciones entre nuestro método de investigación
y nuestra vivencia individual y social.
Además, la actitud operativa, aun cuando proteja contra las alienaciones de ideologías totalitarias, no
pone al abrigo de otra forma de alienación, a veces menos brutal, pero igualmente insidiosa, como ha
mostrado especialmente Marcuse y otros tras él: no se trata de tal ideología explícita, sino de la
ideología implícita, oculta, de las sociedades liberales o, como hoy se dice, de consumo. En ellas, la
alienación se oculta tras la ausencia de ley explícita que es sustituida por lo convencional y
lo funcional. Es el otro extremo, el de «todo equivale», un «todo equivale» teórico, que no sólo es
teórico por otra parte, porque se vive o se expresa en una práctica unidimensional que lo engloba
todo, lo metaboliza todo, en la indiferencia del valor; y al abrigo de tal indiferencia se efectúa la
uniformización de las aspiraciones y los deseos.
No cabe duda, aquí, de que la ciencia operativa desempeña un papel recuperador que Marcuse, al
parecer, fue el primero en seña-lar y que muchos científicos jóvenes comienzan hoy a advertir; de ahí lo
que comienza a denominarse crisis de la ciencia, y que es una crisis de reclutamiento, tal vez menos
cuantitativa que cualitativa.
Sea como sea, esta actitud operativa lleva hasta sus últimos límites la constatación de la imposibilidad
de utilizar la verdad científica para fundamentar, ontológicamente digamos, una ética cualquiera. Y esto,
una vez más, tiene al menos la ventaja de preservar el porvenir, permitiendo un continuo replantearse de
las preguntas, puesto que sólo están reprimidas, y al mismo tiempo, impide, esperémoslo al menos,
utilizar la verdad técnica, como se hizo en el

294
pasado, para fundamentar ideologías cuyo mortífero poder puede alcanzar dimensiones
catastróficas.
Tras esta disgresión, nos será posible mostrar cómo, en esta grisalla de lo indiferente, en este contexto
de investigaciones pura-mente operacionales, se encuentra de nuevo, curiosamente, una problemática de
la vida y de la muerte que tal vez habían tenido los antiguos, pero que había desaparecido y sido
olvidada por la con-ciencia moderna; tal vez por ahí puedan descubrirse, evidentementé, en términos
nuevos, los antiguos problemas que no sólo habían sido olvidados sino cuyos términos ni siquiera se
comprendían.
Ello nos permitirá redescubrir las implicaciones éticas que se creían olvidadas, pero redescubrirlas en un
nivel más profundo, más multívoco, en un contexto mucho más rico que el de los dogmas y las
ideologías. Evidentemenete, se tratará no de fundamentar una ética sobre teorías biológicas nuevas, sino
de utilizar estas teorías en lo que tienen de ambiguo y de contradictorio para plantear el problema de la
ética en términos de vida y de muerte (que son también ambiguos y contradictorios). Dicho de otro
modo, no utilizar la teoría científica como un nuevo dogma del que se extraen recetas morales sino
como una fuente de nuevas preguntas que tal vez permitan plantear mejor la cuestión de la ética y
encontrar de nuevo, por ello, cuestiones que tal vez obsesionaban a los antiguos.
¿Pero cómo hablar de nuevas concepciones sobre la vida y la muerte cuando recordábamos que ya no se
interroga a la vida en los laboratorios, que sólo interesa la lógica de la organización de los sistemas
vivos? Sucede que la lógica que en ellos se descubre es una lógica de la contradicción, en la que
desaparecen las antiguas ideas bien definidas sobre la vida y la muerte pero donde aparece una especie
de cooperación, aparentemente paradójica, entre lo que se creían ser procesos de vida, de desarrollo y de
crecimiento por un lado, y lo que se creían procesos de muerte, de envejecimiento, de desorganización
por el otro. Bichat decía antaño: «La vida es el conjunto de las funciones que resisten a la muerte.» Hoy
se tendería más bien a decir que «la vida es el conjunto de las funciones capaces de utilizar la muerte».
La primera intuición de esta cooperación antagonista y paradójica es probablemente la de Freud sobre la
pulsión de muerte. Pero Freud había tenido esta intuición en un contexto científico que era el suyo y
donde no existían los instrumentos para fundamentarla verdaderamente. De ahí la dificultad del propio
Freud, y más toda-

295
vía de los demás, para comprender verdaderamente cómo es posible que procesos de muerte puedan
formar parte integrante de los procesos de vida. Entonces se refugiaron, por algún tiempo, en la idea
de que existía una oposición entre el interés individual y el interés de la especie; dicho de otro modo, en
esta idea bien conocida que aparece con claridad en la vida de los insectos y cuyo ejemplo clásico es el de
la mantis religiosa obligada a matar a su macho en el instante de su unión porque es el único medio que
tiene de poner en marcha el reflejo de fecundación; o también el de las mariposas que mueren en cuanto
se han reproducido y cuya vida se consigue prolongar artificialmente si se las impide reproducirse. Dicho
de otro modo, se sabía perfectamente que existía ahí una oposición entre la vida del individuo y la de la
especie, el individuo tenía que sacrificar, en cierto modo, su vida, morir, para permitir la perpetuación de
la especie. Sólo en esta forma se había conseguido integrar la tan paradójica idea de una pulsión de
muerte formando parte integrante de los propios mecanismos de la vida: esta pulsión de muerte habría
sido, en cierto modo, la presencia de la especie, responsable de la muerte del individuo en el interior de la
propia vida del individuo. Pero hoy se sabe que este antagonismo es más profundo. Se lo descubre ahora
en el mismo interior del individuo, en el mismo interior de no importa qué sistema vivo, incluyendo el
sistema más elemental, el de la célula. Se lo encuentra actuando también en la lógica de la evolución y en
la lógica del desarrollo, de la maduración y del envejecimiento; se lo encuentra actuando también en los
procesos aparentemente más elaborados, los de nuestro aparato cognitivo, de lo que Piaget llama la
asimilación, con su doble sentido biológico y cognitivo.
Pasando por encima de los detalles técnicos, digamos que dos corrientes convergentes han llevado a
representarse hoy la organización de un sistema vivo como el resultado de procesos antagonistas, uno de
construcción, otro de destrucción; uno de ordenamiento y regularidad, otro de perturbaciones aleatorias y
diversidad; uno de repetición invariable, otro de novedad imprevisible. De estas dos corrientes, una es la
que utiliza, para describir la lógica de lo vivo, la teoría de la información, con sus nociones de
información genética, de código, de programa; la otra es la que utiliza, para describir el estado de la
materia organizada, una rama de la física que se denomina la termodinámica de los sistemas abiertos.

296
Una de las primeras brechas en la concepción clásica de la organización vital a la que se opondría la
desorganización de la muerte se produjo cuando se reconoció el papel del azar y de lo aleatorio en la
organización de los sistemas vivos, y también —como para sub-rayar bien la vertiente no misteriosa, no
vitalista de la cosa— en la organización de todo sistema que estuviera dotado de virtudes de «auto-
organización».
Sabemos que el papel del azar ha sido puesto de manifiesto, en los mecanismos de la evolución de las
especies, por la teoría neodarwinista de las mutaciones al azar seguidas de selección; la evolución es
acompañada de un aumento de complejidad y de autonomía de la organización biológica. El motor de la
evolución es una curiosa cooperación entre mutaciones al azar que perturban la estabilidad del
equipamiento genético de una especie, y una selección por el entorno de los equipamientos genéticos
modificados mejor adapta-dos a un nuevo entorno. Las mutaciones al azar son la fuente de diversidad, o
de novedad y de complejificación. Ahora bien, el azar era considerado hasta entonces como antagonista
de lo organizado. Y he aquí que la organización biológica es capaz de integrar y utilizar el azar como
fuente de novedad, como medio de adaptabilidad.
Mucho más, eso parece cierto no sólo para la evolución de las especies, sino también para el desarrollo
del individuo. Se ha llega-do así a la idea de que los mecanismos de producción de errores metabólicos y
de desorganización (que están en el origen del envejecimiento y de la muerte) sean, también, el origen del
desarrollo y de la maduración.
Del mismo modo, la constitución del aparato inmunitario en una red que aprende progresivamente a
reconocer el sí del no-sí en el nivel celular y molecular hace aparecer la utilización de encuentros al azar
de moléculas o de células diversas; estos encuentros son los que modifican la estructura de la
red y determinan su orientación ulterior por una vía más que por otra, y esta orientación es la que
llegará, a fin de cuentas, a formar la individualidad celular del sujeto.
Todo ello ha llevado a la idea de que la organización de los sistemas vivos no es una organización
estática, ni siquiera un proceso que se opondría a fuerzas de desorganización, sino, efectivamente, un
proceso de desorganización permanente seguida de reorganización, con aparición de nuevas
propiedades si la desorganización ha podido ser soportada y no ha matado el sistema. Dicho de otro

297
modo, la muerte del sistema forma parte de la vida, no sólo en forma de una potencialidad dialéctica,
sino como parte intrínseca de su funcionamiento y de su evolución: sin perturbación al azar, sin
desorganización, no hay reorganización adaptadora a lo nuevo; sin procesos de muerte controlada, no
hay procesos de vida.
A una visión del mismo tipo han llegado trabajos que pretendían elucidar el estado físico de la materia
viva. Quien haya podido contemplar una película mostrando células observadas al microscopio, cuando
todavía están vivas y no inmovilizadas en una imagen estática como se las presenta en los libros, no
puede dejar de sor-prenderse por el aspecto desordenado, por el hormigueo de todos esos granos que
constituyen el protoplasma celular: los constituyen-tes celulares se hacen y deshacen sin cesar,
aparentemente al azar y, al mismo tiempo, de modo organizado. Se puede tener una imagen de esta
asociación de azar y de organizado contemplando un hormiguero: cuando el hormiguero ataca a una
presa, un pedazo de alimento, se ve a las hormigas ir desordenadamente en todas direcciones, una
atrapa la presa, la arrastra en una dirección, la suelta luego, llega una segunda hormiga, aparentemente
por azar, agarra la presa, la arrastra en otra dirección, la suelta luego también, y así sucesivamente; todo
tiene el aspecto de un inmenso caos, pero al cabo de cierto tiempo descubrimos que, por una serie de
rodeos y vagabundeos, la presa acaba llegando al interior del hormiguero. Naturalmente es sólo una
imagen; pero por lo que concierne a la célula sabemos, ahora, que los constituyentes celulares se hallan
en estado de permanente renovación y que a través de este flujo desordenado, alimentado por la
agitación browniana de las moléculas, se crea cierta estabilidad relativa, una persistencia del conjunto
organizado de la célula.
De este modo, la imagen física que servía de modelo de representación de la organización viviente ha
cambiado mucho. Antaño, y recientemente todavía, cuando se buscaba en el mundo físico una
imagen de lo organizado, se pensaba siempre y enseguida en el cristal con su orden muy regular y
muy estable; hoy no se piensa ya en el cristal, se piensa en el torbellino líquido, que se hace y se
deshace, cuya forma permanece casi estable, contra y gracias, simultáneamente, a perturbaciones
aleatorias, imprevisibles, que mantienen este torbellino destruyéndolo, que lo destruyen
manteniéndolo. Pensamos todavía, también, en la vieja imagen de la llama de la vela.

298
La organización viva aparece así como un estado intermedio entre la estabilidad, la persistencia
inmutable del mineral y, por otra parte, la fugacidad, lo imprevisible, la renovación del humo. Por un
lado, lo sólido; por el otro, el gas, y en medio se halla el fugaz plano del torbellino líquido. Ambos
extremos constituyen, de hecho, dos clases de muerte, que están presentes y se oponen una a otra para
asegurar la existencia y el funcionamiento de lo vivo. La muerte por rigidez, la del cristal, del mineral,
y la muerte por descomposición, la del humo. Ellas son, al mismo tiempo, las que aseguran la
estabilidad de la vida, una, y la renovación de la vida, otra.
Con esta visión fluida y móvil en la cabeza, es posible regresar a la cuestión de una ética de la vida y de
la muerte, tal como fue planteada en el texto del Deuteronomio citado al comenzar. En par-
ticular, es posible encontrar de nuevo, si se es sensible a este modo de ver, la misma visión
contradictoria en cierto número de comentarios más tardíos.
Uno se halla en una historia, una Aggada, incluida en el folio 21 del tratado Sota del Talmud de
Babilonia, que R. Na'hmam de Bratzlav 3 comentó en el siglo pasado. La historia es la siguiente: un
hombre camina por la noche y tiene miedo de los agujeros, de las espinas, de las bestias salvajes y de los
bandidos. Llega a una encrucijada de caminos; encuentra al alumno-sabio, y piensa en el día de su
muerte. —R. Na'hmam de Bratzlav vio en este relato al hombre que intenta, primero, evitar las
categorías mortíferas de la noche, de su propia noche interior, naturalmente—. Estas categorías se
extraen de lo que, en él, es mineral, vegetal, animal y humano, y que el texto expresa, respectivamente,
con los agujeros (para lo mineral), las espinas (para lo vegetal), las bestias salvajes (para lo animal) y los
bandidos (para lo humano); categorías que toman la . forma de lo que R. Na'hmam llama,
respectivamente, la melancolía (para los agujeros), las pulsiones dispersantes (para las espinas), la
agitación desordenada y la pérdida de tiempo (para las bestias salvajes) y el orgullo (para los bandidos).
3
Rabbi Na'hmam, Likoutei Maharan, 4.

299
Pero cuando se llega a la encrucijada de caminos, tras haber evitado esos peligros, queda la pregunta: ¿a
dónde ir? Para ello, el hombre debe intentar descubrir lo que R. Na'hmam denomina el origen de su
alma, lo único que le permitirá reconocer el camino que le conviene, teniendo en cuenta lo que 61 es en
su originalidad. Y para alcanzar el origen de su alma, no puede evitar la presencia del día de su muerte.
Esta presencia es lo que R. Na'hmam interpreta como lo que va a expresarse en las palabras del hombre
ante el alumno-sabio, el Vidoui devarim, el «vertido de palabras», ante el alumno-sabio que sólo
escucha. Dicho de otro modo, tras los peligros de la noche en la que debe evitar ser muerto, descubrirá
el camino de su vida dejando, sencillamente, que su palabra fluya ante el alumno-maestro. No se dice,
evidentemente, si debe hacerlo tendiéndose en un diván o de otro modo; pero, de todos modos, esta
palabra implica, también aquí, ponerse en presencia del día de su muerte.
Otro comentario, tal vez más explícito, es el que daba hace unos tres cuartos de siglo el Rav Kook, el
padre (desgraciadamente me-nos conocido actualmente, en Israel, que su hijo), acerca de una expresión
muy corriente en la literatura tradicional, la de 'hay vekayam, «vivo y persistente» 35. Subraya que
«vivo» y «persistente» no deben entenderse como dos sinónimos. Muy al contrario, «vivo» y
«persistente» designan dos categorías exactamente opuestas: «vivo» es la renovación, el cambio, la no-
persistencia, por tanto; «persistente» es la ausencia de renovación, la no-vida. Es la aspiración,
contradictoria, a ser a la vez vivo y persistente lo que atraviesa esta invocación tradicional por la que se
desea, de modo paradójico, reunir las dos categorías del cambio y de la estabilidad, pues precisa-mente
en su paradoja constituye la propia trama de la vida.
Todo ello puede encontrarse, como una clave, en ese texto del Deuteronomio con el que hemos
comenzado, el del discurso de Moisés. Encontraremos no sólo la aspiración a la unidad entre el cambio
y la estabilidad, sino también la visión de otra garantía de la unidad entre la ley moral y la ley natural,
que no sería ni Dios ni la razón humana. Esta garantía es señalada entre las dos formulaciones que
hemos analizado hace unos instantes. La primera arrojaba en un montón «la vida y el bien y la muerte y
el mal», mientras la

35Rabbi Abraham Itzhak Hacohen Kook, Olat Reiya, t. I, Jerusalén, Mossad Harav Kook, 3.0 ed., 1969, págs. 2.
44

segunda parecía más «clásica»: el bien o, mejor, la bendición, yendo con la vida, y el mal o, mejor, la
maldición, yendo con la muerte. Entre ambos, tras la primera formulación, ambigua, donde la vida y la
muerte están imbricadas con el bien y el mal, sin que se sepa exactamente cómo, el texto bíblico prosigue:
el amor de lo innombrable que te sirve de Dios, la observación de su ley, te harán vivir y multiplicar y
harán caer sobre ti la bendición; por el contrario, tu alejamiento y tu sometimiento a los dioses extranjeros
te llevarán a la pérdida y al acortamiento de tus días (es decir, a la no-persistencia). Se encuentran aquí los
dos aspectos: la vida desmultiplicadora y la prolongación de los días o persistencia, 'hay vekeyam.
Y sólo entonces lo expuesto puede transformarse en la alternativa vida o muerte, bendición o maldición,
con la exhortación final: «sé elegir una vida que te haga vivir a ti y tu simiente», es decir, que sea a la vez
persistencia de tu ser, de tu identidad individual —tú— y renovación —por tu simiente.
Para ello, siempre entre ambas exposiciones, se invoca una garantía o, mejor, un testimonio, el de los
cielos y la tierra: «He tomado por testimonio sobre vosotros (en vosotros) a los cielos y la tierra.» Ello nos
indica, tal vez, que la garantía de la unidad moral-naturaleza, que se propone aquí, no puede encontrarse
en Dios ni en la razón humana, sino en los cielos y la tierra, es decir, en la naturaleza que es persistencia y
vida, cuyas leyes no cambian y don-de, sin embargo, lo nuevo es posible. Contemplando y acudiendo a la
escuela de todo lo que existe, dejándose penetrar por las corrientes celestes y telúricas, sería como se
hallaría esta garantía en la propia continuidad y la renovación de la existencia.
Es preciso observar que esta actitud es, evidentemente, distinta de la actitud precedente, donde era la
razón humana creadora la que servía de garantía. En efecto, no se trata ahí sólo de razón, sino de la
percepción más general posible de la realidad, e incluso de las realidades —los cielos y la tierra —, de
las que, evidentemente, la razón es sólo un elemento.
Una vez más, sólo tras esta puesta a punto —en el sentido de puesta a punto de un aparato óptico que
focaliza la atención—, el texto puede entonces decirnos: conoce cuál es la apuesta cuando elijas la vida;
no es sólo el alejamiento de la muerte por rigidez, la del bien asfixiante, pues ello va a llevarte al mal
disolvente, a la muerte por exceso de vida, por inmediata consunción. Pero tampoco es el alejamiento de
esta muerte, la del mal y de sus flores, pues

301
ello te devolvería a la primera muerte, a la muerte por asfixia exte-. riorizante. Lo que elegirás es el
alejamiento de ambas, lo que implica, en cierto modo, también la búsqueda, la aceptación y la utilización
de ambas: elegirás la vida —doble muerte— para que vivas —doble vida— tú y tu simiente.
Tal vez un ejemplo de esta unión entre vida y muerte, única garantía de una vida individual renovada y
mantenida, podría hallarse en una institución muy poco occidental que puede designarse con una
expresión bárbara: un código sublimatorio no desexualizado. ¿Qué quiere decir eso?
La integración de lo sexual en el código social es la condición de esta unidad entre vida-renovación y
persistencia. En efecto, lo sexual es la vida, pero que se mata a sí misma al arder demasiado. (La
sexualidad reproductora de las bacterias es un ejemplo espectacular, pero lo es igualmente de la sexualidad
no reproductora: la bacteria que se divide desaparece en dos bacterias hijas, de modo que la reproducción
de la vida bacteriana es acompañada de la desaparición del individuo.)
El código social que limita esta vida y que la frena constituye, por ello, este «bien» del que hemos
hablado, que mantiene la estabilidad de la organización viva y social al precio de una limitación del propio
funcionamiento de lo vivo. Pero es muy evidente que eso sólo puede funcionar si esta limitación no
sobrepasa su objeto des-embocando, pura y simplemente, en matar —muerte por
rigidez esta vez—, para evitar la muerte por fragmentación, consunción y descomposición.
Por ello, es preciso que el código social mantenga un carácter vivo, sexual. Es preciso que el propio
código social sea tal que des-emboque en esta realidad, tal vez paradójica, de código sublimatorio no
desexualizado. Se observan tales códigos cada vez que el código social se ha construido,
conscientemente, sobre modelos sexuales; entonces se trata, efectivamente, de sublimación, porque
hay código y relaciones sociales idealizadas y espiritualizadas, pero esta sublimación no está
desexualizada porque el propio código es percibido con un modelo sexual.
De eso se trata en la mayoría de las organizaciones sociales llamadas primitivas, es decir, no
occidentales. Por lo que concierne a la sociedad hebraica, eso no aparece tal vez con mucha claridad
en la lectura inmediata del texto bíblico. En cambio, queda muy claro en la lectura cabalista, donde el
simbolismo utilizado es ampliamen-

302
te sexual, como lo expresa la frase que aparece a menudo en el fundamento de este simbolismo:
Mibessari a'hazé Eloha, «a partir de mi carne observaré la divinidad». Puede contestarse el carácter
central o periférico de las lecturas cabalistas, pero son las únicas que se preocupan de dar un
significado a los preceptos y prohibiciones del código bíblico y talmúdico.
Es notable que uno de los ejes fundadores de Occidente (del que Michel Serres 5 no ha querido hablar
porque lo consideraba demasiado conocido, a saber, el eje cristiano sostenido por Roma) se ha
caracterizado por el rechazo, simultáneo, de lo sexual y de la ley al margen de la legitimidad de su
salvación. Tal vez no sea un azar que, en este contexto, las únicas clases de sublimación que hayan
podido concebirse hayan sido, precisamente, sublimaciones desexualizadas.
Nos hemos entregado a un vaivén entre textos antiguos y reflexiones nuevas, pese a los distintos, e
incluso opuestos, contextos a los que pertenecen. Eso reclama, al menos, una observación.
Todo ocurre como si, pensando en los últimos desarrollos del pensamiento occidental, encontráramos
a veces una vieja sabiduría que hubiéramos perdido y que, hoy, reformularíamos de modo distinto.
Dicho de otro modo, podría creerse que bastaría con recurrir a la escuela de los grupos sociales que se
han especializado en la conservación de esta sabiduría; a saber: restos de vida primitiva y, en
particular, entre los judíos del mundo, de las escuelas tradicionales de los yechivot. Pues bien, no. Eso
sería un error trágico por exteriorizante, pues se trata, de hecho, de un fenómeno mucho más radical.
Esta antigua sabiduría, si ha existido, ha sido realmente olvida-da, incluso por quienes se consideran
sus guardianes. Naturalmente, la vivencia de esta sabiduría ha sido conservada en los ritos, lo que,
evidentemente, es muy importante, en forma de «montajes de comportamiento», que constituyen la
práctica social y religiosa de las sociedades ortodoxas. Pero su contenido conceptual, las ideas que
pueden expresarla y vehicularla, fueron olvidadas y deben des-cubrirse. No redescubrirse, sino
descubrirse a partir de textos y ritos que existen, es cierto, pero que necesitan ser leídos.
5
M. Serres, en Le Modele de l'Occident op. cit., págs. 9-16.

303
En esta lectura, el pensamiento occidental ofrece una herramienta irreemplazable. Su gran ventaja es
su apertura, es decir, su capacidad interminable para cuestionarse. Y puede que sea en las
Matemáticas, como sugiere Michel Serres, donde haya que buscar el origen de este lenguaje
interminable que nunca puede llegar a cerrarse. O tal vez haya que buscarlo en otra parte.
Por ello, necesitamos el pensamiento occidental, aunque se lo critique, precisamente, para poder
criticarlo. Y siempre ha sido así. La historia de los discípulos del Gaon de Vilna, llegados a Palestina en el
siglo XVIII para crear una yechiva científica, llamada Bat She-va, donde las «siete ciencias» tenían que
ser enseñadas, lo atestigua. Hoy, pese a todas las barreras, el pensamiento enseñado en la mayoría de los
yechivot no es un pensamiento original, puro en su autenticidad, como muchos quisieran creer. Es un
pensamiento filosófico religioso occidental, característico de finales del siglo XIX y comienzos del XX: la
longitud de las barbas e, incluso, la fidelidad a la cacherout, al shabbat y a los tephillin, no son una
garantía de acceso directo a esta antigua sabiduría.
Cierta forma de estudio permanente tradicional, encerrado y obsesivo, no es tampoco esa garantía. Como
decía uno de nuestros viejos maestros: «Estudian todo el día, no tienen tiempo de comprender.»
El camino necesario para descubrir esta sabiduría pasa, todavía, por la práctica de estas aproximaciones
científicas, filosóficas, artísticas, desarrolladas en Occidente.
Una vez más, la historia de la yechiva de Bat Sheva de los discípulos del Gaon de Vilna está ahí para
atestiguarlo, trágicamente además, cuando se sabe que fue saboteada por los grupos oscurantistas de la
época.
Con la ayuda de los instrumentos occidentales podemos descubrir un contenido no occidental, contenido
que, por otra parte, será asimilado, metabolizado, por el propio Occidente, sea cual sea su de-venir. Por
ello, con esta andadura, participamos simultáneamente en la investigación más puntera de Occidente y en
la búsqueda de nuestra particular identidad.

305
INDICE

Introducción, entre el cristal y el humo 7

PRIMERA PARTE.—Desórdenes y organización. Complejidad por el ruido


1. Dogmas y descubrimientos ocultos en la nueva biología 13
2. Órdenes y significación 15
3. Del ruido como principio de auto-organización 29
4. La organización de lo vivo y su representación 42
64
SEGUNDA PARTE.—El alma, el tiempo, el mundo 139
5. Conciencia y deseos en los sistemas auto-organizadores 141
6. Sobre el tiempo y la irreversibilidad 166
7. Variabilidad de las culturas y variabilidad genética 193

TERCERA PARTE.—Prójimos y próximos 199


8. Hipercomplejidad y ciencia del hombre 201
9. La teoría de las catástrofes 231
10. La Gnosis de Princeton 243

CUARTA PARTE.—Ocasiones, leyes, arbitrariedades, pertenencias 247


11. Israel en cuestión 249
12. Acerca de los «psicoanalistas judíos» 274
13. La vida y la muerte: biología o ética 286