Vous êtes sur la page 1sur 80

UNA NUEVA TEORÍA ACERCA DE LAS

‘DILUCIONES HOMEOPÁTICAS’.

Gabriel Hernán Gebauer


(2002)

INDICE

PRÓLOGO
INTRODUCCIÓN
LA VISIÓN DEL MÉDICO HOMEÓPATA
LA VISIÓN CRÍTICA A LA HOMEOPATÍA
LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS"
LA ENTROPÍA Y LA SEGUNDA LEY DE LA TERMODINÁMICA
LA NEGUENTROPÍA Y EL ORDEN
EL PAPEL DE LAS PROPENSIONES Y DE LAS RESONANCIAS
LAS RESONANCIAS Y LA IRREVERSIBILIDAD
EL ESTADO NEGUENTRÓPICO
LA SEGUNDA LEY COMO LEY PROBABILISTA Y SUS CONSECUENCIAS
LAS RESONANCIAS DE POINCARÉ
EL APORTE DE POINCARÉ
¿QUÉ ES LA RESONANCIA?
LAS RESONANCIAS Y LA DIFUSIÓN DEL CAOS
NUEVO EXAMEN A LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS"

1
EL FENÓMENO ESPECIAL DE LAS "DILUCIONES HOMEOPÁTICAS"
DOS PERSPECTIVAS DE ANÁLISIS
ANÁLISIS DESDE UNA PERSPECTIVA ESTRUCTURAL
EL CONCEPTO DE ORDEN Y EL CONCEPTO DE INFORMACIÓN
EL CONCEPTO SINTÁCTICO O FORMAL DE CANTIDAD DE INFORMACIÓN
LA COMPLEJIDAD COMO CONCEPTO OBJETIVO
LA INFORMACIÓN COMO CONCEPTO OBJETIVO
FORMA Y FUNCIÓN DE LA INFORMACIÓN
LA RELACIÓN ENTRE INFORMACIÓN Y ENERGÍA
LAS MICROESTRUCTURAS ACUOSAS Y LA CANTIDAD DE INFORMACIÓN
LA RESONANCIA COMO MEDIO DE TRANSMISIÓN DE LA INFORMACIÓN
LA ESTRUCTURA DEL AGUA
LAS DILUCIONES Y LAS "POTENCIAS"
RECAPITULACIÓN FINAL
BIBLIOGRAFÍA
POST SCRIPTUM

2
PRÓLOGO
Ilya Prigogine, premio Nobel de Química en 1977, es autor de una generalización de la Dinámica clásica –la que
se ocupa principalmente de sistemas dinámicos estables- y por la cual ésta se hace extensiva a los sistemas
dinámicos inestables. Pero resulta que al considerar la inestabilidad se pone en cuestión al determinismo. La
importancia de ésto está en que el desideratum de las Ciencias naturales siempre fué alcanzar la certidumbre, la
cual sólo puede darla una descripción determinista. En cambio, con el estudio de los sistemas dinámicos
inestables, que son la mayoría de los sistemas físicamente interesantes, surge la incertidumbre. Hay una serie de
conceptos entrelazados con el indeterminismo y la incertidumbre: la inestabilidad, que lleva al concepto de caos,
las probabilidades objetivas y la complejidad, así como la irreversibilidad y la "flecha del tiempo".
En diversas ocasiones, Prigogine ha insistido en la sucesión:
Inestabilidad ® probabilidad ® irreversibilidad.
(Compárese con la trilogía: Estabilidad ® trayectoria determinista ® reversibilidad, propia de la Dinámica clásica,
y se podrá entender más claramente la revolución de conceptos científicos implicados por los sistemas asociados
al caos.)
La importancia que estos conceptos adquieren para nuestro ensayo: Una nueva teoría acerca de las "diluciones
homeopáticas"; consiste en lo siguiente: las "diluciones homeopáticas" no son sistemas dinámicos estables. De
ahí nace, según nuestro criterio, la cisura que existe entre los hechos que la experiencia homeopática ofrece y las
diversas teorías del corpus científico aceptado, y con ello la dificultad para entender científicamente esos hechos
homeopáticos. Con la extensión que Prigogine ha hecho de la Dinámica, surge la posibilidad de preguntarse:
¿serán las "diluciones homeopáticas" sistemas dinámicos inestables? Y si lo son, ¿explicará esta inestabilidad la
naturaleza de aquello que se produce en el proceso de dilución y, además, cómo se produce?
La hipótesis desarrollada en las páginas siguientes se funda, precisamente, en considerar a las "diluciones
homeopáticas" como sistemas dinámicos inestables: sistemas en los cuales cualquier pequeña perturbación se
amplifica, dando lugar así a efectos que la Dinámica clásica jamás podría predecir –y que, por tanto, siempre
ignorará-; pero con la peculiaridad, comparados con los sistemas dinámicos abiertos examinados por Prigogine,
de que este particular sistema cerrado desemboca finalmente y de forma espontánea en un estado estable propio
de un sistema aislado.
La inestabilidad implica a la probabilidad -como lo muestra la sucesión anteriormente señalada-, pues en lugar de
trayectorias de partículas individuales, tendremos que considerar probabilidades (distribuciones de probabilidad).
Luego, el concepto de probabilidad que se use no puede ser subjetivo, o sea, no puede nacer simplemente de
nuestra ignorancia acerca de las condiciones iniciales del sistema que sea el caso, como acontece con la Dinámica
clásica –y, por tanto, con sistemas estables-. El concepto de probabilidad tiene que ser necesariamente objetivo si
es la explicación más importante del comportamiento total del sistema. Y a ese respecto, la concepción de
probabilidad como "propensión" de Karl Popper resulta ser, para nosotros, de la mayor importancia. Porque, por
una parte, se trata de un concepto objetivo de probabilidad, y, por otra parte, porque al concepto de Información
-que puede ser entendido como una "posibilidad improbable"- se le puede considerar concretamente como una
propensión.
La teoría de la información de Shannon, y sus extensiones posteriores, utilizan un concepto de Información de
naturaleza subjetiva –y, todavía más, de naturaleza antropomórfica-. Lo cual no es sorprendente, ya que es una
teoría que nació para resolver problemas relativos a la transmisión de mensajes en vías de comunicación ; y la
comunicación es un asunto netamente humano. Es cierto que los animales, e incluso las plantas, se comunican ;
pero no poseen una ciencia de la comunicación.
3
Ahora bien, si es verdad que la entropía mide exclusivamente nuestra falta de Información, entonces ésta siempre
estará atada al observador humano. Pero, si la neguentropía –la entropía con signo negativo, que es el equivalente
de la Información- representa un estado improbable del sistema en consideración, entonces cualquier posibilidad
que sea improbable será una Información, aun en ausencia del observador humano.
Sin embargo, para que ése sea el caso, es imprescindible que estemos hablando de una teoría objetiva de las
probabilidades. Si las posibilidades son, como lo sostiene Popper, existentes reales (propensiones o
disposiciones), entonces una posibilidad improbable cualquiera será, necesariamente, una Información
objetivamente existente.
La sucesión planteada por Prigogine termina en el concepto de irreversibilidad. La irreversibilidad nos conduce
a considerar la 2ª Ley de la Termodinámica –"la entropía siempre aumenta"-, y con ella el concepto denominado
"flecha del tiempo". En la preparación de las "diluciones homeopáticas", observamos que esta dirección hacia el
futuro no es equivalente a la dirección hacia el pasado, es decir, nos muestra que el resultado final es imposible
de revertir ya que el sistema alcanzará en último término el estado de equilibrio ; así podemos ver en acción a la
irreversibilidad. Pero, y aquí es donde está lo verdaderamente importante, será un estado cualitativamente distinto
del previsible para un sistema estable –donde el "fenómeno homeopático" sería imposible-.
En el presente ensayo se exponen dos versiones de una misma teoría –que se podrían considerar metafóricamente
como una simetría de "bifurcaciones"-, relativas al "problema de las ‘diluciones homeopáticas’". Una versión
teórica "fuerte", la que lleva la hipótesis de la "dilución homeopática" considerada como un sistema dinámico
inestable, hasta sus últimas consecuencias; y en la cual se propone un concepto semántico de Información qua
energía no-degradable. Y una versión teórica "débil", que no involucra la aceptación de este mismo concepto,
ciertamente polémico. Sin embargo, es nuestra opinión que esta versión de la teoría podría presentar dificultades
que sólo la versión teórica "fuerte" sería capaz de superar.
Es conveniente agregar, que cada versión de la teoría es solidaria de un tipo de análisis que le es propio: La versión
teórica "débil" requiere de un análisis meramente estadístico; la versión teórica "fuerte", en cambio, necesita de
un análisis desde la perspectiva de la compleja estructura molecular del solvente (complejidad) como vector de
la Información.

Nuestra principal razón para preferir la versión teórica más "fuerte", es que el concepto de Información –en el
sentido ya precisado de Información objetiva-, resulta fundamental en una teoría más amplia que sea capaz de
abarcar todos los aspectos difíciles de la fundamentación homeopática. Por ejemplo, el mismo concepto de
Información debería ser capaz tanto de explicar qué es aquello que persiste a la dilución llevada más allá del
Número de Avogadro, como de qué manera funciona la llamada "ley de los semejantes". Sin duda que resulta
mucho menos convincente el tener dos teorías diferentes
–quizás, incluso incompatibles- para responder ambas interrogantes.
Al terminar este prólogo, recordemos lo que el meteorólogo Edward Lorenz decía:
"el batir de las alas de una mariposa tendrá el efecto después de algún tiempo de cambiar completamente el estado
de la atmósfera terrestre" –el título de su presentación en una sesión de 1972, de la Asocación Americana para el
Avance de la Ciencia, era: "Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas
?"-; y mediante esta impresionante imagen se estaba refiriendo a la teoría de los sistemas dinámicos asociados al
caos.

4
Cuando Hahnemann tomó una pequeña cantidad de cierta sustancia y la diluyó a la décima parte -sacudiéndola
enérgicamente-, y repitió la dilución con la sucusión una y otra vez por treinta y más veces sucesivamente, obtuvo
un medicamento homeopático.
Este medicamento homeopático poseía propiedades nuevas extraordinarias: era capaz de curar muchos tipos de
enfermedades. ¿No sugiere también esta nueva imagen a la teoría asociada al caos?
El desarrollo, en la preparación de las "diluciones homeopáticas", de ciertas propiedades imprevisibles, implica
la presencia de fenómenos difíciles de explicar, pero que la metáfora del batir de alas de una mariposa sugiere
fuertemente. Una cantidad tan feble de materia, ¿cómo puede actuar siquiera, ya que no digamos curar? Si,
conceptualmente hablando, el batir de alas de una mariposa –vale decir, una causa tan débil- puede tener efectos
mensurables, ¿por qué no podría tenerlo también un soluto extremadamente diluído sobre el solvente? En las
páginas siguientes, procuraremos mostrar que efectivamente es así.
La teoría de Prigogine nos ha aportado a este respecto de poderosas herramientas intelectuales ; sin embargo,
hemos tomado de él sólo lo que nos ha servido, habiendo desarrollado nuevos conceptos, a la vez que integrado
otros de diverso origen, para completar una teoría que pueda ser posible de considerar como medianamente
satisfactoria. Ése es, al menos, nuestro deseo.

5
INTRODUCCION
El problema de las "diluciones homeopáticas" –es decir, el problema de si en diluciones llevadas más allá del
límite posible de conservación de átomos, iones o moléculas del soluto sometido a dilución, persistirían algunas
de las propiedades de éste de una manera efectiva-, puede parecer a los ojos de sus críticos como un problema
exótico, incluso extravagante. Sin embargo, no es más extraño que cualesquiera de los problemas que han dado
origen a investigaciones serias, tanto en el pasado remoto como en el reciente, y que
-eventualmente- han llevado a grandes descubrimientos.
El llamado "problema del cuerpo negro", que en manos de Max Plank dió inicio a la Mecánica cuántica -tal vez
la revolución más importante en la historia de la Física (o de la Ciencia en general)-, o las elucubraciones de
Albert Einstein acerca de la velocidad de la luz y su relación con los conceptos de espacio y de tiempo, que
cristalizaron en su teoría de la Relatividad restringida ; son ejemplos, por lo extraño e inesperado de sus orígenes,
de que lo que convierte en científico un cierto problema es, más que el problema mismo, el hecho de que haya
científicos interesados en resolverlo. Los problemas no pueden dividirse en problemas científicos y no científicos
sino que en problemas que interesan a la comunidad científica y problemas que no lo hacen.
De acuerdo con la acertada caracterización que John Ziman hace del conocimiento científico, éste es
fundamentalmente conocimiento público, o sea, es el producto de una empresa humana colectiva cuyo fin "es
lograr un consenso de opinión racional sobre el ámbito más amplio posible". (John Ziman, 1981, p.14) Por tanto,
para convertir el problema de las "diluciones homeopáticas" en un asunto de investigación genuinamente
científico, se debe interesar a la comunidad de científicos proponiéndoles una explicación que pueda ser sometida
a contrastación experimental. Éste es el propósito que nos anima en el presente trabajo de investigación.
Ahora bien, en el desarrollo de esta tarea nos encontramos con dos visiones contrapuestas, que empantanan de
alguna manera este proceso. Por una parte, la visión de los propios médicos que practican la Homeopatía con
fines terapéuticos ; y, por otra parte, la visión de los críticos que -al carecer de la experiencia de los anteriores en
la efectividad médica de las "diluciones homeopáticas"- son escépticos a su respecto. Escepticismo razonable
pero no siempre bien fundado.

6
LA VISIÓN DEL MÉDICO HOMEÓPATA.
Al médico homeópata le resulta difícil aceptar que su rica experiencia confirmatoria de la efectividad
terapéutica de las "diluciones homeopáticas", no baste para establecer un hecho científico: el hecho de que las
"diluciones homeopáticas" actúen más allá de toda duda razonable.
Así, frente al argumento que pretende explicar su efecto mediante la sugestión –el llamado "efecto placebo"-,
le contrapone otro argumento decisivo: la efectividad de las "diluciones homeopáticas" en animales, niños
pequeños (incluído lactantes) y, aún, en plantas.
Otro argumento que pretende ser refutador es el de las curaciones espontáneas. Según este argumento, la
curación se produce de todas maneras –aun en ausencia de todo tratamiento- en un cierto porcentaje de casos.
Sin embargo, este argumento sólo podría ser sostenido por alguien que supusiera –equivocadamente- que los
casos de curación mediante la Homeopatía son muy raros. Efectivamente, si se tratara de algunas cuantas escasas
curaciones, se podrían atribuir a curaciones espontáneas que simplemente por azar sería dable esperar ; pero la
realidad es que los casos de curación homeopática son estadísticamente muy importantes, lejos de lo que por mero
azar se podría predecir. De esa forma este argumento también puede ser rechazado.
Entonces el médico homeópata cree haber demostrado definitivamente la realidad de las "diluciones
homeopáticas". Es necesario decir que ésto constituye un error. La praxis médica es una parte de la Tecnología
(ya que es una técnica) y no de la Ciencia en sentido estricto, por lo cual los resultados terapéuticos no pueden
tomarse como una prueba o demostración de alguna teoría, pretendiendo así establecer un hecho científico. Es la
Tecnología la que está fundada en la Ciencia y no al revés, de tal manera que mientras "la justificación del
conocimiento técnico se basa en la exitosa manipulación de los fenómenos,... ésta no juega el mismo papel en la
justificación del conocimiento científico".(León Olivé, 1991, pp.149-150.)
En otras palabras, la gran cantidad de resultados positivos en el uso de la terapéutica homeopática hablan a
favor de la existencia de un problema -precisamente el que hemos llamado "problema de las ‘diluciones
homeopáticas’"-, el cual necesita concretarse en una hipótesis para poder entrar en el terreno franco de la
investigación científica. Aclaremos, sin embargo, que esa hipótesis debe ir más allá de la eficacia terapéutica –
asunto que incumbe a la tecnología del acto médico-; es decir, que el problema sería el mismo aun cuando las
"diluciones homeopáticas" se hubieran revelado como pobres medicamentos de un bajo porcentaje de curación
(lo cual, ciertamente, no es el caso). Pues si el medicamento homeopático es de verdad capaz de curar, bastaría
un solo caso si éste pudiera ser comprobado; ya que para explicar ese único caso, deberíamos aceptar que existe
"algo" capaz de curar en esas diluciones llevadas más allá del límite de dilución del soluto (Número de Avogadro).
Es de la posible actividad en general de las "diluciones homeopáticas", entonces, de lo que estamos hablando
y no de la actividad terapéutica en particular. El problema no consiste en buscar una explicación a una supuesta
acción terapéutica de las "diluciones homeopáticas" –ése es un problema diferente: el problema de la validez
científica de la "ley de los semejantes" (Véase el ensayo ¿Es la llamada "ley de los semejantes" una ley
científica?, del mismo autor del presente trabajo.)-, sino que a una acción que pueda demostrarse como realmente
presente mediante algún reactivo de cierto tipo (que alguna implicación de la misma hipótesis deberá precisar).
Éste es el primer paso. Posteriormente, es la prosecución de la investigación científica la responsable de encontrar
una respuesta racionalmente satisfactoria.

7
LA VISIÓN CRÍTICA A LA HOMEOPATÍA.
Una crítica frecuente de aquellos que se acercan a la Homeopatía, no como a un problema por resolver sino
que con un prejuicio condenatorio, es la siguiente:
"¿Cómo explican los homeópatas esta supuesta potencia de las dosis infinitesimales, incluso cuando la
dilución elimina todas las moléculas de una sustancia? Hablan de misteriosas vibraciones, campos de fuerza o
radiaciones totalmente desconocidas por la ciencia."(Martin Gardner, 1993, p.37.)
La base del argumento de Martin Gardner, parece ser el siguiente: "Si Ud. –en este caso, el médico
homeópata- no puede explicarme cómo es posible que las ‘diluciones homeopáticas’ puedan tener algún efecto,
cierta actividad medible de algún tipo, cierta ‘potencia’ –como suele llamarse-, entonces tal efecto o potencia no
existe".
Este argumento confunde dos conceptos que, aunque puedan estar relacionados, son diferentes. El concepto
de explicación científica con el concepto de comprobabilidad fáctica. Es cierto que la existencia de una
explicación en forma de teoría es el camino para propiciar la comprobación objetiva de los hechos, pero se trata
de dos cosas distintas. En otras palabras, no se pueden negar los hechos mientras no se hayan dado primeramente
los pasos necesarios para intentar establecer esos hechos. Por supuesto, tampoco se pueden aseverar. Es decir,
toda afirmación a priori, tanto la de los defensores como de los detractores de la Homeopatía, constituye una
equivocación. Sólo cabe una actitud científica: posponer todo juicio definitivo hasta tener pruebas suficientes.
En lo que sigue de este trabajo, procuraremos desarrollar una teoría acerca de los posibles mecanismos reales
subyacentes que expliquen el fenómeno de las "diluciones homeopáticas", con el objeto de que sea criticada –
para su perfeccionamiento-; y permita asimismo el establecimiento de un modelo experimental, única forma
estrictamente científica de responder al problema que éstas plantean. Tal vez este esfuerzo remueva el
escepticismo de quienes, como Martin Gadner, requieren de argumentos racionales antes de decidirse a examinar
las pruebas empíricas que la Homeopatía dispone.
Dos preguntas han guiado nuestra investigación: ¿qué es aquello que persiste a la dilución más extrema y
cómo –de qué manera- se produce en el proceso de dilución?

8
LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS"
Es en el proceso de preparación de las "diluciones homeopáticas", donde debiéramos encontrar las pistas que
nos conduzcan a descubrir cuál es la explicación del efecto –si éste verdaderamente existe- de estas diluciones.
Si tomamos una parte de cierta sustancia –imaginemos que se trata, por ejemplo, de cloruro de sodio o sal
común- y nueve partes de solvente, tendremos una primera dilución decimal (o D1). El solvente usado es una
mezcla de alcohol y de agua, pero –para nuestros fines- nos limitaremos al estudio del agua, ya que el alcohol es
usado más bien para evitar cualquier tipo de contaminación biológica (por ejemplo, por levaduras).
Ahora bien, el proceso de dilución se aplica sucesivamente sobre la dilución anterior –sobre D1, luego sobre D2,
luego D3, D4, etc.-, vale decir, por cada una parte de la dilución precedente, se agregan nueve partes de solvente,
hasta alcanzar diluciones sobre el límite físico impuesto por el Número de Avogadro. Este número adimensional
expresa, como se recordará, el número de moléculas presentes en un mol (la masa molecular expresada en gramos)
de cualquier sustancia y que, bajo condiciones normales, es igual para todas: aproximadamente 6 x 1023 moléculas.
Por una simple operación aritmética, se puede ver que cualquier dilución decimal superior a la número 23 (por
sobre D23), o sea, cuando el proceso de dilución se ha realizado 23 veces sucesivas, carece de toda posible
molécula de soluto (la sustancia en dilución).
Aquí es precisamente donde comienza el misterio, porque ya no es posible explicar la supuesta acción de la
"dilución homeopática" sobre tejidos humanos o animales (incluso vegetales), a base de las leyes de la
Farmacología –y, en último término, mediante las leyes de la Química-. Si la acción no es responsabilidad de las
moléculas (inexistentes) del soluto –porque las únicas moléculas que persisten son las del agua-, es a éstas donde
debemos dirigir nuestra mirada en busca de una (nueva) explicación.
Proponemos llamar a toda dilución por sobre el límite de persistencia del soluto, establecido por el Número de
Avogadro, como "solución cero". Ésta es meramente una convención terminológica, pero nos parece útil para el
fin de tener presente con mucha claridad que es de las moléculas de solvente –y, más precisamente, de las
moléculas de agua- de lo que estamos hablando.
Un reparo podría ser que, en lugar de "solución cero", podríamos decir simplemente "agua", pero ésto
equivaldría a dar por solucionado el problema antes de haberlo investigado. Pues si se trata de moléculas de agua,
no es ciertamente de moléculas de agua ordinaria de lo que hablamos. Ahora, responder en qué consiste lo
especial de estas moléculas de agua que llamamos "solución cero", es el asunto de todo este trabajo en busca de
una explicación.
Hemos tomado como ejemplo de preparación de una solución homeopática, al cloruro de sodio o sal común,
que es una sustancia fácilmente soluble en agua. ¿Qué ocurre con las sustancias que no son solubles en agua,
como es el caso de tantas sustancias orgánicas o el caso de los metales?
El mismo Samuel Hahnemann resolvió este problema: En un mortero, sometió a trituración la sustancia
insoluble tomando una parte por nueve partes de lactosa (azúcar de leche), y en trituraciones sucesivas –idénticas
a las diluciones ya descritas usando agua- prosiguió hasta alcanzar su estado de solubilidad. En ese momento –
que para los metales es, en la mayoría de los casos, alrededor de la 8a trituración decimal- se traspasa de la
trituración a la solución acuosa. Con ésto se demuestra que, en estricto rigor, no existe sustancia alguna que sea
absolutamente insoluble en agua. Se ha demostrado que es así aun con el cuarzo de la arena de playa: se la tritura
varias veces sucesivamente y luego se torna soluble en agua.
Todo lo anterior nos lleva a concluir que la solubilidad juega un papel muy importante en esta investigación
en la que estamos empeñados. En efecto, la solución implica solubilidad del soluto en el solvente o, en otros
9
términos, involucra una interacción entre las moléculas del soluto (en las primeras diluciones) y las moléculas
del solvente (el agua). Y cuando desaparece el soluto (solución cero), algunas de las moléculas de agua deben
tomar su lugar, de manera de poder interactuar con las nuevas moléculas de agua agregadas por la dilución. Si
así no fuera, el proceso se interrumpiría, ya que a esta altura no quedan moléculas de soluto –que, de alguna
manera, son responsables del cambio sufrido por el agua-.
Las moléculas de agua, entonces, cumplirían una doble función. Por una parte, deberían ser susceptibles de
sufrir la influencia de las moléculas de soluto, modificándose de una manera perdurable, aunque no
necesariamente permanente; y, por otra parte, deberían poseer además la aptitud de reemplazar a éstas, adoptando
su papel, y, de esa manera, ser capaces de influenciar a nuevas moléculas de agua.
¿Y cuál podría ser el mecanismo mediante el cual el agua cumpliría esta importante doble función? En una
primera aproximación –ya encontraremos una respuesta más completa y más detallada en lo que sigue-,
conjeturamos que son principalmente los puentes de Hidrógeno del agua, los implicados en estas nuevas
funciones. Dado que la carga eléctrica de la unión del Oxígeno con cada Hidrógeno, está más repartida en la
vecindad del Oxígeno, cualquiera de los dos Hidrógenos se puede unir fácilmente a los electrones libres del átomo
de Oxígeno de otra molécula de agua. Se forma así una unión que, aunque es más débil que las uniones químicas
ordinarias, es por eso mismo de una mucho mayor plasticidad; y que se denomina "puente de Hidrógeno".(Lachek,
Diner y Fargue, 1989, p.133.)
El resultado es la formación de polímeros de agua, es decir, de largas cadenas constituídas por moléculas de
agua. De hecho, éstas se están formando todo el tiempo en el agua común en equilibrio térmico con su ambiente.
Sin embargo, el proceso de unión de varias moléculas de agua para constituir una sola gran estructura molecular
(un polímero) en presencia de un soluto diluído es, en nuestro criterio, el suceso clave para la explicación
buscada. ¿Por qué?
Porque la complejidad estructural así adquirida por el solvente –el agua- debe estar relacionada, de alguna
forma, con el soluto. Posteriormente el soluto desaparece, pero no sin antes dejar en el solvente algún cambio
perdurable (asociado con el aumento de la complejidad). Ésto es a lo que –en nuestra opinión, muy
desafortunadamente- se ha llamado "memoria del agua". (Por ejemplo, en Jacques Benveniste, 1991, p.816.)
Lo desafortunado está en intentar explicar lo oscuro por lo oscuro: si se tuviera una teoría de la memoria muy
desarrollada y, además, de carácter general, entonces sería útil, pero lamentablemente ése no es el caso. Se
entiende, así, el sarcasmo de Martin Gardner:
"En otras palabras, el agua puede recordar las propiedades de una sustancia que ha desaparecido de
ella".(Martin Gardner, 1993, p.37.) Evidentemente, el agua no puede "recordar", ésa es una función del cerebro,
pero tal vez el mismo mecanismo físico que está en la base de este fenómeno del agua que estamos analizando,
sea útil mañana para explicar el mecanismo de la memoria en su recto sentido (o sea, como una propiedad del
cerebro). En todo caso, la memoria sería un rasgo del proceso, pero de ninguna manera su explicación ; por el
contrario, lejos de explicar algo, necesita a su vez ser explicada.
Volviendo de esta digresión al tema del aumento de la complejidad estructural del solvente, digamos que el
concepto de complejidad implica al concepto de orden.
Sin embargo, no es posible seguir nuestro análisis sin aclarar primero algunos conceptos previos –como el
concepto de entropía y su afín, el concepto de neguentropía- que nos proporciona la Termodinámica. Más
adelante, hablaremos de la equivalencia entre la neguentropía –que dice relación con el orden- y la cantidad de
información. Posteriormente, el concepto de cantidad de información –una manera de medir la complejidad- nos
llevará a dilucidar el concepto mismo de Información*, fundamento último de toda nuestra teoría.
10
*(Escribimos "Información" con I mayúscula para distinguirla de la llamada "cantidad de información", en la cual
"información" está con minúscula. La diferencia tipográfica es un trasunto de su diferencia conceptual, como lo
veremos en el texto.)
LA ENTROPÍA Y LA SEGUNDA LEY DE LA TERMODINÁMICA
En Termodinámica se reconoce a una 1ª Ley de la Termodinámica, conocida como "Ley de conservación de
la energía" y que establece que hay cierta magnitud llamada "energía", la cual no varía con los múltiples cambios
que ocurren en la naturaleza. Y se reconoce además a una 2ª Ley de la Termodinámica, la cual establece, por su
parte, que existe otra magnitud llamada "entropía", que permanece constante en algunas transformaciones y que
aumenta en otras, sin disminuir jamás. Aquellas trasformaciones en las cuales la entropía aumenta, se denominan
"procesos irreversibles".
La 2ª Ley de la Termodinámica se aplica solamente a sistemas aislados, es decir, a sistemas en los cuales las
transformaciones implicadas quedan todas incluídas en ellos (como es el caso de la "dilución homeopática"). En
sistemas abiertos, en cambio, así como la energía puede pasar de un sistema a otro –y entonces mientras uno la
pierde, el otro la gana, pero el balance total es igual a cero-, lo mismo acontece con la entropía: si un sistema gana
en entropía, su alrededor (que es otro sistema) la pierde, pero el balance total es nulo. Vale decir, al sistema más
su alrededor se le considera como un sistema aislado –así se ha considerado al universo-. Éste es el caso, sin
embargo, de los procesos reversibles, los cuales son procesos ideales (ya que no existen en la naturaleza).
En los sistemas reales, y como tales escenarios de procesos irreversibles, el balance final de entropía es siempre
positivo. Además, es muy importante señalar que la entropía aumenta en un sistema aislado hasta alcanzar
un máximo, que es su estado de equilibrio (porque espontáneamente permanece en él).
Desde fines del siglo XIX –allá por el año de 1872-, se empieza a reconocer con Ludwig Boltzmann que esta
segunda Ley es una ley de naturaleza probabilística (o estadística). Esto quiere decir que no es imposible que en
un sistema aislado pueda alguna vez disminuir su entropía, en lugar de aumentar. Esta aparente contradicción con
lo estipulado por la segunda Ley, no es tal, pues la predicción de la ley está garantizada, en los hechos, por aquella
otra ley que es principio fundamental de toda estadística: la llamada "ley de los grandes números". O sea, las
excepciones se pierden en el conjunto inmensamente superior -en extensión- de los resultados esperados. Sin
embargo, es posible la existencia de excepciones; todavía más, podríamos decir que la existencia de excepciones
es inevitable dada su naturaleza probabilística.
Boltzmann –uno de los creadores, junto con J.W. Gibbs, de la Mecánica estadística- utilizó la teoría cinética
de los gases, de acuerdo con la cual la cantidad de calor de un gas depende del movimiento irregular de sus
moléculas, para mostrar que las colisiones entre moléculas conducen –según leyes estadísticas- a una igualación
media de las diferencias de velocidad que ellas presentan.
Así, las moléculas más rápidas que el promedio, pierden velocidad con cada choque; mientras las moléculas
más lentas que el promedio, ganan velocidad al chocar con las moléculas más rápidas. Es precisamente esta
igualación (o sea, desaparición de las diferencias) lo que constituye el estado de equilibrio –o estado de máxima
entropía-.
En palabras de Prigogine: "Dicho de otro modo, las colisiones entre las partículas aparecen como el
mecanismo microscópico que conduce el sistema al equilibrio".(Ilya Prigogine, 1996, p.27.)
Vale decir, el incremento de entropía durante los procesos físicos implica que los conjuntos bien ordenados de
moléculas se transforman en conjuntos mal ordenados. El "orden" es aquí sinónimo de "diferencia" o de
"heterogeneidad", lo cual no coincide necesariamente con el concepto de sentido común -o habitual de nuestra

11
vida diaria- de orden. Para dar un ejemplo: si todas las moléculas rápidas –o sea, más rápidas que el promedio-
se concentraran en la mitad izquierda del recipiente que las contiene, y las moléculas lentas –o sea, más lentas
que el promedio- lo hicieran en su mitad derecha, tendríamos el estado de máximo orden (o el estado más
alejado del estado de equilibrio, que es el estado de máximo desorden o entropía). Al sentido común, tal vez, le
parecería más ordenado un estado homogéneo, es decir, un estado en que las moléculas están distribuídas en
forma uniforme –donde en cualquier subespacio del sistema encontraríamos moléculas con una velocidad
fluctuando muy poco alrededor del promedio-. Ésta es, sin embargo, la descripción del estado de equilibrio.
De acuerdo con Boltzmann, las colisiones al azar entre las moléculas del gas (el llamado "caos molecular",
que no es lo mismo que "el caos dinámico", del cual hablaremos después) son las responsables de esta igualación
de las diferentes velocidades individuales, hasta alcanzar el estado de equilibrio termodinámico –en el cual el
espectro de velocidades de las moléculas se distribuyen en una curva normal alrededor de la velocidad promedio
(distribución de Maxwell)-. Destaquemos que el estado de equilibrio termodinámico es considerado por la
Mecánica estadística como el estado de máxima probabilidad:
"Para un conjunto macroscópico aislado, el mismo estado neto de equilibrio se predetermina mediante la
Termodinámica como aquel en que la entropía llega a un valormáximo, y por medio de la Mecánica estadística
como aquel que corresponde a una configuración predominante asociada con el número máximo de
microestados". (L.K. Nash, 1974, p.53.)
Ahora, ¿por qué se califica al estado de equilibrio como el equivalente al estado de máxima probabilidad de
la Mecánica estadística? Porque las distribuciones en el espacio de velocidades cercanas o levemente diferentes
a la velocidad promedio -vale decir, la configuración predominante- están en
un número inmensamente superior a aquellas velocidades alejadas del promedio (aquellas moléculas o
demasiado rápidas o demasiado lentas). La configuración predominante, entonces, constituye el estado más
probabledel sistema. Y el estado de máxima entropía corresponde así a una homogeneidad estadística. A pesar
de ésto, no es imposible que el choque de las moléculas pueda producir resultados que van en contra de esta
igualación, lo cual no invalida sin embargo a esta ley probabilística que es la 2ª Ley de la Termodinámica.
Nada prohíbe que del choque de una molécula rápida con otra molécula lenta, por ejemplo, la molécula rápida
se haga más rápida y la molécula lenta se haga más lenta. Este resultado va en contra de la tendencia igualitaria
–o sea, la tendencia hacia el incremento de la entropía-, pero se puede producir perfectamente; sólo que por ser
su ocurrencia estadísticamente no significativa, se pierde en el resultado de conjunto que siempre representa un
incremento de entropía (o desorden).
Por otra parte, se habla de "estado de equilibrio" porque una vez que la distribución más probable ha sido
alcanzada, permanece estacionaria. Pese a las colisiones posteriores que pueden hacer variar las velocidades
individuales de las moléculas, la distribución de conjunto permanece invariable.
Antes de hablar de la neguentropía, debemos aclarar un poco más los conceptos de orden y desorden. Digamos
previamente que la entropía es una función general que caracteriza el estado de un sistema -de un gas, por
ejemplo- como un todo.
Si distinguimos entre microestado y macroestado, el primero se refiere a las ordenaciones moleculares (o
configuraciones moleculares) y el segundo a la clase de ordenaciones (o microestados) que
son macroscópicamente indistinguibles entre sí. (Hans Reichenbach, 1959, pp.106-108.)
Y agreguemos que las ordenaciones macroscópicamente indistiguibles poseen el mismo grado de orden. Por
tanto, al macroestado correspondiente a un cierto microestado (a una cierta ordenación) se le puede
denominar clase del mismo orden.
12
De manera que el grado de desorden puede medirse por el número de ordenaciones que componen una clase
del mismo orden, es decir, por su extensión, determinando así la configuración predominante.
Recíprocamente, un alto grado de orden estará constituído por una clase del mismo orden que sea pequeña en
extensión.
Ésta es la concepción en la cual se basa la interpretación de la entropía como medida del desorden, o como
medida inversa del orden, y por la cual la entropía –y con ella la probabilidad- aumenta en función
del número de ordenaciones (o microestados) pertenecientes a una clase del mismo orden. Ahora, si en lugar de
usar el concepto de entropía como medida inversa del orden de un sistema, utilizamos el concepto de
neguentropía, será posible entonces hablar directamente del grado de orden del sistema considerado.

13
LA NEGUENTROPÍA Y EL ORDEN
La pregunta que surge en este momento es: ¿debemos considerar a la neguentropía (o entropía con signo
negativo) simplemente como una forma de referirse a la entropía y con lo cual queremos dar a entender que la
entropía del sistema considerado disminuyó en lugar de aumentar? Si así fuera, entonces no tendría más
importancia que su mero valor terminológico.
O bien, ¿debemos considerar a la neguentropía como un concepto propio, relacionado pero distinguible del
concepto de entropía? La mejor manera de investigar el concepto de neguentropía es oponiéndolo al concepto de
entropía, o sea, considerándolo como equivalente a la anti-entropía.
Luego, si el estado de equilibrio es aquel estado de un sistema en el cual la entropía es máxima, pero es
igualmente –como lo señala la Mecánica estadística- el estado más probable, entonces cualquier estado
improbable puede ser considerado como un estado neguentrópico.
Antes de seguir adelante, digamos que aceptamos plenamente el punto de vista que considera a la Mecánica
estadística como una explicación de la Termodinámica (en el sentido de ser lógicamente anterior). Y ésto es muy
importante, pues, como afirma Nash: "La Termodinámica no proporciona ninguna información acerca
del porqué los procesos espontáneos se realizan con un aumento de la entropía".(L.K. Nash, 1974, p.53.)
Las consecuencias de esta posición probabilista de la Mecánica estadística con respecto a la segunda Ley, ya
la hemos señalado; lo haremos ahora explícitamente: La segunda Ley afirma, simplemente, el paso del sistema a
configuraciones moleculares cada vez más probables a medida que pase el tiempo -aunque no en un tiempo
determinado-. De aquí se desprende, entonces, que los sucesos improbables quedan descartados. Pero mientras
que la Termodinámica clásica lo hacía en términos absolutos, la Mecánica estadística deja abierta su posibilidad.
Así, en palabras de Margenau: "La validez de la segunda Ley se convierte entonces solamente en una cuestión
de una elevada probabilidad: el recipiente de agua sobre el fuego tiene una probabilidad extremadamente
pequeña, pero finita, de helarse..." (Henry Margenau, 1970, p.203.)
Como explica el mismo autor: "...cabe la posibilidad de movimientos excepcionales", sin embargo, ocurre que
"éstos son dinámicamente tan inestables que la más ligera perturbación los destruiría" (el destacado es nuestro);
por eso, "no es necesario, en absoluto, tenerlos en cuenta en un sentido estadístico..."(Henry Margenau, 1970,
p.261.)
Actualmente, sin embargo, un autor como Prigogine hace de este supuesto defecto –del carácter
exclusivamente probabilístico de la segunda Ley- una virtud:
"La noción de probabilidad introducida empíricamente por Boltzmann fue un golpe de audacia muy fecundo.
Después de más de un siglo empezamos a entender cómo surge de la Dinámica a través de la inestabilidad: ésta
destruye la equivalencia entre el nivel individual y el nivel estadístico, al extremo que las probabilidades cobran
unasignificación intrínseca, irreductible a una interpretación en términos de ignorancia o aproximación". (Los
destacados son nuestros.) (Ilya Prigogine, 1996, pp.37-38.)
Vale decir, si aceptamos los supuestos de la Mecánica estadística, deberemos tomarnos muy en serio el
concepto de probabilidad –desde luego como un concepto objetivo- y extraer de él todas sus consecuencias. Como
dice Margenau: "si estas probabilidades son primarias, si son el último recurso del científico, deben formar parte,
en algún sentido, de la realidad física..."; y concluye: "es preciso incorporar las probabilidades a la estructura
de la realidad".(Henry Margenau, 1970, p.261.)

14
En otras palabras, es necesario elegir la interpretación objetiva y rechazar la interpretación subjetiva del cálculo
de probabilidades. Recordemos que: "La teoría subjetiva de la probabilidad surge de la creencia de que
utilizamos la probabilidad sólo si tenemos un conocimiento insuficiente".(Karl Popper, 1985, p.321.)
¿Cómo podríamos interpretar objetivamente el concepto de probabilidad?
La interpretación objetiva propensivista de Karl Popper es, a este respecto, interesante: "La interpretación
propensivista es, creo, la de la Mecánica estadística clásica. Boltzmann habló de una tendencia. Pero creo que
la interpretación propensivista describe mejor lo que los autores clásicos tenían en mente cuando hablaban del
cociente entre los casos igualmente probables y los casos posibles: pensaban que este cociente era una medida
(una medida especialmente importante y conveniente, aunque no la más general) de la propensión, característica
de ciertas condiciones especificadas a producir un suceso dado." (Karl Popper, 1985, p.437.)
Más concretamente todavía: "Propongo interpretar la probabilidad objetiva de un suceso singular como una
medida de una propensión objetiva, de la fuerza de la tendencia, inherente a la situación física especificada, a
realizar el suceso, a hacer que ocurra." (Los destacados son nuestros.) (Karl Popper, 1985, p.434.)
Para entender más plenamente la interpretación propensivista, es importante partir del siguiente
reconocimiento de Popper: "Cualquiera que sea la interpretación que adoptemos de los enunciados científicos
de la probabilidad, no hay duda de que la interpretación frecuencial sigue siendo de fundamental importancia,
puesto que son siempre enunciados de frecuencias los que sometemos a contrastaciones empíricas." (Karl Popper,
1985, p.400.)
Unida a la anterior, la siguiente clarificación de Karl Popper –referida a las condiciones de una cierta situación
experimental singular- es decisiva:
"Porque con ‘propensión’ quiero decir exactamente la disposición (o como se quiera llamar) de la situación a
producir esas frecuencias [de la interpretación frecuencial de las probabilidades], si el experimento se repite lo
bastante a menudo."
Y concluye: "Las propensiones son disposiciones a producir frecuencias: ésta es la interpretación sugerida
por la teoría neoclásica. Pero ‘propensión’ no significa‘frecuencia’, porque hay sucesos que se repiten
demasiado raramente como para producir nada parecido a un buen segmento de una sucesión aleatoria (o una
‘frecuencia’); con todo, esos sucesos raros pueden muy bien tener una propensión". (Karl Popper, 1985, p.436.)
(Los destacados son nuestros.)
Luego, los sucesos improbables son, aunque raros, posibles, porque son también posibilidades; y en cuanto
posibilidades objetivas -es decir, en cuanto propensiones-, deben ser considerados como componentes siempre
presentes en todo tipo de expresiones de la realidad. En una población cualquiera, ya sea de seres humanos,
de moléculas de un gas o de tiradas de cartas de un naipe, existen siempre fracciones que se apartan –más o
menos- del promedio (que representa la tendencia mayoritaria); y deberíamos entenderlas como propensiones que
se manifiestan raramente (o sea, de baja frecuencia).
Alguna fracción pequeña –no significativa estadísticamente- de sucesos, ocurrencias o eventos improbables,
raros o extraordinarios se presenta, de hecho, con la regularidad de una ley de la naturaleza, en cualquier situación
posible, si la población es lo suficientemente grande. Desde luego que estos sucesos improbables se ocultan en el
conglomerado de los sucesos probables, de ahí que no es siempre fácil detectarlos.

15
EL PAPEL DE LAS PROPENSIONES Y DE LAS RESONANCIAS
La idea central que subyace a esta concepción objetiva de las probabilidades, es que todas las posibilidades
están presentes de momento a momento en el universo. Esta concepción guarda una estrecha relación con
la hipótesis ergódica, que el propio Boltzmann formuló. Pensaba Boltzmann que, en un sistema aislado, se
presentarían todas las configuraciones energéticamente posibles de adoptar por parte de las partículas, si se espera
el tiempo suficiente. En palabras de Ruelle: "una manera más correcta de expresar las cosas es decir que el
sistema volverá a pasar incansablemente tan cerca como se quiera de cualquier configuración energética
permitida". (David Ruelle, 1993, p.118.)
Por supuesto, el sistema permanecerá la mayor parte del tiempo en la configuración predominante, donde la
entropía del sistema es máxima. Pero ocasionalmente podrá presentarse una configuración rara. Ahora, si es cierto
que las configuraciones expresan posibilidades objetivas, entonces todas las configuraciones en cuanto
propensiones reales deberían estar simultáneamente presentes todo el tiempo.
Para entenderlo mejor, veamos en palabras de Popper cómo surge esta concepción objetiva propensivista de
las probabilidades: "La interpretación propensivista puede considerarse en relación con la interpretación clásica,
que define la probabilidad como el número de casos favorables dividido entre el número de casos posibles. Esto
sugiere que podemos interpretar la probabilidad como una medida de las posibilidades."(Karl Popper, 1985,
p.326.)
Continúa Popper: "Ahora bien, la interpretación propensivista está estrechamente relacionada con la
interpretación que considera la probabilidad como una medida de las posibilidades. Lo único que añade a ésto
es una interpretación física de las posibilidades, a las que no considera como meras abstracciones, sino como
tendencias o propensiones físicas a producir el estado posible de cosas, tendencias o propensiones a realizar
lo que es posible. Y supone que la fuerza relativa de una tendencia o propensión de este tipo se expresa en la
frecuencia relativa con la que logra realizar la posibilidad en cuestión." (Los destacados son nuestros.) (Karl
Popper, 1985, p.326.)
Por tanto, las posibilidades son propensiones físicas que se realizan con una cierta frecuencia relativa a la
situación que sea el caso ; lo que parece depender, en cierta medida, del conocimiento que posea el observador y,
en una medida mucho mayor, de cómo sea el mundo. En el primer caso, se trata de la probabilidad entendida en
un sentido subjetivo –algo así como un cálculo de expectativas racionales-; en cambio, objetivamente hablando,
cualquier posibilidad por el solo hecho de existir constituye una propensión real que depende exclusivamente de
cómo sea el mundo. Incluso en ausencia del observador, habrá posibilidades que sean improbables y otras
probables, y será el dato objetivo de sus frecuencias relativas el que determinará que pertenezcan a una u otra
categoría.
El grado de probabilidad, entonces, es una medida objetiva de las posibilidades ; y determinará un tipo especial
de posibilidad, aparentemente trivial, que es el de posibilidadimprobable. Y decimos "aparentemente" trivial
porque está muy lejos de serlo. Primeramente, las posibilidades improbables son propensiones físicas a producir
un determinado estado de cosas –al igual que toda posibilidad-, pero que se expresan raramente, o más bien, bajo
condiciones muy especiales. Sin embargo, serán justamente las posibilidades improbables las más interesantes
en relación con el estudio de las "diluciones homeopáticas" –ya veremos porqué-, a condición de que entendamos
la posibilidad en el sentido realista de propensión ya precisado por Popper:
"Se me preguntará por qué propongo introducir propensiones ocultas tras las frecuencias. Mi respuesta es
que conjeturo que esas propensiones son físicamente reales en el mismo sentido que las fuerzas de atracción o
repulsión, por ejemplo, pueden ser físicamente reales." (El destacado es nuestro.) (Karl Popper, 1985, p.326.)

16
Destaquemos desde ahora mismo que el concepto de Información (que está implícito en el de cantidad de
información) es homologable con el concepto de posibilidad improbable, aunque considerado desde la
perspectiva de un cierto observador, es decir, subjetivamente (en cuanto incertidumbre). Ahora, cuando hablamos
de "posibilidad improbable" en el presente contexto, o sea, objetivamente, nos estamos refiriendo concretamente
a cualesquiera de las configuraciones moleculares no predominantes, es decir, distintas de la configuración
predominante.
Más adelante estudiaremos que la cantidad de información de un sistema mide el grado de improbabilidad que
tiene ese sistema de ser tal cual es, o sea, se da la siguiente relación: a mayor improbabilidad, mayor cantidad de
información.
El caso extremo opuesto es el del estado de equilibrio, donde la entropía es máxima y la cantidad de
información es nula. Pero la improbabilidad tiende a ser entendida como referida a posibilidades ideales –de ahí
el uso de un concepto subjetivo de probabilidad-, y no a posibilidades reales, que existen en el mundo
(independientemente de cualquier observador). Mas, si adoptamos esta última perspectiva, constataremos que la
posibilidad improbable es algo que le pertenece al sistema mismo, incluso en ausencia de algún observador.
En otras palabras, lo que desde la perspectiva del observador se expresa por una cierta cantidad de información,
corresponde -desde la perspectiva, ahora, del sistema en consideración- a una posibilidad improbable.
Ciertamente que, en la medida que la posibilidad se hace más improbable –o menos probable, o sea, más rara-, la
cantidad de información implicada es mayor ; y, en la medida que la posibilidad se hace más probable, la cantidad
de información disminuye, hasta finalmente desaparecer (en el estado de equilibrio).
Es decir, entonces, que la Información sólo puede surgir de un estado neguentrópico (de un estado
improbable). Éste es, para nosotros, el sentido más profundo de la equivalencia entre la Información y la
neguentropía.
Al analizar el famoso experimento imaginario de Maxwell, conocido como "el demonio de Maxwell",
Brillouin llega a la conclusión de que la Información puede definirse por la correspondiente cantidad de entropía
negativa (o neguentropía). Ahora bien, si para Brillouin la Información y la entropía deben tener signos opuestos,
para Shannon –creador de la "Teoría de la información"- la Información se asocia con la entropía, o sea, él asocia
la Información con el desorden y no con el orden.
Sin embargo, esta contradicción aparentemente irreconciliable no afecta nuestra descripción porque el
concepto de neguentropía, tal cual nosotros lo entendemos, surge naturalmente del análisis de la Mecánica
estadística y de cómo ella explica la entropía termodinámica en términos de probabilidades. Así, siendo el estado
de máxima entropía también el más probable, la neguentropía es sinónimo de improbabilidad..
Si a lo anterior se agrega un concepto objetivo de probabilidad que considera a las posibilidades en
cuanto propensiones, resulta comprensible una equivalencia real (y no meramente conceptual) entre la
Información y la neguentropía. En diferentes palabras, desde esta perspectiva una concepción subjetiva de las
probabilidades debe ser descartada, como la que destila de la siguiente afirmación de Henry Atlan:
"El formalismo de la teoría de la información es un formalismo probabilista que nos es impuesto porque
tratamos con sistemas que sólo podemos conocer global e imperfectamente". (Henry Atlan, 1990, pp.76-77.) Vale
decir, las probabilidades sólo expresarían nuestra ignorancia acerca de cada uno de los detalles de los sistemas
estudiados. Sin embargo, si interpretamos a la probabilidad como una medida de las posibilidades, y a éstas
como propensiones realmente existentes, entonces el reconocimiento de que no conocemos plenamente un cierto
sistema no cambia el hecho de que la Información exista por sí misma (con independencia del observador del
sistema y su relativa ignorancia).
17
Así, la Información puede ser vista como una objetiva posibilidad improbable -vale decir, como una
propensión que es a la vez improbable-, pero que, por alguna razón, se hizo activa. Una de las razones de que se
haga activa, por ejemplo, es la presencia de un observador que, al interferir con el sistema, se convierte en el
receptor de la Información.
Pues bien, es igualmente posible que la Información pueda no estar activa (Información latente: una propensión
a actuar no manifestada), y entonces coincidirá externamente con la entropía –o sea, con el desorden que la
oculta- y no con la neguentropía (tal como lo consideraba Shannon); y de esa manera se vuelve posible que "el
orden pueda surgir del caos", como se afirma, pero sólo al hacerse nuevamente activa la Información.
Por ahora, nos conformaremos con establecer la equivalencia entre la Información y la neguentropía, pero si
somos algo más rigurosos deberíamos precisar ciertos puntos. Ante todo, que la verdadera equivalencia –en un
sentido conceptual- es únicamente entre la neguentropía y la Información implícita en el concepto de cantidad
de información. ¿Por qué? Porque el concepto de cantidad de información involucra al observador y es, por tanto,
un concepto subjetivo –incluso, como tendremos la oportunidad de explicarlo más adelante, es un concepto
antropomórfico-.
Con respecto a la Información objetivamente tal, tendríamos que decir que la neguentropía es solamente
una condición necesaria para que la Información se manifieste.
De otra manera dicha, la neguentropía no es condición suficiente –además de necesaria- de la Información
como formalmente se requiere para que sea una equivalencia. Y el hecho de que la neguentropía no sea una
condición suficiente de la Información, implica que esta última es "algo" más que neguentropía. Volveremos
sobre este punto más adelante. Pero, como conclusión provisoria, establezcamos que hay tres conceptos
íntimamente entrelazados: el concepto de posibilidad improbable, el concepto de Información y el concepto
de configuración no predominante (estado neguentrópico). O sea, una configuración no predominante
representa una posibilidad improbable y, por tanto, una Información.
Retornando al hilo de nuestra exposición, digamos que a veces ocurre que una situación excepcional –o sea,
una posibilidad improbable- se generaliza, constituyéndose en un suceso más numeroso, de hecho, el
predominante. La razón por la cual ésto ocurre puede ser desconocida muchas veces, pero hay otras ocasiones en
las cuales aparece un fenómeno muy especial –como es el de resonancia- en cuanto causa suya.

18
LAS RESONANCIAS Y LA IRREVERSIBILIDAD
Ya tendremos la oportunidad de estudiar en qué consiste la resonancia, pero primero destaquemos su
importancia. En opinión de Prigogine: "Las resonancias de Poincaré desempeñan un papel fundamental en
Física. La absorción y la emisión de la luz se deben a resonancias. En un sistema de partículas en interacción,
la aproximación al equilibrio se debe a resonancias. Los campos en interacción también crean resonancias.
Resulta difícil citar un problema importante de Física cuántica o clásica en que las resonancias no desempeñen
un papel." (El destacado es nuestro.) (Ilya Prigogine, 1996, p.45.)
En una primera aproximación al tema, establezcamos el siguiente hecho: Las resonancias conducen a un
acoplamiento entre movimientos moleculares mediante correlaciones. Por ejemplo, en un vaso de agua que
contiene un número gigantesco de moléculas "las colisiones entre las moléculas tienen dos efectos: tornan más
simétrica la distribución de las velocidades y crean correlaciones entre estas moléculas". (El destacado es
nuestro.) (Ilya Prigogine, 1996, p. 87.)
De esta manera aparece la irreversibilidad en el nivel estadístico: "Pero una partícula correlacionada con otra
encontrará seguidamente una tercera. Las correlaciones binarias se transforman entonces en correlaciones
ternarias, etc. En consecuencia, tenemos un flujo de correlaciones ordenados en el tiempo."( Ilya Prigogine,
1996, p. 87.) Es decir, que el número de partículas implicadas en las correlaciones aumenta continuamente. "En
el curso del tiempo nacen y se propagan correlaciones". Debido a las resonancias, los procesos dinámicos
"conducen a correlaciones de largo alcance, aunque las fuerzas entre las moléculas sean de corto alcance".(Ilya
Prigogine, 1996, p.139)
Ésto sucede en un simple vaso con agua, un sistema dinámico que, a pesar de su sencillez, constituye un
sistema inestable por la presencia de resonancias –lo cual implica la existencia de interacciones persistentes entre
las moléculas y, por tanto, el que sea un sistema no-integrable en el sentido de Poincaré (véase más adelante)-.
Sin embargo, la incorporación de un soluto diluído va a determinar cambios mucho más importantes -como
tendremos la oportunidad de mostrar-, tal cual podría ser la aparición de un orden específico que se extiende a
toda la solución.
Lo que importa destacar hasta el momento es que existe este "mecanismo" de las resonancias, a través del cual
se puede generar una situación cualitativamente diferente –ya veremos qué se debe entender exactamente por
"cualitativamente diferente"- a la que sería estadísticamente esperable para el estado de equilibrio de una
población de partículas libres sin interacción, o bien, cuasi independientes (que tienen escasa interacción, tales
como los gases a baja presión).

19
EL ESTADO NEGUENTRÓPICO
Pasemos ahora a una definición. Llamaremos "estado neguentrópico" a cualquier estado en que se encuentra
un sistema aislado mientras esté alejado del estado de equilibrio. Vale decir: será un estado neguentrópico
cualquier estado que no sea el propio estado de equilibrio (en el cual la entropía es máxima, según ya sabemos).
Muchos estados neguentrópicos serán, simplemente, estados transitorios camino al equilibrio. Pero, podemos
suponer la existencia de otros tipos de estados neguentrópicos que sean capaces de durar un tiempo mayor -cuando
se dan ciertas condiciones de las cuales tendremos que hablar un poco más adelante-, y que pueden dar lugar a
interacciones moleculares persistentes con sus respectivas correlaciones de un tipo sui generis.
Vale decir, suponemos que hay un punto crítico en la duración de un estado neguentrópico, superado el cual
el sistema presentaría condiciones aptas para que resonancias especiales puedan difundirse por el sistema. Ésto
convierte al concepto de neguentropía en un concepto con sentido propio.
Ahora, ¿puede un sistema cerrado tal como una solución diluída mantenerse indefinidamente en un estado
neguentrópico? No, tarde o temprano ese sistema alcanzará su estado de equilibrio –y la validez de la 2ª Ley de
la Termodinámica quedará a salvo-, pero se tratará de un sistema diferente. ¿Diferente de qué? Diferente de lo
que habría sido en ausencia del tipo de correlaciones moleculares como las producidas por las resonancias
presentes a causa del estado neguentrópico, y que se han difundido por el sistema. Hablamos, entonces, de un
equilibrio diferente –cualitativamente diferente- al equilibrio alcanzado en un sistema en condiciones estables
(sin estado neguentrópico).
Como veremos un poco más adelante, el papel desempeñado por el soluto es el de proporcionar el punto de
partida para que operen resonancias –diferentes a las que existen en el solvente- que correlacionen moléculas de
agua, cambiando así las condiciones de equilibrio del sistema total (la solución). Sin embargo, antes de entrar en
ello, aclaremos un poco más el concepto de estado neguentrópico.
Decir "estado neguentrópico" es equivalente a decir "estado improbable". Es así porque siendo el estado de
equilibrio el estado más probable, cualquier estado neguentrópico es necesariamente improbable. Pero no
solamente éso. Desde el momento en que un estado neguentrópico se hace predominante (se convierte en el
macroestado predominante), deja de ser un estado neguentrópico.
En otros términos, la improbabilidad es una condición tanto necesaria como suficiente de un estado
neguentrópico (un estado que no sea improbable no puede ser un estado neguentrópico y basta que un estado sea
improbable para que sea un estado neguentrópico).
El estado neguentrópico, entonces, es consubstancial al estado transitorio de no equilibrio ; por ende, se
termina con el equilibrio. Según Prigogine: "En pocas palabras, la distancia respecto al equilibrio es un
parámetro esencial para describir el comportamiento de la materia". Y hace la siguiente rotunda afirmación:
"Lejos del equilibrio, la materia adquiere nuevas propiedades en que las fluctuaciones y las
inestabilidades desempeñan un papel esencial: la materia se vuelve más activa". (Los destacados son nuestros)
(Ilya Prigogine, 1996, p.75.)
El papel que desempeña la distancia respecto al equilibrio, tal cual es destacado por Prigogine, es también
posible verlo –para el caso especial que nos ocupa- desde otra perspectiva: el tiempo que demora el sistema en
alcanzar nuevamente el equilibrio. El tiempo es importante puesto que se trata de un proceso irreversible –se
habla de "tiempo de Liapunov", lapso de duración más allá del cual un sistema se hace caótico-.
Expresémoslo con las siguientes palabras: en un sistema dinámico en desequilibrio, hay un lapso durante el
cual diversas posibilidades improbables –propensiones físicas, recordemos- existen en estado de tensión como

20
flechas a punto de despegar del arco. Pues bien, las probabilidades de que en cualquier instante una flecha se
dispare -o sea, de que una posibilidad hasta ese momento improbable se actualice-, aumenta con la duración del
estado de no equilibrio.
Sin embargo, así como esa duración posee un límite inferior, así también posee un límite superior. El límite
inferior, como ya dijimos, es aquel bajo el cual nada nuevo puede ocurrir, ya que no existe propiamente un estado
neguentrópico. El límite superior, por su parte, es aquel que -habiéndose ya manifestado la propensión oculta- en
nada contribuye a su expresión. Por el contrario, más allá de ese límite superior, es importante que el
proceso se acelere, para así poder propagarse al resto de la solución (difusión).
Por eso, para nuestro análisis, lo más importante es -en cada uno de los procesos de dilución- considerar el
estado de desequilibrio que precede al estado de equilibrio, mientras el sistema permanece aún en un estado
neguentrópico. Es en ese momento cuando se produce todo el proceso involucrado en las "diluciones
homeopáticas".
Sin embargo, el estado de equilibrio en condiciones de aislamiento en el cual desemboca permite que los
cambios producidos se mantengan indefinidamente –mientras no se le vuelva a diluir-. ¿Por qué? Ya hemos dicho
que en el estado de equilibrio termodinámico de un sistema aislado, la entropía alcanza su valor máximo ; pero
también debemos agregar que la energía libre alcanza su valor mínimo:
Pues, F = E – T S, donde F = energía libre, E = energía total, S = entropía, y T = temperatura a la cual está el
sistema-. (Puede verse fácilmente que cuando aumenta la entropía S, la energía libre F disminuye.)
Para ese momento, el hecho de ser la entropía máxima y, por tanto, la energía libre mínima, "garantiza que
las perturbaciones o las fluctuaciones carezcan de efecto, pues son seguidas de un retorno al equilibrio".(Ilya
Prigogine, 1996, p.70.)
Más adelante, cuando hablemos de la Información, quedará establecido que sólo en condiciones de no
equilibrio –en un estado neguentrópico, por tanto-, la Información opera (Información activa); y que en el estado
de equilibrio, la Información permanece latente (Información pasiva), es decir, como una propensión
inmanifestada (pero manifestable).
Otra nota de un estado neguentrópico –que Prigogine ha destacado, pero refiriéndose a sistemas abiertos lejos
del equilibrio, cuando nosotros hablamos de sistemas cerrrados lejos del equilibrio- es el de la novedad. Un
estado de equilibrio nunca puede ser novedoso (es el estado más probable, recordemos), pero bajo ciertas
condiciones muy especiales –que implican, naturalmente, la pérdida de un equilibrio anterior- el sistema puede
dar origen a una novedad, hasta ese momento oculta como un suceso altamente improbable (una propensión,
como ya sabemos). Que el agua adquiera las propiedades que los homeópatas suponen que existen en las
"diluciones homeopáticas", podría ser un buen ejemplo de ello. El cómo es éso posible, pasaremos a explicarlo a
continuación.

21
LA SEGUNDA LEY COMO LEY PROBABILÍSTICA Y SUS CONSECUENCIAS
Habitualmente, los estados improbables no pueden subsistir por mucho tiempo, debido a la operación de la
segunda Ley. Pero en el caso de las "diluciones homeopáticas", se dan condiciones que modifican la operatividad
de esta segunda Ley, como veremos en seguida.
Tratándose de un soluto constituído por un pequeño número de moléculas, el curso que la segunda Ley
predice –de aumento de la entropía en el sistema- ya no se cumple. Ésa es una consecuencia necesaria del hecho
de que la 2ª Ley de la Termodinámica sea una ley de naturaleza intrínsecamente probabilística, es decir, que no
se pueda aplicar a conjuntos reducidos de moléculas.
Mientras que en un sistema formado por un gran número de moléculas –vale decir, un número significativo
desde el punto de vista estadístico-, esta ley se cumple la mayor parte de las veces de una manera abrumadora
(aunque no de manera absoluta, como sí acontece con la primera Ley); cuando el número de moléculas presentes
en el sistema es estadísticamente no significativo, esta ley simplemente ya no se cumple, por lo cual se
producen grandes fluctuaciones con respecto a la configuración predominante. Es decir, el sistema permanecerá
un cierto tiempo en estado neguentrópico ; por tanto, sin alcanzar el estado de equilibrio.
He aquí la gran clave –o, al menos, una de ellas- para comprender (explicar) el misterio de las "diluciones
homeopáticas". Expliquémoslo de esta forma: si utilizamos el concepto de ley como prohibición, es decir, si
consideráramos que la ley es como una prohibición a que se produzcan ciertos acontecimientos –como lo propone
Popper, por ejemplo, quien considera que "las leyes naturales imponen ciertos límites a lo que es posible"-
entonces la segunda Ley prohíbe que, en un sistema aislado, la entropía disminuya (puede permanecer igual, en
el caso de los procesos reversibles, o simplemente aumentar, como en los procesos irreversibles).
Ahora bien, tratándose de un sistema constituído por un número pequeño de moléculas, esta prohibición no
puede ejercerse, lo cual quiere decir que en tal sistema la entropía no sólo puede disminuir sino que lo más
probable es que disminuya. Ya no está detrás la segunda Ley, por decirlo así, empujando para que la entropía
aumente. O, en diferentes palabras, durante una extensión importante de tiempo el sistema estará en estado
neguentrópico, es decir, alejado del estado de equilibrio que es donde la entropía alcanza su máximo. Lo cual trae
una consecuencia sumamente importante consigo: el sistema se torna inestable.
Ciertamente que es posible, aunque extremadamente improbable, que el estado del sistema coincida
fortuitamente con el estado más probable -predicho por la segunda Ley-; pero, siendo este sistema independiente
de ella –por la razón ya señalada-, esa coincidencia aleatoria no puede producirse sino muy raramente. Es como
la imagen espejo de la situación anteriormente descrita, aquella respecto a un sistema contituído por un gran
número de moléculas. Dicho esquemáticamente: en el sistema estadísticamente significativo en el número de
moléculas, la segunda Ley se cumple casi siempre ; en el sistema que comporta un número no significativo de
moléculas, la segunda Ley no se cumple casi nunca (o sea, finalmente no se cumple).
En el caso de las "diluciones homeopáticas", sin embargo, la situación es algo más compleja. Si elegimos una
cierta dilución, por ejemplo: una D6, la relación entre el soluto y el solvente es de 1 a 1.000.000, es decir, hay
sólo 1 molécula de soluto por cada millón de moléculas de solvente (el agua).
Tenemos el sistema total, la solución, constituído en un primer momento -antes de completarse la
solubilización del soluto- por dos fases (o partes homogéneas separadas por fronteras identificables): la fase
soluto y la fase solvente. Mientras que la fase soluto es un sistema conformado por un muy pequeño número de
moléculas (respecto al solvente), y que, por lo tanto, no obedece a la segunda Ley ; la fase solvente es un sistema
grande estadísticamente, y, por lo mismo, debería obedecer a esta segunda Ley. Pero en realidad se trata,
funcionalmente hablando, de uno solo y mismo sistema: el sistema total, o sea, la solución (el soluto disolviéndose
22
en el solvente); y, por ende, la entropía o la neguentropía –como interesa a este caso en particular-, que son
funciones generales, se aplican a todo el conjunto no-fraccionado.
Se sigue de aquí que, si una fracción de esa totalidad –la fase soluto- se encuentra en
un estado neguentrópico durante un cierto tiempo (alejada así del estado de equilibrio), entonces la fracción
restante de esa misma totalidad –la fase solvente- no puede encontrarse al mismo tiempo en un estado de
equilibrio. Todo lo cual implica que el sistema total (la solución) se constituye en un sistema inestable, hasta el
momento en que pueda retornar al equilibrio y estabilizarse.
Por consiguiente, tanto la fase soluto como la fase solvente se encuentran en un primer momento en plena
interacción, vale decir, en un estado de no equilibrio. ¿Qué ha ocurrido? Todo sucede como si la dilución extrema
de cualquier sustancia, le permitiera escapar a las redes de la 2ª Ley de la Termodinámica, generándose así un
estado muy improbable (un estado neguentrópico) para la fase soluto, y, como consecuencia, para la fase solvente
–que a esta altura empiezan a dejar de ser dos fases para convertirse en un único sistema-. Y en condiciones de
no equilibrio, siempre existe una distancia crítica con respecto al equilibrio, más allá de la cual el sistema se
torna inestable (punto de "bifurcación").(Ilya Prigogine, 1996, p.72.)
Tenemos, ahora, un sistema inestable –el cual se define como aquel en el cual pequeñas modificaciones de
las condiciones iniciales (o causas) producen grandes efectos, es decir, que dichas modificaciones se amplían en
el tiempo-, el cual tenderá a encontrar su estabilidad y su equilibrio de una forma o de otra. Conjeturamos que
esa estabilidad la encuentra el sistema a través de las llamadas "resonancias de Poincaré".
Deductivamente, la secuencia lógica de los acontecimientos que -según podemos inferir- se producen en la
preparación de las "diluciones homeopáticas", difiere de la secuencia planteada por Prigogine (aunque, por
supuesto, no la contradice):
Para éste, son las resonancias de Poincaré, producto de las interacciones entre las partículas que sean el caso,
las que conducen a la inestabilidad del sistema ; en cambio, en el caso de las "diluciones homeopáticas",
la inestabilidad del sistema es un hecho presumible desde el mismo inicio -por tratarse de un estado
neguentrópico en busca del equilibrio- y es, por tanto, la presencia de esta inestabilidad en el sistema la que nos
hace suponer la existencia de las resonancias de Poincaré.
Es decir, de acuerdo con los resultados de Prigogine, sin resonancias (-R) no puede haber inestabilidad.
O sea, si no hay resonancias (-R), entonces lo que existe es estabilidad (E):
De ‘-R ® E’ y ‘-R’ se infiere ‘E’ (Modus Ponens).
Pero el caso es que –en las "diluciones homeopáticas"- tenemos inestabilidad, o sea, que no tenemos estabilidad
(-E); luego, hay resonancias (R):
De ‘-R ® E’ y ‘-E’ se infiere ‘R’ (Modus Tollens).

23
LAS RESONANCIAS DE POINCARÉ
El concepto de resonancia es bastante familiar en Física, pero en este caso en particular es preciso comprender
el contexto en el cual se presenta –y por el cual se le denomina "resonancias de Poincaré"- y no simplemente
"resonancias".
Partiendo de una pregunta acerca de la estabilidad del sistema solar –póngase atención a lo extraño de su
origen-, "Poincaré abrió el rumbo para tratar los problemas de estabilidad en sistemas dinámicos
complejos".(M.J. Sametband, 1994, pp.71-72.)
El fondo de todo este asunto –de la estabilidad y de la inestabilidad, y, consecuentemente, del límite a la
predictibilidad- está realmente en saber si el universo se rige por leyes deterministas o no. (Al menos esta es la
posición de Prigogine ; otros, como René Thom, por ejemplo, difieren en cuanto a esta relación entre azar y
determinismo.)
En un universo estable –donde pequeños cambios en las condiciones iniciales, sólo traen pequeñas alteraciones
en el comportamiento del sistema considerado-; donde, por tanto, pueda existir "el demonio de Laplace" : que es
capaz de predecir el futuro siempre que conozca el estado presente del universo con el suficiente grado de
precisión ; el problema simplemente no se presenta.
Pero en un universo inestable tal tipo de predicción determinista es imposible ; y el universo en el cual vivimos
realmente es un universo inestable, irreversible y, por tanto, evolutivo (asociado a la "flecha del tiempo"). Es de
sentido común que el pasado no puede disolverse como si no hubiera existido, sino que determina
irreversiblemente -querámoslo o no- el presente que estamos viviendo.
"Es verdad que la descripción en términos de trayectorias conserva su validez si las condiciones iniciales se
conocen con una precisión infinita. Pero ello no corresponde a situación realista alguna".( Ilya Prigogine, 1996,
p.116.)
Los procesos irreversibles no pueden ser considerados como meras aproximaciones a las leyes fundamentales
–las cuales siempre describen procesos reversibles-, sino que existen realmente y son los más importantes en la
naturaleza. Como dice Prigogine : "Este punto de vista nos obliga a reconsiderar la validez de las leyes
fundamentales, clásicas y cuánticas".(Ilya Prigogine, 1996 , p.29.)
La irreversibilidad, por su parte, conduce a considerar los comportamientos dinámicos inestables. Las leyes
de la Dinámica fueron consideradas tradicionalmente como reversibles –lo cual está asociado con la predicción
de las trayectorias futuras y, por tanto, con el determinismo-, pero la Termodinámica con su concepto de entropía
contradice a esta reversibilidad. Para superar esta contradicción, Prigogine propone una extensión de la Dinámica.
Esta extensión considera sistemas inestables -también llamados "caóticos" cuando son extremos-, en los cuales
existe una ruptura de la equivalencia entre el nivel individual y el nivel estadístico, equivalencia que es propia
exclusivamente de los sistemas estables.
En los sistemas caóticos "las trayectorias correspondientes a condiciones iniciales tan vecinas como se quiera
divergen de manera exponencial con el tiempo".( Ilya Prigogine, 1996, p.33.) Se habla, entonces, de "sensibilidad
a las condiciones iniciales". El ejemplo clásico del lápiz que no puede mantenerse en equilibrio sobre su punta –
lo cual es teóricamente posible-, nos ilustra acerca de cómo la inestabilidad es afectada por la más mínima
vibración. Es decir, cualquier pequeño cambio en las condiciones iniciales puede producir grandes efectos sobre
las trayectorias, cosa que no ocurre en los sistemas estables.

24
En otras palabras, en un sistema dinámico estable, dos condiciones iniciales próximas dan lugar a trayectorias
próximas ; y, en cambio, en un sistema dinámico inestable, dos condiciones iniciales igualmente próximas dan
lugar a trayectorias que divergen en el tiempo según una ley exponencial.
Sin embargo, el resultado es sorprendente: "Se habla a menudo de ‘caos determinista’. En efecto, las
ecuaciones de sistemas caóticos son tan deterministas como las leyes de Newton. ¡Y empero engendran
comportamientos de aspecto aleatorio!"(Ilya Prigogine, 1996, p.33.)
Esta mezcla de azar y determinismo es una característica de los sistemas dinámicos asociados al caos: "Las
‘leyes del caos’ asociadas a una descripción regular y predictiva de los sistemas caóticos se sitúan en el nivel
estadístico".(Ilya Prigogine, 1996, p.40.) Vale decir, se trata de una formulación de la Dinámica que es
exclusivamente estadística ; y donde la descripción en términos de trayectorias individuales deterministas, por
tanto, queda descartada -por ser imposible (ya que es caótica)-.
Volviendo a Poincaré, observemos que los sistemas que describe la ley de Newton eran, para la Dinámica
clásica, todos equivalentes. "Sólo a fines del siglo XIX Poincaré mostró que los problemas son fundamentalmente
diferentes según se trate de un sistema dinámico estable o no". (Ilya Prigogine, 1996, p.33.)
En la formulación habitual de la Dinámica clásica, el estado inicial es representado por las posiciones q y las
velocidades v (o por los momentos p); y "cuando se conocen las posiciones y velocidades, la trayectoria se puede
determinar a partir de la ley de Newton o de cualquier otra formulación equivalente de la dinámica".
Ahora, en lugar de considerar un solo sistema, también es posible considerar una colección o conjunto de ellos,
y este conjunto "se representa mediante una nube de puntos en el espacio de las fases". Y se describe mediante
una función, "cuya interpretación física es simple: es la distribución de probabilidad, que describe la densidad
de los puntos de la nube en el seno del espacio de las fases". (Ilya Prigogine, 1996, pp.34-35.)
Cuando las condiciones iniciales se desconocen, el hacer uso de un conjunto de sistemas en lugar de uno solo,
o sea, el recurrir a un análisis estadístico resulta ser el único instrumento de cálculo posible:
"Desde ese punto de vista las probabilidades traducen nuestra ignorancia, nuestra falta de información. Era
evidente que en Dinámica el estudio de las trayectorias individuales y el de las distribuciones de probabilidad
venían a ser lo mismo. Podemos partir de las trayectorias individuales y obtener la evolución de las funciones de
probabilidad, y viceversa. La probabilidad corresponde simplemente a una superposición de trayectorias, y no
conduce a ninguna propiedad nueva. Ambos niveles de descipción, el nivel individual (correspondiente a
trayectorias únicas) y el nivel estadístico (correspondiente a probabilidades), serían equivalentes". (Ilya
Prigogine, 1996, p.36.)
Esta larga y necesaria cita, nos prepara para entender las diferencias de naturaleza conceptual que distinguen
los sistemas inestables con respecto a los sistemas estables –que son los únicos que estudia la Dinámica clásica-.
En último análisis, la característica esencial que distingue a los sistemas dinámicos inestables es la siguiente:
"La equivalencia entre el nivel individual y el nivel estadístico se destruye. Para las distribuciones de
probabilidad logramos así soluciones nuevas irreductibles, es decir, que no se aplican a las trayectorias
individuales". (Los destacados son nuestros.) (Ilya Prigogine, 1996, p.40.)
Esto quiere decir que la descripción en términos de trayectorias individuales es eliminada en favor de
una descripción estrictamente estadística.
Es así, entonces, como obtenemos una Dinámica generalizada: "Se trata de una formulación de la Dinámica
en el nivel estadístico, que no tiene equivalente en términos de trayectorias. Ello nos conduce a una situación
25
nueva. Las condiciones iniciales ya no pueden asimilarse a un punto en el espacio de las fases: corresponden a
una región descrita por una distribución de probabilidad. Se trata, por tanto, de una descripción no local.
Además, la simetría con respecto al tiempo se rompe, porque en la formulación estadística el pasado y el futuro
desempeñan papeles diferentes". (Ilya Prigogine, 1996, p.40.)
Por tanto, deja de tener sentido la búsqueda de una descripción en términos de trayectorias individuales, pues
en un sistema que es centro de un proceso dinámico inestable la única predicción válida es la probabilística. En
resumen: se trata de un proceso "intrínsecamente aleatorio" (Prigogine). Siendo así, el concepto de probabilidad
que empleemos será decisivo a la hora de entender lo que ocurre en el seno de un sistema dinámico inestable. Si
usamos el concepto probabilístico de propensión, es posible entender entonces que en un sistema inestable
puedan manifestarse ciertas propensiones que, en un sistema estable, jamás lo harían.

26
EL APORTE DE POINCARÉ
Volvamos de nuevo a Poincaré. Además de establecer la fundamental distinción entre sistemas estables y
sistemas inestables, Poincaré demostró que la mayoría de los sistemas dinámicos eran no integrables, lo cual es
equivalente a decir que la ecuación de Newton aplicada al sistema no tiene solución. El llamado "problema de
los tres cuerpos", en el cual trabajó, pertenece a la categoría de los sistemas inestables no-integrables: Poincaré
probó que el caos puede aparecer ya con sistemas relativamente simples como aquél. Así, en un sistema dinámico
formado sólo por tres cuerpos que se atraen por acción de la fuerza de gravedad, y uno de ellos es muy pequeño
en relación a los otros dos, tenemos que la trayectoria representada en el espacio de las fases es de una
extraordinaria complejidad –es un sistema dinámico no integrable-.
Como lo explica M.J. Sametband: "El gran matemático demostró la posibilidad de que un sistema dinámico
totalmente determinista, como el de los planetas en órbita, llegue a un estado de caos donde no se pueda predecir
su comportamiento futuro. Basta para ello que responda a una situación no lineal, en la que una pequeñísima
fluctuación se vaya amplificando al ser reiterada un gran número de veces". (Los destacados son nuestros.)
(M.J. Sametband, 1994, p.73.)
Por supuesto, la situación "no lineal" de la que se habla en la cita anterior, corresponde a una característica
que presentan todos los sistemas caóticos (sistemas dinámicos inestables lejos del equilibrio). La "linealidad", por
llamarla así, implica una proporcionalidad entre la magnitud de la causa y la magnitud del efecto ; además, se
puede representar por ecuaciones lineales y sólo corresponde a sistemas estables. En cambio, la no-linealidad es
propia de sistemas inestables y complejos, que son sensibles a las condiciones iniciales, o sea, donde pequeñas
causas pueden amplificarse produciendo grandes efectos. Pero del estudio de Poincaré debemos extraer un aporte
todavía más trascendente: "Una contribución importante de Poincaré fue demostrar que en este sistema las
inestabilidades son debidas al fenómeno de la resonancia". (Los destacados son nuestros.) (M.J. Sametband,
1994, p.73.)
Resumamos: un sistema dinámico se caracteriza por la energía cinética –que depende exclusivamente de la
velocidad de los cuerpos que lo componen- y por la energía potencial –que depende de la interacción entre esos
mismos cuerpos-.
Entonces, en un sistema dinámico constituído por partículas libres que no interactúan entre ellas, no hay
energía potencial y, por tanto, el cálculo de sus trayectorias es simple. Este sería un sistema integrable, en el
sentido de Poincaré.
Ahora bien, se puede demostrar que todo sistema integrable es equivalente a –o es isomorfo con- un sistema
de partículas libres sin interacción. Como deduce acertadamente Prigogine, si Poincaré hubiera mostrado que la
mayoría de los sistemas dinámicos eran integrables –lo contrario de lo que efectivamente mostró-, entonces la
contradicción entre el universo ideal reversible de las ecuaciones de la Dinámica y el universo real irreversible,
permanecería insoluble.
"Pero Poincaré no sólo demostró que la integrabilidad se aplica únicamente a una clase reducida de sistemas
dinámicos, sino que identificó la razón del carácter excepcional de dicha propiedad: la existencia de resonancias
entre los grados de libertad del sistema". (Ilya Prigogine, 1996, pp.42-43.).

27
¿QUE ES LA RESONANCIA?
La resonancia se produce cada vez que hay una relación entre frecuencias (una de las frecuencias es igual a un
múltiplo entero de la otra), y se podría definir como "una oscilación de gran amplitud causada por un estímulo
periódico relativamente pequeño" (Sametband). Nos dice Prigogine: "Las frecuencias, y en particular la cuestión
de su resonancia, resultan capitales en la descripción de los sistemas dinámicos", y agrega: "Cada uno de los
grados de libertad de un sistema dinámico se caracteriza por una frecuencia".(Ilya Prigogine, 1996, p.43.)
Como se sabe, el número de grados de libertad de un sistema dinámico corresponde al número de parámetros
necesarios para especificar completamente el estado de ese sistema (por ejemplo: la velocidad, el impulso, la
posición, etc.), y están representados por sus variables independientes.
Ésto es importante de entender porque un sistema dinámico no lineal teniendo un mínimo de tres grados de
libertad ya puede devenir caótico ; y parece ser el caso precisamente de las "diluciones homeopáticas".
Se entiende por "espacio de las fases" a un espacio matemático –es decir, a un espacio abstracto- que está
constituído por las variables que describen el sistema dinámico, y en el cual cada punto representa un posible
estado del sistema. Por último, digamos que la evolución en el tiempo del sistema se representa por una trayectoria
en el espacio de las fases –una trayectoria es "una secuencia de puntos en el que cada punto genera al siguiente
de acuerdo a una función matemática" (Sametband)-.
Ahora bien, "...las frecuencias dependen en general de las variables dinámicas y adquieren valores diferentes
en diferentes puntos del espacio de las fases. En consecuencia, ciertos puntos de dicho espacio serán
caracterizados por resonancias, y otros no. Correlativamente, observamos dos tipos de trayectorias ;
trayectorias normales, deterministas, y trayectorias aleatorias asociadas a las resonancias que erran a través
del espacio de las fases".(El destacado es nuestro.) (Ilya Prigogine, 1996, p.45.)
Veremos posteriormente que las trayectorias correspondientes a las moléculas de agua, entre un estado de
equilibrio y otro –que equivale, aproximadamente, al lapso entre una dilución y la siguiente-, presenta sólo dos
momentos: primero, uno constituído por trayectorias aleatorias asociadas a las resonancias, y otro momento
posterior y final, constituído por la trayectoria normal asociada al equilibrio. A cada una de ellas le corresponde
su propio atractor en el espacio de las fases (atractor extraño y punto atractor, respectivamente).
Antes de hacer uso de estos conceptos para nuestro objetivo, agreguemos esta conclusión de Prigogine: "A
nivel estadístico, las resonancias ocasionan la ruptura del determinismo: introducen la incertidumbre en el
marco de la Mecánica clásica y rompen la simetría del tiempo". (El destacado es nuestro.) (Ilya Prigogine, 1996,
p.47.) Sin embargo, es importante decir que no es necesario compartir el indeterminismo de Prigogine para
explicar el mecanismo de las "diluciones homeopáticas".
En resumen: el análisis requiere distinguir entre dos niveles, el nivel individual de las trayectorias y el nivel
estadístico descrito por una distribución de probabilidad. Ahora bien, las resonancias que se producen a nivel de
las moléculas individuales y que conducen a un acoplamiento entre sus movimientos, pueden dar lugar a un
comportamiento aleatorio –vale decir, caótico-; empero este comportamiento aleatorio se pierde (es eliminado) a
nivel estadístico.
De manera tal que: "Las resonancias eliminadas en el nivel estadístico conducen a la formulación de una
teoría no newtoniana, incompatible con la descripción en términos de trayectorias". (Ilya Prigogine, 1996, p.46.)
En otros términos, a la vez que en el nivel individual de las trayectorias tenemos un comportamiento
aleatorio, caótico ; en el nivel estadístico tenemos, por el contrario, un comportamiento regular bien definido -se
trata de un fenómeno orientado en el tiempo, irreversible (luego, con producción de entropía)-. O en palabras de
28
Prigogine: "La inestabilidad a nivel de la trayectoria conduce a un comportamiento estable en el nivel de la
descripción estadística".(Ilya Prigogine, 1996, p.94.)
Ahora, la incompatibilidad con una descripción en términos de trayectorias no es sorprendente, ya
que "...resonancia y acoplamiento entre acontecimientos no se producen en un punto y en un instante. Implican
una descripción no local, que no puede ser incorporada en la definición dinámica usual en términos de puntos
individuales y de trayectorias en el espacio de las fases". (Los destacados son nuestros.) (Ilya Prigogine, 1996,
p.46.)

29
LAS RESONANCIAS Y LA DIFUSIÓN DEL CAOS
Al estudiar la influencia de las resonancias sobre las trayectorias, Prigogine nos explica lo que ocurre en ciertos
casos: "A partir de un valor crítico, el comportamiento del sistema se torna caótico: trayectorias vecinas divergen
en el curso del tiempo. En el caso del caos plenamente desarrollado observamos fenómenos de difusión, esto es,
la evolución hacia una dispersión uniforme en todo el espacio de las fases". (El destacado es nuestro.) (Ilya
Prigogine, 1996, pp.45-46.)
Puesto que las interacciones transitorias no modifican apreciablemente las trayectorias de las partículas –las
que están, por tanto, dentro de los límites de validez de la descripción newtoniana-, se requiere de una condición
muy importante para que la evolución de un sistema dinámico inestable sea irreductible a una descripción en
términos de comportamientos individuales –es decir, para que se haga caótico y desarrolle de esta manera
fenómenos difusivos-, y que es la siguiente: las interacciones deben ser persistentes. En consecuencia, los
fenómenos de difusión sólo aparecen en el caso de una continuidad de interacciones como las que existen en un
líquido estructurado tal cual es la solución diluída ; se asegura así que las interacciones entre cada molécula de
soluto y las moléculas de solvente que la rodean, sean persistentes. Es muy importante entender, en todo caso,
que son las moléculas de soluto las que aportan las únicas resonancias que realmente interesan –cualitativamente
hablando- para el resultado final.
Como una forma de ayudar a la intuición –y así facilitar la explicación acerca de la acción de las resonancias-
, ofrecemos a continuación un ejemplo muy impresionante del importante papel que las resonancias desempeñan
en Física, tal cual es descrito por G. Brewer y E.L. Hahn:
"En una muestra gaseosa, se pueden seleccionar todos los átomos que tengan una velocidad determinada
excitando la muestra con un haz de láser, prácticamente monocromático y de onda continua, de la frecuencia
adecuada de resonancia". Destaquemos que "la frecuencia adecuada de resonancia" es exactamente aquella que
cumple con la relación numérica simple entre las dos frecuencias: la del haz de láser y la correspondiente al
momento lineal (que es el producto de la masa por la velocidad) de algunos de los átomos del gas, produciéndose
un acoplamiento entre estas dos frecuencias.
"En virtud del efecto Doppler, los átomos idénticos que se mueven con velocidades diferentes absorverán luz
a frecuencias ligeramente distintas. Si la frecuencia del láser es espectralmente pura, es decir, si se trata de una
frecuencia única, tan sólo los átomos con una velocidad determinada se seleccionarán y prepararán
coherentemente..." Hasta aquí tenemos la "preparación" de la muestra. ¿Qué sucede entonces?
"La alineación de estos átomos preparados coherentemente se puede poner de manifiesto con un aparato láser
con seleccionador de frecuencias: tras un largo período de excitación, la frecuencia del haz de láser se cambia
de repente a un nuevo valor, de suerte que ya no exista resonancia con el grupo de átomos preparados. Sin
embargo, los átomos preparados coherentemente actúan ahora como un conjunto de diapasones idénticos que
hubieran sido golpeados a la vez. Puesto que todos ellos poseen la misma frecuencia de resonancia, se refuerzan
unos con otros y radian al unísono un haz de luz intenso y coherente en dirección hacia adelante. Este haz posee
todas las propiedades de la luz de láser (coherencia, direccionalidad y frecuencia única) debido a que los átomos
mantienen una memoria de sus estados ordenados".(G. Brewer y E.L. Hahn, 1985.)
Curiosamente, en el texto recién citado se utiliza el mismo concepto de memoria que se ha intentado usar como
explicación al "problema de las ‘diluciones homeopáticas’"; lo cual nos sugiere que estamos pisando sobre un
terreno común a las dos situaciones experimentales: la recién descrita y la perteneciente a la preparación de las
"diluciones homeopáticas". No está demás señalar que el concepto de memoria –con cualquier tipo de matices

30
que se le quiera entender- implica irreversibilidad, y ésta es una consecuencia necesaria del efecto de las
resonancias.

31
NUEVO EXAMEN A LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS"
Volviendo al tema de la preparación de las "diluciones homeopáticas", nos encontramos con un sistema que,
a diferencia de cualquier solución corriente (no diluída), es un sistema dinámico inestable, al menos en un primer
momento. Antes de examinar más de cerca este hecho, revisemos el modus operandi de las "diluciones
homeopáticas". Al pasar, por ejemplo, de una dilución D6 a una dilución D7, sólo una décima parte de la dilución
D6 se mantiene ; y se le agregan las 9/10 partes restantes de agua (en estado de agitación térmica en equilibrio
con la temperatura del ambiente). Es decir, el sistema aislado anterior –la dilución D6- se ha abierto, perdiendo
así su equilibrio, al paso que se han renovado 9 de cada 10 moléculas.
Pero ésto no es todo. En la anterior descripción que hicimos de la preparación de las "diluciones
homeopáticas", omitimos una parte del proceso que consideraremos ahora.
Nos referimos a la sucusión, agitación mecánica de la solución que acompaña a cada dilución, y que fué
introducida –como todo lo demás del proceso- por el propio Hahnemann. Siempre se ha considerado a la sucusión
como una parte esencial del método: una dilución sin sucusión se supone que es menos activa –o nada activa,
incluso- que aquella con sucusión. Será a nivel experimental donde tendrá que obtenerse la comprobación de esta
afirmación, pero en nuestra explicación debemos considerar el correcto lugar para ella.
La comparación estricta entre una dilución con y sin sucusión es imposible, ya que el solo hecho de eliminar
9/10 partes de la dilución previa -en otros casos se trata de 99/100 partes, cuando se usa la dilución centesimal-,
para reemplazarlas por agua pura, constituye una forma de sucusión.
Sin embargo, aplicar además una vigorosa agitación debería producir alguna diferencia en el efecto final. Tal
vez esta diferencia consista en acelerar el proceso que paso a paso estamos estudiando -y con ello la vuelta al
equilibrio por parte del sistema, debido al frotamiento molecular que implica-, o sea, podría tener un efecto
catalizador sobre dicho proceso. Incluso se podría suponer que este efecto pudiera ser decisivo. Y en un cierto
sentido muy específico, de hecho, lo es:
La "dilución homeopática" sólo es un sistema propiamente aislado cuando termina la sucusión ; es decir,
durante la agitación mecánica se constituye momentáneamente en un sistema cerrado, luego, en un sistema capaz
de intercambiar energía con su alrededor –recibe energía cinética a través del operador que la prepara-.
Recapitulemos: la solución está constituída, en un primer momento, por una fase pequeña en extensión (la fase
soluto), es decir, por una clase muy ordenada ; y por otra fase, muy extensa relativamente (la fase solvente), o
sea, una clase muy desordenada. Ni el agua pura ni una solución concentrada presentan este tipo de orden del
soluto diluído. Ahora bien, esta contradicción interna presente en la solución diluída, trae sus propias
consecuencias: es el origen de todo lo que ocurre después. Todo sucede como si la fase soluto –al ser escasa- se
opusiera al equilibrio, mientras la fase solvente empujara al sistema hacia éste.
Si se tratara de una solución concentrada –y no diluída como es el caso-, las moléculas de soluto tenderían a
distribuirse homogéneamente entre las moléculas de solvente, hasta alcanzar el equilibrio, obedeciendo así a la
segunda Ley. La homogeneidad perfecta corresponde a una distribución equiprobable –es decir, en la cual la
probabilidad de encontrar una molécula de soluto en cada punto del volumen de solución es la misma en todas
partes-. Estaríamos en presencia de un sistema dinámico estable.
Pero, como se trata de una solución en la cual las moléculas de soluto están en una enorme desproporción
numérica con respecto al solvente –a lo menos en diluciones iguales o superiores a D6-; aquéllas no responden a
la segunda Ley. Luego, la distribución del soluto es totalmente aleatoria, durante el tiempo que permanezca
lejos del estado de equilibrio.

32
Lo único claro es que cualquier molécula de soluto estará rodeada por un inmenso número de moléculas de
solvente: La proverbial aguja perdida en un pajar sólo nos daría una pálida imagen de la situación real. Así será
imposible conocer respecto al soluto cuál sea la posición y la velocidad de cada molécula, vale decir, cuál sea su
estado inicial ; e, incluso, si supuestamente lo conociéramos, no sabríamos calcularlo al momento siguiente, ni en
ningún instante posterior –tal cálculo preciso de sus trayectorias es imposible, ya que son movimientos totalmente
aleatorios, es decir, se trata de trayectorias caóticas-. La inestabilidad del sistema es evidente.
La descripción de las condiciones iniciales de cada molécula de soluto, entonces, corresponde propiamente a
una distribución de probabilidad en el espacio de las fases (o sea, se trata de una descripción no local u holística).
En la solución real, por su parte, tendremos que una propensión oculta, correspondiente a la fase soluto, tiene
ahora la oportunidad de manifestarse (al existir un estado neguentrópico).
Sin embargo, lo más importante es lo siguiente: la inestabilidad del sistema implica que además del soluto,
son las moléculas de solvente las que están en un estado caótico, y estas moléculas presentarán trayectorias
caóticas en el espacio de las fases, determinando así el fenómeno homeopático en la medida que estas trayectorias
son influídas -por medio de resonancias- por la presencia del soluto y su propensión hasta ahora oculta.
Establezcamos con Sametband lo que se entiende por "trayectoria caótica": "una trayectoria caótica en el
espacio de las fases tiene tres características: 1) se mantiene en una zona limitada de dicho espacio ; 2) no se
estabiliza pues no pasa a un régimen periódico ; 3) tiene sensibilidad a las condiciones iniciales".(M.J.
Sametband, 1994, p.11.)
Debemos suponer que si las moléculas de solvente presentan una trayectoria caótica, el conjunto de ellas se
representará, por tanto, por un "atractor extraño" –región del espacio de las fases donde pequeñas diferencias en
las posiciones iniciales de dos puntos divergen en el tiempo cada vez más, haciéndose impredecibles, lo que nos
lleva a (3)-; atractor extraño que ocupa sólo una zona en el espacio de las fases (1). Aclaremos que (2) es válido
sólo mientras persiste el estado de caos, es decir, mientras el sistema permanece en un estado de no equilibrio (en
un estado neguentrópico), pero posteriormente debería estabilizarse. Lo que hace una diferencia significativa con
los sistemas abiertos en estado de no equilibrio, que no se estabilizan (al menos, mientras reciban energía). En
todo caso, es (3), la sensibilidad a las condiciones iniciales, la característica que deseamos destacar por su
importancia decisiva en la producción de las "diluciones homeopáticas". De otra manera, el solvente jamás podría
ser sensible a las resonancias del soluto.
Es muy importante recordar que la inestabilidad del sistema se explica por la persistencia durante cierto tiempo
del estado neguentrópico -de aquel estado transitorio en el cual la fase soluto no obedece a la segunda Ley-. Sin
embargo, finalmente la segunda Ley se impondrá sobre la solución –habiendo desaparecido para ese entonces la
diferencia entre fase soluto y fase solvente-, y se alcanzará el equilibrio cuando las pocas moléculas de soluto
estén distribuídas homogéneamente en el espacio total de la solución. Pues se trata de un sistema dinámico
disipativo (se pierde energía libre, ya veremos en qué). Pero antes de que se alcance ese equilibrio, se produce el
verdadero fenómeno que estamos estudiando. Y en las próximas páginas nos dedicaremos a desentrañar sus
peculiaridades.

33
EL FENÓMENO ESPECIAL DE LA "DILUCIONES HOMEOPÁTICAS"
Comparemos tres situaciones que nos permitirá entender mejor el mecanismo que presumiblemente está detrás
del fenómeno de las "diluciones homeopáticas". La primera situación es la del agua sola, que constituye de por sí
un sistema dinámico inestable, como ya vimos. El hecho de que el agua presente polímeros que están unidos por
puentes de Hidrógeno, o –para decirlo con otras palabras- que presente una estructura, implica la existencia de
resonancias responsables de conducir a la inestabilidad del sistema. (Ésto explica también la elevada temperatura
de ebullición del agua, ya que se requiere de romper todos estos puentes de Hidrógeno para permitir la separación
de sus moléculas y la formación del vapor.Lachek, Diner y Fargue, 1989, p.133.)
La segunda situación es la de una solución concentrada, la cual constituye, por el contrario, un sistema
dinámico estable –siempre que no sea una solución saturada-. Y, por último, la tercera situación es la de una
solución diluída, la "dilución homeopática", que constituye –al igual que el agua sola- un sistema dinámico
inestable. Pero con características propias que tendremos que pasar a estudiar:
Por una parte, en la trayectoria en el espacio de las fases correspondiente a las moléculas de solvente, dos
puntos cualesquiera divergen uno de otro en el tiempo a causa de la sensibilidad a las condiciones iniciales que
presenta (atractor extraño); fenómeno que en el caso del agua pura no está presente, pues carece de la influencia
del soluto (inexistente).
Es decir, en una solución diluída las moléculas de agua, que poseen dos grados de libertad como son la
velocidad y la masa (el momento), sufren el efecto de un tercer grado de libertad aportado por el soluto
(resonancia).
Pero, posteriormente, la trayectoria en el espacio de las fases correspondiente a esas mismas moléculas debería
finalmente convergir hacia el atractor que pertenece al estado estacionario del sistema –y que corresponde
al punto atractor-; lo mismo que en el caso del agua pura que ha alcanzado su equilibrio térmico con el ambiente.
Una vez alcanzado este estado estacionario, nada nuevo puede ocurrir con el transcurso del tiempo. Es decir que,
finalmente, cuando se ha alcanzado el equilibrio, las moléculas de soluto se distribuyen homogénamente en el
espacio real de la solución de manera similar a una solución concentrada.
Al comparar el comportamiento del agua pura con el de la solución diluída, podemos observar que la
inestabilidad no explica todo el mecanismo subyacente a las "diluciones homeopáticas". Además de la
inestabilidad, que por sí sola no la distingue del agua pura, debe existir un tipo especial de resonancia –la
correspondiente al soluto diluído- que sea capaz de imponerse a la solución total mediante el caos.
Esta es la diferencia crucial que caracteriza a la "dilución homeopática": la presencia del orden aportado por
el soluto (una clase del mismo orden pequeña en extensión).
Tenemos, entonces, un sistema dinámico inestable, en el cual la más pequeña modificación en las
condiciones iniciales, se amplificará. Y conjeturamos que estas modificaciones podrían proceder de
las resonancias que se establecen entre el momento de los electrones periféricos del soluto –aquellos que
intervienen en las reacciones químicas en las cuales el soluto pueda participar-, y el momento de los electrones,
implicados en los puentes de Hidrógeno de los polímeros de agua, del solvente.
Imaginamos la situación de la siguiente manera: La vibración electrónica del soluto constituye una fluctuación
que se va amplificando tanto al repetirse innumerables veces en el tiempo como al encontrar eco en los electrones
de los puentes de Hidrógeno del agua. Estos últimos actúan como una especie de espejo reflector que va afectando
a nuevas moléculas de solvente. Ha aparecido una nueva variable (un tercer grado de libertad), que es la oscilación
de cierta determinada frecuencia aportada por el soluto.

34
A partir del instante en que se producen estas resonancias, vale decir: desde el principio mismo del proceso de
dilución y sucusión, podemos suponer que el sistema pasará por lo que se llama una "bifurcación" –lo cual es otra
forma de decir que hay una pérdida de la estabilidad del sistema-, determinando una evolución muy diferente a
la que tendría el mismo sistema en ausencia de dichas específicas resonancias (procedentes del soluto); vale decir,
como si sólo se tratara de agua.
En ausencia de un estado neguentrópico -y, por tanto, en ausencia de resonancias especiales como las aportadas
por algún soluto-, como es el caso del agua pura, la estabilidad del sistema es alcanzada mucho más rápidamente.
Recordemos que el movimiento de todo fluído viscoso, como es el agua, "se frena por rozamiento y tiende hacia
un estado de reposo a menos que se le aporte energía continuamente". (David Ruelle, 1993, p.58.) Además, en
la "dilución homeopática" hay un aporte extra de energía mediante la sucusión que, con toda seguridad, alarga el
proceso. Desde luego, en cualquiera de los dos casos y debido a las resonancias propias de los sistemas inestables,
se produce una ruptura de la simetría temporal, o sea, el proceso se hace finalmente irreversible.
Sin duda, las resonancias están presentes tanto por parte del soluto como por parte del solvente. Pero las
resonancias del solvente se encontrarán mayoritariamente absorvidas por los polímeros de agua espontáneos –
es decir, no inducidos por el soluto-, determinando correlaciones propias del agua.
Entonces, únicamente las resonancias del soluto –que son cualitativamente diferentes a las que existen en el
solvente- pueden influenciar a éste de una forma especial ; mas sólo pueden hacerlo mientras dura el estado
neguentrópico, ya que es un proceso que consume la energía libre del sistema (probablemente incrementada por
la sucusión). Además, por el hecho de producirse en el seno de un líquido estructurado, las resonancias del soluto
poseen la suficiente persistencia como para provocar correlaciones entre las moléculas del solvente y dar lugar,
así, a la formación de polímeros muy especiales.
Para entender de dónde proceden estas resonancias, recordemos que los electrones son partículas que presentan
una onda asociada tal que la relación entre la longitud de onda l y el momento p de la partícula es: p = h
/ l ; siendo h, la constante de Plank. Ciertamente que en lugar de la longitud de onda podríamos considerar la
frecuencia, o el momento, pero las consecuencias sobre la explicación son exactamente las mismas

35
DOS PERSPECTIVAS DE ANÁLISIS
Ahora podemos elegir entre dos perspectivas para realizar el análisis del mecanismo de producción de las
"diluciones homeopáticas", las que podemos considerar como dos versiones de una misma teoría. Una de ellas es
la perspectiva estadística: En el inmenso conjunto de las moléculas de agua, siempre habrá un subconjunto que
presente en los electrones de sus puentes de Hidrógeno, el mismo momento –o, más probablemente, una relación
numérica simple suya- que el de los electrones periféricos del soluto. Se producirá, así, entre ambos momentos –
el del soluto y el del solvente- un fenómeno de resonancia.
Mediante el efecto Doppler –de manera semejante al caso de la muestra gaseosa irradiada con luz de láser-
serán seleccionadas aquellas moléculas de agua que presenten en los electrones de sus puentes de Hidrógeno el
mismo momento (o la misma longitud de onda o la misma frecuencia) que los electrones periféricos del soluto,
dando lugar a resonancias que conducirán a la producción de algunos cuantos polímeros de agua especiales.
Cada molécula de soluto en su interacción con el solvente que le rodea, representa un suceso singular que
expresa una cierta probabilidad objetiva, o -para hablar en términos de Popper- que manifiesta una
cierta propensión. ¿Propensión a qué? Propensión a interactuar con –y, de esta manera, seleccionar a- los
polímeros de agua de la misma frecuencia electrónica (o una relación simple de esa frecuencia), determinando
correlaciones diferentes a las que se encuentran espontáneamente en el agua pura.
En los primeros instantes de este proceso, entonces, habría al interior del volumen total de la solución sólo un
cierto número relativamente pequeño de micro-regiones con las correlaciones moleculares producidas por las
resonancias del soluto. La razón es que manifiestan la propensión de un suceso raro (improbable).
O sea, habría un cierto número de micro-regiones aisladas constituídas por los polímeros de agua especiales,
separadas por moléculas de solvente constituídas ya sea por polímeros irrelevantes, ya sea por moléculas únicas
en estado de agitación térmica.
Pero, existen dos factores que podrían incrementar grandemente este efecto de las resonancias del soluto:
Primero, es muy probable que exista –al igual que en la mayoría de los sistemas caóticos- una realimentación
del proceso: estos mismos polímeros de agua especiales pueden ser capaces de influenciar sobre su propia
velocidad de formación (autocatálisis).
Además, según la Mecánica de fluídos, pero interpretada por Ruelle en términos de atractores extraños (por
ser un sistema disipativo), cuando se excita un fluído viscoso mediante la acción de fuerzas cada vez mayores -o
que se suman en el tiempo como es el caso de la dilución con sucusión-, aparece repentinamente un espectro
continuo de frecuencias. (David Ruelle, 1993, p.73.) Es decir, entonces, que las posibilidades de que los polímeros
de agua de la "dilución homeopática", pudieran resonar con la frecuencia emitida por el soluto, son enormes ; y
de seguro mayores que sin sucusión.
En un momento inmediatamente posterior de este mismo proceso, y como consecuencia de estos dos factores
recién mencionados, debería producirse un fenómeno de difusión, fenómeno irreversible descrito así por
Prigogine: "Se trata de un fenómeno orientado en el tiempo, pues, si partimos de una nube concentrada de puntos
en el origen, esta nube se dispersará con el tiempo y algunos puntos se encontrarán lejos del origen y otros
cerca".(Ilya Prigogine, 1996, p.47.)
Su interpretación sería la siguiente: las resonancias se propagan al resto del solvente (proceso que la sucusión
acelera con toda probabilidad), desde distintos centros de resonancia, "reclutando" más y más moléculas de agua
–recordemos que es un sistema inestable, en el cual el efecto se amplifica- hasta alcanzar su equilibrio. Una
pequeña causa al inicio provoca un gran efecto al final. Debemos suponer que los polímeros de agua especiales –
36
resultantes de la acción de las resonancias del soluto-, conjuntamente con las moléculas de soluto que aún
persisten, tenderán a distribuirse homogéneamente entre las moléculas de solvente (distribución equiprobable),
dentro del espacio real. Correlativamente se podría hablar, entonces, de una "evolución hacia una dispersión
uniforme en todo el espacio de las fases" (Prigogine).
Es decir, que el sistema se comporta a partir de este momento como si fuera un sistema estable: todo sistema
dinámico disipativo acaba después de un tiempo por seguir un comportamiento estable y previsible descrito por
el atractor (Sametband). Recordemos que el atractor es la región del espacio de las fases de los sistemas disipativos
hacia el cual convergen las trayectorias, y que en este momento de la evolución es el punto atractor. Lo especial
de este caso -a diferencia de los casos típicos del caos en sistemas abiertos-, está en que, habiendo cesado el aporte
de energía desde el medio (sucusión), se constituye en un sistema aislado que finalmente alcanza su equilibrio.
Así, la segunda Ley ha triunfado nuevamente, pues se ha alcanzado un nuevo equilibrio termodinámico, pero con
una situación cualitativamente muy diferente: Se ha difundido un nuevo tipo de orden (el del soluto).
Unas cuantas moléculas, al principio –o sea, la clase del mismo orden constituída exclusivamente por el soluto-
, se va ampliando progresivamente con los polímeros especiales del solvente (redundancia) hasta conformar una
clase del mismo orden de gran extensión (un macroestado), vale decir, se genera un nuevo estado de equilibrio.
Se podría decir que el soluto ha impuesto su impronta al solvente.
La siguiente alusión al papel de la redundancia, por parte de Atlan, es atingente aquí: "...resulta que la
redundancia es una medida de la simplicidad y del ‘orden’. Así el orden sería más bien repetitivo o redundante".
Y luego hace la aclaración de que no es necesario que sea "físicamente repetitivo, como en un cristal, en el
sentido de un elemento o motivo único repetido gran número de veces".(Henry Atlan, 1990, p.83.) Sin embargo,
es precisamente este tipo de redundancia (y este tipo de orden), de un patrón que se repite un gran número de
veces, el que observamos en las "diluciones homeopáticas". El patrón de orden es, naturalmente, el del soluto (del
cual constituye su Información).
Es interesante observar que, en cada uno de los procesos de dilución y sucusión –dentro de la escala gradual
de diluciones-, la diferencia cualitativa entre fase soluto y fase solvente va desapareciendo paulatinamente -a la
par de que se vuelven un solo sistema-, en la medida que las resonancias del soluto se imponen al solvente, hasta
alcanzar el equilibrio. En el estado de equilibrio, la Información alcanza su máximo (aunque está como
Información latente).
Posteriormente, cuando el reiterado proceso de dilución ha sobrepasado el Número de Avogadro (solución
cero), la diferencia entre fase soluto y fase solvente ha desaparecido completamente, para ser reemplazada por la
siguiente: moléculas diferenciadas (con Información), que constituyen la nueva fase soluto, y moléculas
indiferenciadas (sin Información), en estado de agitación térmica, que constituye la nueva fase solvente.
Al abrir el sistema con cada dilución, se incorpora un nuevo solvente –moléculas de agua en estado de agitación
térmica-, que, a favor de la sucusión y mediante un flujo de correlaciones originados por las resonancias
electrónicas del soluto, se irán transformando a su vez en el nuevo "soluto" (en una cierta importante proporción).
En resumen: un microestado (una ordenación) primeramente muy escaso, bastante improbable por tanto –
constituyendo así un estado neguentrópico-, y que se desarrolla, como consecuencia de su persistencia temporal,
en un sistema dinámico inestable ; se difunde, transformándose en un macroestado muy extenso, de hecho en el
estado más probable y, por ende, de entropía máxima. Destaquemos, sin embargo, que este proceso culmina en
condiciones de aislamiento, lo cual constituye una diferencia fundamental con el enfoque de Prigogine –quien
nos habla de "sistemas abiertos lejos del estado de equilibrio"-. Pero el hecho de que sea finalmente un sistema
aislado permite que el resultado permanezca indefinidamente.
37
¿Qué papel juega la sucusión? Facilitada por la inestabilidad del sistema -la cual es provocada por la dilución:
que permite al sistema escaparse momentáneamente de las redes de la entropía (segunda Ley)-, la sucusión con
toda seguridad multiplica los efectos de las resonancias tanto en un primer momento como en su culminación.
Reconozcamos que la sucusión es una manera de aportar energía cinética al sistema: se incrementan, de esa forma,
los choques de las moléculas de agua entre sí y con las moléculas del soluto, favoreciéndose de este modo la
producción de las correlaciones moleculares y su difusión.
Un trabajo científico de Kondepudi y sus colaboradores, descrito por Prigogine, nos da una idea de la
importancia que puede tener la sucusión en la difusión de un cierto orden:
Los cristales de clorato de sodio (NaClO3) "son ópticamente activos, y hay dos formas: una forma dextrógira
y otra levógira. Si se enfría una solución de NaClO3, se forma el mismo número de cristales levógiros y
dextrógiros, aparte de algunas fluctuaciones estadísticas. Supongamos que agitamos la solución mientras se
enfría. Entonces comprobaremos que las moléculas dan todos los cristales levógiros o todos dextrógiros". (El
destacado es nuestro.) (Ilya Prigogine, 1997, p.32.)
En el experimento recién reseñado, cuando la solución está en reposo el sistema presenta una simetría de
"bifurcaciones", un cincuenta por ciento de los cristales se comporta de una forma y el otro cincuenta por ciento,
de la otra. O sea, estas bifurcaciones son independientes. En cambio, con la agitación –que es lo mismo que la
sucusión- se rompe la simetría del sistema, y "a causa de la agitación los gérmenes de los primeros cristales se
difunden por el medio", pero correspondiendo a una sola bifurcación (ya sea todos los cristales dextrógiros, ya
sea todos levógiros). La sucusión, entonces, parece determinar la difusión de un tipo único de orden ; de manera
semejante a lo que parece ocurrir en la preparación de las "diluciones homeopáticas", donde un único tipo de
orden, el correspondiente al soluto, se difunde por todo el sistema. Se trata de una determinada estructura del agua
–de un polímero acuoso muy especial- que se constituye en la configuración predominante.

38
ANÁLISIS DESDE UNA PERSPECTIVA ESTRUCTURAL
Hasta aquí nos hemos conformado con establecer la existencia estadísticamente probable de una fracción de
polímeros de agua que, por presentar en los electrones de sus puentes de Hidrógeno el mismo momento -o una
relación numérica simple suya- que el presentado por los electrones periféricos del soluto, pueden entrar en
resonancia con él. Ahora, si en lugar de preocuparnos de un parámetro como el momento, fijamos nuestra mirada
en la estructura de los polímeros de agua –hablemos de "microestructura"-, observaremos que las moléculas de
agua aumentan en complejidad con el proceso de resonancia.
Conjeturamos que existe una relación causal entre estas microestructuras, vale decir, la reiteración (o
redundancia) de cierta estructura compleja de polímeros de agua -y que parece corresponder a lo que Prigogine
llama "estructuras disipativas" (véase, sin embargo, más adelante)-, y las frecuencias electrónico-moleculares del
soluto, mediante la resonancia. El análisis de esta relación nos lleva al concepto de Información, pero antes
debemos dejar en claro el porqué se requiere de este nuevo paso.
El proceso descrito presenta cierta analogía con otro proceso físico muy conocido: el de la cristalización. Al
igual que en éste, la ganancia de orden no invalida a la segunda Ley. El orden ganado consiste en la reproducción
de un cierto patrón –que, en el caso que nos ocupa, es el aportado por el soluto- el cual, siendo en un principio
muy menor, se extiende imponiéndose al solvente. Finalmente, el agua se ordena. (Sin embargo, hay una
diferencia fundamental: en el fenómeno de cristalización se trata de una solución saturada, es decir, lo contrario
de la "dilución homeopática". La abundancia de moléculas de soluto propicia una alta frecuencia de colisiones
moleculares que consumen la energía interna del sistema, llevándolo rápidamente al equilibrio. En el caso de la
"dilución homeopática", por su parte, estas colisiones son aisladas y permiten así la existencia de un estado
neguentrópico.)
Este hecho nos inspira dos comentarios: Primero, que no es necesario apelar a ninguna especie de misteriosa
"memoria", para explicar cómo el agua puede ser capaz de conservar un cierto patrón (ya hablaremos de éste),
que anteriormente le era ajeno. Y, segundo, que el agua –mediante la maravillosa plasticidad que le proporcionan
sus puentes de Hidrógeno- tiene la capacidad de almacenar "algo" que no queda adecuadamente descrito con
denominarlo simplemente "patrón del soluto".
Un patrón es un cierto orden proporcionado por un agente ordenador, luego, es un tipo de orden pasivo. Si
decimos que la causa de este orden está en el soluto –lo cual es evidente-, entonces resulta imposible explicar la
persistencia de este orden una vez que el soluto ha desaparecido (solución cero). Luego este concepto es
claramente insuficiente.
Es necesario que las moléculas de agua no solamente presenten un cierto grado de orden –que se expresa en
la microestructura de los polímeros de agua-, sino que además posean la capacidad de transmitir ese mismo
orden a otras moléculas de agua (desordenadas éstas) convirtiéndolas en nuevos polímeros de agua ordenados.
Tanto las moléculas de soluto –mientras todavía persisten- como los polímeros de agua ordenados por el soluto,
deben presentar no sólo el mismo nivel de orden sino que también la capacidad de transferirlo a nuevas
moléculas de agua (que actúan como receptoras).
Antes de hablar de la Información, deberemos establecer la importante distinción entre dos conceptos de orden:
el orden ordenado y el orden ordenante.

39
EL CONCEPTO DE ORDEN Y EL CONCEPTO DE INFORMACIÓN
En un apartado anterior, preguntábamos si la neguentropía no sería un concepto propio, relacionado pero
distinto al concepto de entropía. Es decir, si se trata de un concepto definible positivamente o, más bien, de un
concepto negativo, como la mera disminución de la entropía. La respuesta fué claramente afirmativa. La
neguentropía expresa cualquier estado improbable –y que por ser improbable se encuentra alejado del estado de
equilibrio-, lo que es equivalente a decir "estado ordenado". Pero el orden no es simplemente la ausencia –es más
que la mera ausencia- de desorden (o sea, de entropía). Para entender ésto, debemos distinguir entre un
orden ordenado y un orden ordenante.
Un orden ordenado exige un agente externo para existir, del cual pasa a depender ; como el orden de un
aposento, por ejemplo. Un orden ordenante, en cambio, depende sólo de sí mismo. Lo cual implica que el orden
ordenado se desordena, por lo que requiere de un constante flujo de energía para sustentarse en el tiempo –y evitar
así el desorden-. Realizar un trabajo implica ordenar el movimiento desordenado de las moléculas (que es calor),
hacerlas desplazarse en una dirección privilegiada, pero esta transformación impuesta desde fuera nunca puede
ser total. Siempre persistirá un cierto nivel de desorden molecular, el cual se traduce en calor no utilizable, es
decir, en calor que no puede ser reutilizado para producir trabajo (entropía). Es lo que afirma la segunda Ley en
su interpretación estadística (Boltzmann).
Contrariamente, el orden ordenante no se desordena porque no es el resultado de un consumo de energía sino
que es orden desde el principio mismo. Vale decir, que el orden en sentido estricto -como orden ordenante-
persiste en el tiempo y posee, además (y por eso mismo), la capacidad de ordenar. Es a este orden entendido de
esta manera, al cual nos gustaría llamar "Información".
Entendemos perfectamente que no es éste el sentido con el cual se le usa en la "Teoría de la información".
Frente a éso, permítasenos decir dos cosas: (1) La "Teoría de la información" es demasiado restrictiva,
especialmente cuando se le quiere utilizar en Biología ; y (2) el concepto de Información que usaremos no sólo
extiende el concepto anterior, sino que intenta desarrollar su sentido implícito –o sea, se trata de un concepto
semántico-.
El concepto (sintáctico) de Información -el concepto de cantidad de información-, surge en un primer
momento, con Shannon, como parte de una teoría aplicada a resolver problemas de transmisión de mensajes en
vías de comunicación ; y es definido por Henry Atlan de la siguiente manera:
"La cantidad de información total de un mensaje es una magnitud que mide, en gran número de mensajes
escritos en la misma lengua con el mismo alfabeto, la probabilidad media de aparición de las letras o símbolos
del mensaje, multiplicada por el número de letras o símbolos del mensaje. La cantidad de información media por
letra se designa a menudo con el nombre de cantidad de información o entropía del mensaje, gracias a la
analogía entre la fórmula de Shannon, que la expresa a partir de las probabilidades de las letras, y la fórmula
de Boltzmann que expresa la entropía de un sistema físico con la ayuda de las probabilidades de los distintos
‘estados’ en los que el sistema puede encontrarse".(Henry Atlan, 1990, p.48.)
Sin embargo, "...la teoría de Shannon sólo ha permitido cuantificar la información al precio de poner entre
paréntesis su significación".(Henry Atlan, 1990, p.77.)
¿Puede bastar un concepto meramente sintáctico de Información? Atlan responde: "Ahora bien, de hecho, se
sabe que un mensaje sin significación no tiene interés y en último término, no existe". (El destacado es nuestro)
(Henry Atlan, 1990, p.39.) Luego hace la comparación con el servicio de Correos, al cual sólo le importa la
distribución de cartas y no el contenido de éstas. Más exactamente, a la teoría de Shannon sólo le compete la

40
transmisión fiel de señales por una vía, con exclusión de las operaciones de codificación y decodificación en el
emisor y el destinatario, respectivamente, lo que dice relación con el significado y la eficacia de los mensajes.
Ante todo, quisiéramos defender un concepto de Información totalmente objetivo y libre de cualquier rasgo de
antropomorfismo. En la "Teoría de la información", se considera grosso modo que la complejidad de un sistema
es igual a la cantidad de información necesaria –que nos hace falta- para describir (o especificar) a ese sistema.
En esta concepción el observador es, por tanto, inevitable. En palabras de Henry Atlan: "Sabemos desde Brillouin
que la cantidad de información de un sistema (la función H) es la medida de la información que nos falta, la
incertidumbre sobre este sistema".(Henry Atlan, 1990, p.78.)
Como puede verse, no se habla de la Información en sí misma, más allá de la esfera humana,
independientemente de que pueda ser o no aprehendida por algún sujeto humano y luego descrita por él. Es
evidente que siempre será posible distinguir entre el acto de describir (o cuantificar) la cantidad de información
del sistema que sea el caso, y aquello que es descrito (o cuantificado) en ese acto –es decir, más allá de ser
considerado un simple conjunto de señales-. Es igualmente evidente que el carácter ordenado de un sistema –por
más que pueda ser equivalente a una cierta cantidad de información-, le pertenece al sistema como una propiedad
suya y no es puesta por el observador en ninguna forma. Aunque la descripción que el observador hace del sistema
–y la cantidad de información que cuantifica en él-, pueda ser un reflejo objetivo del orden que presenta el sistema
(el cual es un ente real que existe en el universo), de todas maneras la descripción no es lo descrito, por tanto, el
mensaje no es la Información sino su consecuencia.

41
EL CONCEPTO SINTÁCTICO O FORMAL DE CANTIDAD DE INFORMACIÓN
Veamos todavía con mayor detalle el concepto de cantidad de información: "La cantidad de información de
un sistema, compuesto de partes, se define entonces a partir de las probabilidades que pueden asignarse a cada
uno de sus componentes, en un conjunto de sistemas que se suponen estadísticamente homogéneos los unos con
los otros ; o también a partir del conjunto de las combinaciones que es posible realizar con sus componentes,
lo que constituye el conjunto de los estados posibles del sistema". (Los destacados son nuestros.) (Henry Atlan,
1990, p.48.)
Si suponemos que un sistema complejo no es el resultado del mero azar, entonces la cantidad de
información mide el grado de improbabilidad de que el sistema considerado se haya constituído exclusivamente
por azar.(Henry Atlan, 1990, p.49.) De todas las combinaciones posibles entre los elementos constitutivos del
sistema, solamente un grupo muy reducido de ellas y, en rigor, una única combinación de tales elementos es la
que concretamente realiza el sistema que sea el caso. (Es como armar las piezas de un rompecabezas.)
Y mientras mayor sea el número de elementos que constituyen tal sistema, será más grande la cantidad de
información, ya que será todavía más improbable que esos elementos se hayan articulado por simple azar. (Como
si se tratara de un rompecabezas con mayor número de piezas.)
Tenemos así que a mayor complejidad del sistema, mayor es la improbabilidad de que se haya constituído por
azar. Se puede considerar que la improbabilidad mide nuestra incertidumbre (probabilidad subjetiva) a su
respecto, pero también puede considerarse que mide una propensión (probabilidad objetiva) de ese específico
sistema a ser tal cual es. Este último punto es el que nos interesará defender en el presente trabajo.
Ahora bien, en último término ese sistema podría ser el resultado del puro azar, pero en la medida en que el
sistema es más complejo la improbabilidad de que ése sea el caso es todavía mayor ; de ahí que la cantidad de
información pueda ser considerada como una medida de la complejidad. Para decirlo con otras palabras, tal
situación no es imposible, pero sí altamente improbable. ¿Cuán improbable? Éso es exactamente lo que mide la
cantidad de información.
Dado que la complejidad es un concepto íntimamente asociado al concepto de orden, su aclaración es muy
importante porque –dentro de poco- haremos uso de la complejidad de la estructura molecular –en lugar de hablar,
desde la perspectiva estadística, de una "mera coincidencia por azar de momentos electrónicos"-, para penetrar
más profundamente en el mecanismo de producción de las "diluciones homeopáticas".
Es fácil confundirse con los conceptos de orden, desorden y complejidad tal cual se usan en la literatura,
precisamente por este subjetivismo introducido por la "Teoría de la información" de Shannon. Por una parte,
Atlan advierte: "...J. Tonnelat ha visto bien el carácter relativo y en parte arbitrario de las nociones de orden y
desorden aplicadas a la realidad física y por ello prefiere eliminarlas del lenguaje termodinámico ; para él, la
entropía no mide el desorden sino la complejidad".
Pero, por otra parte, reconoce que: "Hemos llegado a un resultado semejante sin eliminar por ello la
problemática del orden y del desorden, aunque incluyendo en ella esa relatividad debida al papel del
observador".(Henry Atlan, 1990, p.82.)
El papel del observador determina, por ejemplo, que la complejidad sea un concepto negativo: "expresa que no
se conoce, o que no se comprende un sistema".(Henry Atlan, 1990, p.80.) Si podemos ser capaces de reconstruir
un sistema a partir de sus elementos, es decir, si podemos "construirlo", ya sea mentalmente –lo que se llama
"comprender"-, ya sea concretamente en la práctica, es porque poseemos la total cantidad de información del
sistema. Pero, en su defecto, esta cantidad de información que nos falta expresa (o mide) la complejidad del

42
sistema para nosotros. De manera que la complejidad del sistema no es la complejidad del sistema en sí mismo,
sino que la entropía o incertidumbre del sistema para el observador.
Lo anterior se fundaría en lo siguiente: "Hacemos hincapié en que la función H [de Boltzmann] que mide la
complejidad es una generalización de la entropía de un sistema físico en el que se considera una medida de su
desorden molecular".(Henry Atlan, 1990, p.81.) Es decir, el estado de desorden máximo de un sistema (o entropía
máxima) es, también, el estado de mayor complejidad porque es el estado "donde carecemos totalmente de
información".
La ecuación es: Entropía = falta de Información. Así, el orden aparece en una estructura solamente "si se la
conoce, si se comprenden sus articulaciones, el código que rige la disposición de los elementos". Y Atlan
concluye: "...la complejidad es un desorden aparente donde se tienen razones para suponer un orden
oculto".(Henry Atlan, 1990, p.82.)

43
LA COMPLEJIDAD COMO CONCEPTO OBJETIVO
Si bien Atlan acepta que: "La organización de lo vivo, como la de todo sistema natural, es un estado y un
proceso que aparecen como tales a quien observe su naturaleza"; acto seguido, agrega: "Pero es también el
resultado de la actividad organizadora de este observador".(Henry Atlan, 1990, p.65.) La conexión del orden (y
del desorden) con el observador cubre –en nuestro criterio- de un velo de subjetivismo al concepto de Información.
La complejidad no es la complejidad de la estructura y punto, sino que expresa más bien nuestra ignorancia a su
respecto; y cuando la conocemos, ya no la llamamos "complejidad" sino que "complicación". La complicación,
nos dice Atlan, "sólo expresa, como máximo, un gran número de etapas o de instrucciones para describir,
especificar o construir un sistema a partir de sus constituyentes", vale decir, es una complejidad que ya se conoce.
¿No es acaso posible tener un concepto objetivo de complejidad? Atlan es escéptico: "La práctica científica
es un avatar de esta actividad organizadora del espíritu humano, organizando lo real al descubrir su
organización, donde el ‘yo’, aunque existente y actuante, se supone neutro y sin efectos: objetividad
científica".(Henry Atlan, 1990, p.64.)
Pero la objetividad científica, pensamos nosotros, no sólo es posible sino que es imprescindible: "Hasta ahora
hemos usado el término complejidad para un estado en el que muchos factores diferentes interactúan entre sí.
Pero hay que dar mayor precisión a este concepto, ya que la complejidad de un sistema no debe confundirse con
que un sistema sea meramente complicado". (M.J. Sametband, 1994, p.103.)
Sametband reconoce la dificultad de esta tarea –llamándola "el nuevo desafío de la ciencia"-, manifestando
sus dudas respecto a que "el territorio de la complejidad, que está situado entre el caos y el orden" se pueda
reducir a una única magnitud (similar a la temperatura, por ejemplo). "Posiblemente la mejor solución al
problema sea la propuesta por los especialistas en computación". (M.J. Sametband, 1994, p.104.)
Estamos hablando, por ende, de una definición operacional: "Si se adopta este punto de vista, entonces se
podría medir la complejidad en función de, por ejemplo, el tiempo que requiere una computadora para ejecutar
un programa que simule un proceso físico complejo". (M.J. Sametband, 1994, p.104.)
Y continúa: "Se han propuesto diferentes fórmulas, como la de medir el tiempo mínimo necesario para que
una máquina ejecute el programa, o también medir la capacidad mínima de memoria que debe tener la
computadora para correr ese programa". (M.J. Sametband, 1994, p.105.)
Para tal fin, es necesario usar una máquina ideal (la "máquina de Turing": ideada por el matemático inglés
Alan Turing en 1936), que actúe como un patrón al cual se puedan referir las diferentes magnitudes –las que
dependen, obviamente, del tipo y capacidades del computador usado-, para fines de comparación.
Pero más allá de tener una definición operacional de la complejidad, que sin duda se revela como necesaria,
es fundamental que tengamos un concepto objetivo de Información. Siempre es posible tener dos perspectivas
respecto a la Información, una perspectiva subjetiva –la de la "Teoría de la información"- y una perspectiva
objetiva:
Para una concepción subjetiva de la Información, ésta, una vez que ha sido conocida, deja de ser Información.
Y deja de ser Información para el sujeto receptor para el cual había sido Información hasta un momento antes de
conocerla.
Sin embargo, sigue siendo Información desde un punto de vista objetivo, al menos como Información latente,
como una Información potencial para un posible nuevo sujeto receptor. Para una concepción objetiva, la
Información nunca puede dejar de ser tal, sólo puede cambiar de ser una Información activa –en presencia del
receptor adecuado- a ser una Información pasiva.
44
Para comprender ésto, piénsese en que, para eliminar una Información ya obsoleta, se requiere distinguirla de
la Información todavía útil ; luego, se necesita de una Información acerca de la obsolescencia de la Información
considerada obsoleta, la que es al menos parte de la Información desechada (o desechable). Puesto en palabras,
el sujeto dirá: "Esta Información dejó de serlo para mí", con lo cual estaría expresando, a su vez, una Información
(meta-Información). Es decir, la Información no puede desaparecer simplemente, sino que persiste aunque en otro
estado (Información latente).

45
LA INFORMACIÓN COMO CONCEPTO OBJETIVO
Previamente, eliminemos todo vestigio de antropomorfismo del concepto de Información. La Información
existe en la naturaleza y existe igualmente en la cultura humana –especialmente a través del lenguaje y otros tipos
de símbolos-. Sin embargo, a nivel humano la Información sufre una transformación, que es preciso tener en
cuenta con el fin de evitar que se refleje en el estudio de la naturaleza de una manera deformante.
Para el ser humano, la Información presenta dos aspectos que, en la realidad, son inseparables. Uno de esos
aspectos podríamos denominarlo "aspecto teórico", y al otro, "aspecto práctico". Por ejemplo, el plano realizado
por un arquitecto y la construcción concreta de la casa, son el aspecto teórico y el aspecto práctico de la
Información, respectivamente.
Por la intervención del pensamiento, estos dos aspectos se presentan momentáneamente separados. Así,
desde el aspecto teórico se pasa al aspecto práctico, a su ejecución, mediante el pensamiento: desde la casa
"construída" por medio de símbolos e imágenes hasta la construcción concreta de la casa. Por supuesto, este no
es un proceso en una sola etapa; por el contrario, existe una interacción dialéctica entre los aspectos teórico y
práctico que, a través de cambios adaptativos graduales, desemboca finalmente en la construcción definitiva.
El análisis anterior nos revela rasgos que son netamente humanos: la proyección en el pensamiento hacia un
futuro –todavía inexistente- de un orden virtual. En la naturaleza más allá de lo humano –y, por ende, más allá
del pensamiento-, los aspectos teóricos y prácticos no existen separadamente, de manera que la Información a
nivel de las estructuras moleculares –ya sean inertes, ya sean vivas- es simultáneamente tanto geometría
espacial como ejecutividad.
Es únicamente por obra del pensamiento que se introduce esta separación temporal entre la Teoría y la Praxis,
hasta el punto que cuando la Teoría es finalmente llevada a la práctica, el resultado es un tipo de orden ordenado
incapaz de sustentarse a sí mismo. Éste es, precisamente, el tipo de orden que se está desordenando todo el tiempo,
de acuerdo con la segunda Ley. La explicación es simple: entre el orden del pensamiento (tal cual éste lo entiende)
y el desorden molecular de la materia, existe una contradicción que requiere de trabajo -tanto en un sentido físico
propiamente tal como en su sentido cotidiano habitual- para ser superada.
En la naturaleza encontramos a la Información, orden ordenante que se expresa –por ejemplo, biológicamente-
en una organización (estructura ordenada) que si se desorganiza (si se desordena), tiene la capacidad de recuperar
su orden original. A ésto parece referirse Atlan cuando dice: "De este modo, el estado de organización de un
sistema es definido no sólo por su cantidad de información H, que sólo expresa un carácter estructural, sino
también por su organización funcional..."(Henry Atlan, 1990, p.55.)
La principal diferencia entre ambos tipos de orden –el orden ordenado y el orden ordenante-, está en que el
orden ordenante (o sea, la Información) es el único que es ejecutivo, es decir, que posee la capacidad de ordenar:
en primer lugar, a sí mismo, y luego, a su alrededor.
El orden que se expresa en la compleja estructura de una macromolécula, por ejemplo, es el plano de su
construcción (aspecto teórico) a la vez que la ejecución de ese plano (aspecto práctico) sin ninguna separación.
Entonces, la Información es actividad. ¿Qué conclusión se deriva de aquí? Que frente a una estructura molecular
cualquiera, junto con la distribución de las moléculas según un orden espacial determinado –el cual se puede
expresar por una cierta cantidad de información-, existe una disposición a actuar de una determinada manera.
Topamos ahora con el núcleo central del concepto de Información.

46
FORMA Y FUNCIÓN DE LA INFORMACION
La forma de la Información es la única hasta el presente considerada –y todavía con subjetivismo y
antropomorfismo-, o sea, la configuración ordenada, por ejemplo, de átomos y moléculas (neguentropía); mientras
que en la función nunca nadie ha reparado: su disposición a actuar de una determinada manera. Sin embargo,
este aspecto de la Información es el más importante –en nuestro criterio-, tanto como para considerarlo el más
adecuado para una definición.
Refiriéndose al concepto de complejidad, Atlan se lamentaba: "...especialmente a causa del carácter estático
y únicamente estructural de la complejidad de que se trata, con exclusión de una complejidad funcional y
dinámica, vinculada no al ensamblaje de los elementos de un sistema sino a las interacciones funcionales entre
estos elementos". (El destacado es nuestro.) (Henry Atlan, 1990, p.49.)
Y concluía así: "El problema de la definición precisa de la noción de complejidad como concepto científico
fundamental (análoga a los de energía, entropía, etc.) sigue, pues, planteado".(Henry Atlan, 1990, p.49.)
Pensamos que un concepto de complejidad funcional es innecesario si reinterpretamos el concepto de
Información de una manera objetiva.
Podríamos considerar a la Información, grosso modo, como la disposición que presenta una entidad física,
química, biológica (incluso humana) a actuar de una determinada manera en presencia del receptor adecuado.
Es evidente la semejanza entre este concepto de Información y el concepto popperiano de posibilidad como
propensión. Y esta semejanza, ciertamente, no es casual: la Información es, desde cierto punto de vista, una
posibilidad improbable, y como tal posibilidad puede ser interpretada como la propensión de un suceso singular
a hacer que éste ocurra. Desde otro punto de vista, esta propensión (o disposición) es un ente real –tal cual
también lo considera Popper-, y más específicamente, es para nosotros una forma especial de energía (energía no-
degradable).
Resulta interesante cuando Henry Atlan sostiene que: "En efecto, puede definirse, del modo operativo más
simple y más general, la significación de la información como el efecto de la recepción de cierta información
sobre su destinatario." (Los destacados son nuestros.) (Henry Atlan, 1990, p.91.) Está aludiendo al carácter
ejecutivo de la Información, y agrega que este efecto puede expresarse en un cambio de estado por parte del
receptor. Es la forma como se ve la Información desde el sujeto. Ahora bien, si la perspectiva elegida fuera la del
objeto –o sea, desde donde nace la Información-, entonces sería la capacidad de actuar de éste sobre el receptor
lo que resaltaríamos.
Antes de pasar a justificar nuestra hipótesis, permítasenos aclarar primero lo siguiente: existe la Información
activa y la Información pasiva (o latente). La Información sólo puede actuar en presencia del receptor adecuado,
y en su ausencia, permanece en estado latente. Alguien podría sugerir que, en lugar de hablar de "receptor",
habláramos de "estímulo", es decir, que la Información se haría activa en presencia del estímulo adecuado ; pero
este cambio de denominación –e, insensiblemente, cambio conceptual- sería un error. Pues si hablamos de
"estímulo", estamos –querámoslo o no- hablando de una pluralidad de elementos, vale decir, estamos
fragmentando la realidad (acción que en otro contexto podría estar justificada).
Por ejemplo, si un millón de personas –o un millón de telescopios o un millón de cámaras fotográficas-
observan un cuerpo celeste, tendremos un millón de estímulos separados. Para cada observador existe su propio
estímulo que es distinto del estímulo de otro. Ahora bien, ¿qué hay en común en ese millón de observaciones? La
respuesta, creemos, es clara: la misma Información. Aun cuando está distribuida en un millón de cerebros,
telescopios o cámaras fotográficas, la Información es la misma.

47
Existe además otra diferencia conceptual que es evidente: el estímulo es activo y el receptor es pasivo –pues
recibe pasivamente el efecto de la Información-. Ésto no impide que el receptor pueda también ser activo, pero
en el momento mismo en el cual la Información se hace activa –para ese sujeto- el receptor es pasivo.
De manera que el concepto de estímulo presupone al concepto de Información: el estímulo –que es siempre
alguna forma de energía- es el medio a través del cual la Información actúa en el ente receptor. Todavía más, el
mensaje no es la Información, el mensaje es propiamente el estímulo. No es posible separar en cualquiera sea el
estímulo considerado, el mensaje de la forma de energía que lo transporta. Pero, finalmente, el origen del mensaje
está en la Información.

48
LA RELACIÓN ENTRE INFORMACIÓN Y ENERGÍA
Surge ahora una pregunta fundamental: ¿Cuál es la relación entre la energía y la Información? No estamos
preguntando cuál sea la relación entre la energía y la cantidad de información –o sea, la incertidumbre o entropía
del sistema-. Sabemos por la "Teoría de la información" que, si consideramos cualquier proceso que especifique
el estado en que se encuentra un sistema como un generador de mensajes, entonces el mensaje acerca de cierto
estado por el cual pasa ese sistema reduce nuestra incertidumbre, reduciendo así la entropía y aumentando, con
ello, la energía libre del sistema en consideración. Pero, el incremento de energía libre es justamente igual a la
mínima energía libre necesaria para transmitir el mismo mensaje. Es decir, lo que se gana por un lado se pierde
por el otro: Se paga un precio por la cantidad de información que conduce a la reducción de la entropía del
sistema.(J.R. Pierce, 1962, p.234.)
Y ésto es así por efecto de la segunda Ley, que impide la reducción de la entropía en sistemas aislados, y por
la cual es imposible la existencia de máquinas de movimiento perpetuo de segundo género – máquinas capaces
de convertir la totalidad de la energía térmica en energía mecánica-, que sí serían posibles si no existiera este
costo.
La verdadera pregunta es: ¿Cuál es la relación entre la energía interna de un cierto sistema y la Información?
Dado que la energía interna de un sistema –vale decir, su contenido intrínseco de energía asociado a la estructura
atómica y molecular- es una propiedad de estado (y que depende además de la naturaleza del sistema considerado),
resulta, por tanto, imposible medir directamente su valor absoluto. Sólo es posible medir su diferencia entre un
estado de equilibrio y otro, y además de forma indirecta:
"Cualquier aplicación de la primera Ley involucra tres magnitudes relativas al sistema sometido a
consideración. Se supone que este sistema experimenta una modificación, por ejemplo, una expansión o un
cambio de temperatura o de presión, y que tales modificaciones podrán detectarse por observadores que escruten
las fronteras del sistema (se admite que el interior es inaccesible a toda inspección): así se observan dos de las
magnitudes en cuestión, a saber: el calor absorvido por el sistema, D Q, y el trabajo realizado por él, D W. A
través de definiciones operacionales que conllevan una referencia a ciertos instrumentos (termómetros,
manómetros, aparatos para medir volúmenes, etc.), es perfectamente posible determinar D Q y D W ; pero no
ocurre lo mismo con la tercera magnitud que se ha de introducir, el cambio de energía interna, D U. De
hecho, D U queda definida por la primera Ley: D U = D Q - D W ".(Los destacados son nuestros.) (Henry
Margenau, 1970, pp.198-199.)
Es fácil de entender que en un sistema cerrado en estado de equilibrio –el cual, por tanto, no realiza trabajo-,
la energía interna permanezca sin degradarse ; ya que si se degradara, en gran parte o completamente, el sistema
colapsaría.
Es evidente que del conjunto de las energías moleculares tales como sus movimientos de traslación, la rotación
de las moléculas en torno a sus centros de gravedad e, incluso, la vibración de los núcleos que las componen,
como asimismo de los efectos de sus interacciones ; todo lo cual constituye realmente la energía interna de
cualquier sistema, solamente una pequeña parte puede llegar a degradarse sin comprometer la integridad del
sistema.
Otra forma de expresar lo mismo, es considerando la Tercera ley de la Termodinámica, que permite la
determinación de entropías absolutas:
Esta ley establece que "la entropía de un estado de verdadero equilibrio del sistema en el cero absoluto es
cero".(A.D. Buckinggham, 1966, p.41) Se podría decir, entonces, que ella mide la energía no-degradable del
sistema (ya que la entropía es cero).
49
Esta forma de energía no-degradable –al menos, no degradable en largos períodos según la escala humana-,
constituye, según nuestra hipótesis, la Informaciónpropiamente tal. Ahora bien, esta energía parece ser capaz de
traspasar los límites del sistema -cuando éste se abre- e interactuar con su alrededor más inmediato. Por ejemplo:
si imaginamos un sistema constituído por una única molécula, entonces podemos concebir cómo puede esta
Información de la molécula interactuar, mediante la resonancia, con otras moléculas que se encuentran en sus
inmediaciones. Este microsistema pierde una pequeñísima parte de su energía no-degradable, pero la energía
misma no se destruye -pudiendo propagarse indefinidamente-.
Podemos llegar a una conclusión semejante partiendo de un ángulo diferente: el que la segunda Ley sea una
ley probabilística –a diferencia de la primera, que es estrictamente universal y determinista-, debe implicar una
tremenda consecuencia sobre el modo como funciona el universo. Más importante aún que el hecho de que sea
una ley probabilística, y como consecuencia de ello, es el que no sea estrictamente universal, o sea, que dé lugar
a la posibilidad de excepciones a la degradación de la energía.
Su naturaleza cuasi-universal podría implicar –es una hipótesis, pero una hipótesis razonable- que exista cierto
tipo especial de energía que posea la propiedad de ser no-degradable, la cual sólo se expresaría bajo ciertas
condiciones especiales: las de un estado neguentrópico, por ejemplo. En todo caso, no existen razones para negar
dicha hipótesis, ya que ésa podría perfectamente ser la razón de la naturaleza probabilística cuasi-universal (y no
universal) de la segunda Ley. Sería como decir: "se degrada solamente la energía que puede degradarse".
Por lo demás, desde un punto de vista estrictamente lógico, posee tanta validez científica sostener que "toda
energía es degradable" como la proposición opuesta, es decir que "no toda energía es degradable". En realidad,
sostener que toda energía sin excepción es degradable es el resultado de una inducción que podría ser falsa; es
como sostener que "todos los cuervos son negros", lo cual no descarta que alguna vez se descubra un cuervo que
no sea negro.
En todo caso, lo que es indudable es lo siguiente: es muy distinta en sus consecuencias acerca de cómo funciona
el universo, una ley que sostiene:
"Si un sistema es aislado, entonces en casi todos los casos pasará a estados de mayor entropía"; que aquella
que sostiene: "Si un sistema es aislado, entonces en todos los casos pasará a estados de mayor entropía".
En el primer enunciado, no sólo se deja abierta la posibilidad de que existan estados –al menos
transitoriamente- en los cuales la entropía no aumente (estados neguentrópicos).
Sino que implica la existencia de estos estados como una parte necesaria –aunque poco frecuente- de la
realidad, y con ellos, de la probable manifestación de posibilidades improbables omnipresentes. Y si estas
posibilidades improbables son propensiones físicamente reales, entonces quiere decir que son alguna forma de
energía que no se degrada.
En este mismo orden de ideas, debemos mencionar lo siguiente: se ha sostenido que el movimiento browniano
refutaría a la segunda Ley (Karl Popper, 1977, p.223.), al menos en su versión fenomenalista –aquella que sostiene
lo siguiente: "La entropía del Universo tiende hacia un máximo" (Clausius)-.
Pues sucede que, en un sistema cerrado, la temperatura en todos sus puntos tiende a un valor uniforme, y así,
cuando se alcanza el equilibrio, no hay manera de que la energía térmica se transforme en trabajo. Pero la partícula
browniana, que está en equilibrio térmico con el agua, sólo puede obtener su energía cinética de las moléculas de
ésta y, por ello, debe provocar un enfriamiento local del agua en la cual está suspendida. (Bernard H. Lavenda,
1985, p.41.)

50
Es decir, el movimiento browniano determina que no haya en el sistema, en ningún momento, un estado de
temperatura uniforme como la predicha por la segunda Ley, o sea, un estado de entropía máxima. Este hecho nos
sugiere, no que la segunda Ley sea falsa, sino que la naturaleza se las arregla de una u otra manera para evitar un
estado de equilibrio que sea definitivo y absoluto. Tal vez, conjeturamos, una manera de lograr ésto sea mediante
la Información que la partícula browniana transmite al agua, determinando un desequilibrio local.

51
LAS MICROESTRUCTURAS ACUOSAS Y LA CANTIDAD DE INFORMACIÓN
Mediante la resonancia, algunas moléculas de agua son "reclutadas" por la vibración electrónica de las
moléculas de soluto, y se transforman en microestructuras (polímeros de agua) que son sus equivalentes –en el
sentido de tener la misma Información-.
No queremos decir con ésto que los polímeros de agua sean una copia de las moléculas de soluto. No
solamente es innecesario que las microestructuras acuosas "copien" a las moléculas de soluto, sino que –si se
piensa bien- esta hipótesis resulta ser absurda. Es tan absurdo como pretender que la palabra "vino" tenga una
propiedad embriagadora. Ni un dibujo ni siquiera una fotografía pueden pretender ser, no ya idénticos, sino que
ni tan sólo realmente semejantes al objeto que se supone representan. Piénsese en que todo lo más expresan una
faz de las innumerables –quizás, infinitas- faces que posee verdaderamente el objeto real.
Sin embargo, a pesar de lo absurdo de tal pretensión, más de alguno de los críticos de la Homeopatía han
sostenido este argumento para intentar probar la supuesta imposibilidad de las "diluciones homeopáticas".
Evidentemente que es imposible que los polímeros de agua tengan precisamente ese tipo de relación con las
moléculas de soluto. No es posible que los polímeros de agua se parezcan –en ningún sentido de "parecerse"- a
cualquiera que sea la estructura molecular que constituya al soluto.
Lo que sí puede sostenerse como una condición de la persistencia de la misma Información del soluto en el
solvente (en los polímeros de agua), es que la microestructura acuosa tenga la misma cantidad de
información que la contenida en el soluto.
Digámoslo de otra forma:
El programa de computación –en una máquina de Turing- para "fabricar" la estructura molecular del soluto,
debe tener la misma cantidad de información, vale decir, el mismo grado de complejidad, que el programa para
"fabricar" a los polímeros de agua correspondientes. Es ésta una condición necesaria, aunque no suficiente, para
que ambas estructuras posean la misma Información.
Se deduce, entonces, que a mayor complejidad estructural del soluto, mayor debe ser también la complejidad
de los polímeros de agua, aunque conviene plantearse prudentemente un límite a este isomorfismo. Un lenguaje
cualquiera –como puede ser el lenguaje corriente, por ejemplo-, por mucha riqueza que posea tiene
necesariamente un límite que, si es superado, dará lugar a la ambiguedad y a la imprecisión. Lo importante, en
todo caso, es entender que los polímeros de agua deben ser considerados como un lenguaje –bastante flexible
gracias a sus puentes de Hidrógeno- capaz de expresar una gran variedad de Informaciones.
Hemos distinguido cuidadosamente entre cantidad de información –una medida de la complejidad- e
Información, porque se trata realmente de cosas distintas aunque íntimamente relacionadas. El concepto de
cantidad de información es un concepto de naturaleza meramente formal, sintáctico, y además cuantitativo ; y así,
dos estructuras cualesquieras pueden tener la misma cantidad de información, pero ser, sin embargo, dos
Informaciones totalmente diferentes desde una perspectiva cualitativa. La Información, por su parte, se expresa a
través de una cierta cantidad de información –para un cierto observador- tal como se presenta en la estructura
molecular que sea el caso, pero es principalmente el contenido que caracteriza cualitativamente a dicha estructura
(es un concepto semántico).
Como lo hemos dicho ya, la Información posee un carácter ejecutivo –la capacidad de actuar de una
determinada manera en presencia del receptor adecuado- que le permite, en este caso, ordenar a las moléculas de
agua transformándolas en polímeros de agua con una cierta determinada cantidad de información –con un cierto
mensaje-; todo lo cual expresa una cierta determinada complejidad.

52
Esta perspectiva es diferente a la perspectiva meramente estadística que habíamos utilizado anteriormente, y
con la cual, por cierto, no hay contradicción. No se trata ya de una cierta fracción del conjunto de moléculas de
agua que, por simple azar, poseen en los electrones de sus puentes de Hidrógeno el mismo momento que los
electrones periféricos de las moléculas de soluto, y que, por lo tanto, entran en resonancia con ellos. Es un proceso
que ocurre a un nivel más profundo, y se trata más bien de que la Información del soluto actúa
ordenando activamente a las moléculas de agua, aquellas que se encuentran rodeando a cada molécula de soluto.
Y esta acción ordenadora se extiende gradualmente por todo el volumen de la solución hasta alcanzar su equilibrio
–pasando el sistema de un estado inestable a uno estable-.

53
LA RESONANCIA COMO MEDIO DE TRANSMISIÓN DE LA INFORMACIÓN
Se establecen correlaciones entre las moléculas de la solución: primero, entre las moléculas del soluto y las
moléculas de agua, y luego, entre las moléculas de agua "ordenadas" y las otras moléculas de agua ; todo ésto en
un proceso activamente ordenante, debido a la presencia y persistencia de la Información del soluto. Prigogine
habla de "una historia de correlaciones que es resultado de acontecimientos sucesivos".
Ciertamente que la explicación que nosotros le damos –en términos de la presencia de la Información y de su
carácter ejecutivo- es muy diferente a cómo Prigogine entiende el proceso del caos, aunque de ninguna manera
lo contradice. Sin embargo, y a pesar de estas diferencias, muchos de los conceptos que Prigogine aplicó al estudio
de los sistemas inestables lejos del equilibrio –pero en sistemas abiertos con su alrededor-, nos han resultado de
mucha utilidad para comprender el proceso que nos ocupa.
Así, el concepto de resonancia lo entendemos como un medio de transmisión de la Información. No es,
entonces, la resonancia per se, sino que la Información mediante la resonancia la que efectivamente produciría la
transformación de las moléculas de agua en estructuras moleculares complejas, las cuales llegarán a presentar -
de esa manera- un tipo de orden que sería imposible que las simples moléculas de agua presentaran
espontáneamente. Es decir, el agua no contenía previamente esa Información, pero es el receptor adecuado de
ella.
A su vez, si las moléculas de agua no tuvieran esta capacidad receptora de la Información, su sola
transformación en polímeros de agua complejos no sería suficiente para transmitir dicha Información a nuevas
moléculas de agua –para poder reproducir así el proceso ad infinitum-. Esta es la razón por la cual la resonancia
por sí sola no asegura la continuidad del proceso ordenador.
De otra forma, se trataría nuevamente aquí de lo que hemos llamado un "orden ordenado", que terminaría por
agotarse rápidamente. Un orden ordenante, en cambio, es aquel que no queda destruído por el incremento de
entropía del sistema. ¿Por qué? Porque es el sistema como un todo el que ha cambiado. Ya no se trata
simplemente de un microestado incapaz de manifestarse macroscópicamente, sino que de un microestado –el
correspondiente al soluto- que se ha convertido en el macroestado predominante.
Y este macroestado predominante conserva la Información, como Información latente o pasiva, mientras el
sistema permanezca aislado. Todo sucede como si la Información activa, al hacerse redundante, se anulara a sí
misma tornándose latente.
Es muy importante destacar, entonces, que el orden expresado por la complejidad estructural de los polímeros
de agua, es el resultado de otro orden más profundo, que es el de la Información que mantiene y transmite ese
orden molecular. El orden de las moléculas de agua se puede perder –y de hecho, en una cierta tasa por unidad de
tiempo, se debería estar perdiendo constantemente (aunque siempre dentro del sistema aislado)-, pero se recupera
una y otra vez porque el "patrón ordenador" no se destruye jamás.

54
LA ESTRUCTURA DEL AGUA
Debemos considerar el siguiente hecho: el agua en condiciones de equilibrio térmico con su ambiente, presenta
espontáneamente microestructuras: "Para el caso del agua se han observado mediante rayos x y difracción de
neutrones, regularidades que confirman la existencia de estructuras que poseen un tiempo de vida del orden de
10-12 seg (determinados mediante relajación dieléctrica), mientras que el período de vibración molecular es del
orden de 10-13 seg. Podemos entonces hablar de estructura del agua y considerarla como un líquido estructurado
o asociado, como prefieren llamarlo algunos autores".(J. Raúl Grigera, 1976, p.14.) Una condición esencial para
poder reconocerle estructura al agua, es la siguiente: que el tiempo de vida de las microestructuras sea al menos
un orden de magnitud superior al período de vibración molecular, condición que -como queda dicho-
efectivamente se cumple.
Sin embargo, para explicar las "diluciones homeopáticas", se requiere además de otra condición esencial: que
una cierta microestructura se repita idénticamente a sí misma todo el tiempo. A su vez, ésto exige, (a), que cada
microestructura que se repite tenga la misma cantidad de información, y (b), todavía más importante, que posea la
misma Información.
Cuando no existe una Información activa presente en el sistema, todo pareciera ocurrir como si las diferentes
microestructuras espontáneas del agua reprodujeran al azar los equivalentes –en términos de complejidad- a
distintas Informaciones, pero no el equivalente de ninguna Información en especial (y que pueda además persistir)
–constituirían así lo que se puede llamar "ruido de fondo"-.
Con la presencia activa de la Información, por el contrario, las microestructuras del agua reproducen
persistentemente ese específico patrón de orden, de manera tal que, pese a la brevedad de su tiempo de
vida, siempre habrá una importante cantidad de microestructuras en cualquier instante expresando dicha
Información, mientras el sistema permanezca aislado.
La diferencia, entonces, entre las microestructuras presentes en un vaso de agua común y las microestructuras
de una "dilución homeopática", está simplemente en lo siguiente: las primeras, constituyen un conglomerado
heterogéneo de microestructuras que corresponderían a Informaciones muy diversas –si cada una de ellas pudiera
persistir lo suficiente en el tiempo-; las segundas, en cambio, constituyen una clase mayoritariamente homogénea
que corresponde a una única Información. (Ciertamente, el ser una clase cuasi homogénea implica dos cosas:
una, que es el resultado de un proceso de ordenar, y dos, que expresa el estado de equilibrio del sistema.)
Respecto de la duración de la microestructura homeopática, es necesario hacer la siguiente aclaración: algunos
han negado la mera posibilidad del "fenómeno homeopático", debido a que las microestructuras –que reconocen
que puedan existir- no duran el tiempo suficiente como para llegar a actuar. Esta conclusión parte de una premisa
equivocada: que la acción de la microestructura puede asimilarse a la acción de una sustancia química, la cual
para poder ejercer su efecto debe durar un cierto tiempo como tal sustancia. Habíamos sostenido anteriormente
que el mecanismo de acción de las "diluciones homeopáticas" está más allá de la Química –y, por ende, de la
Farmacología-, porque no se puede aplicar la ley de acción de las masas a lo que carece de masa (pues el soluto
ha desaparecido). Y, por cierto, la masa del solvente sólo puede actuar como agua.
No es la microestructura sino la Información, mediante la microestructura, la que efectivamente actúa ; por
tanto, la duración de cada una de las microestructuras es irrelevante. Lo importante es la presencia constante -y
en constante renovación- de estas microestructuras como portadoras de Información.
Por otra parte, la dilatada experiencia de la terapéutica homeopática -desde el propio Hahnemann en adelante-
, sugiere que las microestructuras presentes en las "diluciones homeopáticas", se destruyen con la exposición a la
luz solar y con el calor. Sin embargo, si la Información es energía no-degradable, hipótesis sostenida en este
55
trabajo, nada debería destruirla. La explicación podría estar en lo siguiente: lo que se destruye es solamente la
microestructura, conservándose la Información en un estado latente. Eso quiere decir que estas microestructuras
serían reversibles, o sea, se reconstituirían bajo ciertas condiciones. Principalmente estamos pensando en la acción
neguentrópica del frío. Es perfectamente posible diseñar un modelo experimental para poner a prueba esta idea.
De acuerdo con esta hipótesis, la única forma de que una cierta Información se pierda, parece estar en su
eliminación del sistema que la contenía –para lo cual el sistema debe abrirse-. Una de estas formas es cuando la
"dilución homeopática" es ingerida por cualquier enfermo, y puede actuar así en su sistema sanguíneo por
resonancia -o bien, en el sistema orgánico llamado "matriz"-. En relación con esto mismo, finalmente digamos
que la Información para estar activa, y poder actuar de este modo sobre su alrededor, es necesario que el sistema
que la contiene esté en un estado de no equilibrio, lo cual ocurre sólo cuando se abre. Cuando, por el contrario,
el sistema aislado está en equilibrio, la Información no es activa y permanece en estado latente.
Esta conducta parece corresponder aproximadamente al concepto expresado por Prigogine, cuando se refiere
a las "estructuras disipativas", vale decir, al comportamiento de la materia en condiciones de no equilibrio (donde
los fenómenos irreversibles desempeñan el papel principal):
"Uno de los aspectos más espectaculares de este nuevo comportamiento es la formación de estructuras de no
equilibrio [estructuras disipativas] que sólo existen mientras el sistema disipa energía y permanece en
interacción con el mundo exterior. He aquí un evidente contraste con las estructuras de equilibrio, como los
cristales, que una vez formados pueden permanecer aislados y son estructuras ‘muertas’ sin disipación
de energía". (Los destacados son nuestros.) (Ilya Prigogine, 1997, p.27.)
La disipación de energía es, ciertamente, el medio por el cual la Información se hace activa ; pero con las
siguientes diferencias propias: la energía que se disipa es principalmente la energía libre que poseía el sistema.
Ahora, una vez que el sistema deja de recibir energía desde el exterior (por sucusión), la disminución gradual de
la energía libre se acompaña necesariamente del aumento de la entropía –con lo cual se alcanza finalmente el
estado de equilibrio-.
Antes del equilibrio, la microestructura acuosa podría considerarse como el símil de una estructura disipativa
("mientras el sistema disipa energía y permanece en interacción con el mundo exterior [sucusión]").
Sin embargo, la Información sólo se conserva en el sistema aislado gracias a su latencia como una estructura
"muerta" que no disipa energía. Todo lo anterior nos sugiere que, tal vez, se trate de un tercer tipo de estructura,
una estructura intermedia entre la estructura disipativa y la estructura cristalina (y que posee características de
ambas).

56
LAS DILUCIONES Y LAS "POTENCIAS"
Un último tema que quisiéramos tratar es el siguiente: siempre se ha supuesto que entre diluciones diferentes
el efecto no es el mismo. Que algunas diluciones parecen actuar más efectivamente que otras o que algunas actúan
donde otras han fallado. Todavía más, a medida que aumenta la dilución, se supone que el efecto se incrementa.
Hahneman habló de "potencia" para designar este fenómeno. Si es así, y no hay ninguna explicación en términos
propiamente médicos que sea satisfactoria, entonces la teoría debería ser capaz de explicar estas diferencias.
Existe un límite obvio y que está dado por el número de Avogadro. Las diluciones por debajo de este número
y las que están por encima de él, podrían presentar algún tipo de diferencia. Las primeras todavía conservan
moléculas de soluto, las segundas ya no. Sin embargo, salvo diferencias menores, las diversas diluciones -ya sean
pre-Avogadro, ya sean post-Avogadro- actúan exclusivamente por la Información que contienen.
Por tanto, habría que suponer que la cantidad de información aumenta con la dilución. Solamente si una
dilución muy alta, muy por encima del número de Avogadro, contiene mayor cantidad de información que una
dilución baja, o sea, por debajo del mismo número, es posible explicar la posible mayor efectividad de la primera
con respecto a la segunda. (En este caso, en una cierta medida, la repetición de la dosis sería equivalente a usar
una dilución superior.)
Al avanzar en la escala de diluciones, se conserva siempre una décima parte –y sólo una décima parte- de las
microestructuras de agua con Información; es decir, éstas no aumentan de una dilución a la siguiente. Por ende,
el aumento en la cantidad de información –o sea, en el número de las microestructuras-, no puede ser explicado
por esta consideración.
Hay sólo una cosa que pareciera aumentar de dilución en dilución y que es la sucusión. Siempre y cuando se
le suponga un efecto acumulativo. Nuestra hipótesis es la siguiente:
En el estudio de sistemas asociados al caos, se ha descrito la "cascada de duplicaciones de Feigenbaum". En
función de las fuerzas aplicadas al sistema físico considerado, el período –tiempo necesario para volver al punto
de partida de una órbita periódica- tiende a duplicarse. Vale decir, a ciertos valores crecientes de la fuerza aplicada
-entendamos en el presente contexto: cantidad de sucusión-, se van produciendo duplicaciones de período, dando
un período 2 veces más largo, luego 4, 8, 16, 32,...veces más largo. Para ciertos valores de cantidad de sucusión,
entonces, el período de las oscilaciones de las moléculas de agua se duplicaría, posibilitando una mayor formación
de microestructuras –luego, una mayor cantidad de información capaz de actuar-. Este aumento en la cantidad de
información no es continuo de una dilución a la siguiente, sino que se produciría por saltos, lo cual parece coincidir
con ciertos resultados experimentales realizados con "diluciones homeopáticas". Otro hecho interesante es que el
límite superior de duplicación del período es teóricamente infinito, lo cual es coherente con el conocimiento
homeopático fundado en la experiencia, que afirma que no hay límite a la dilución.

57
RECAPITULACIÓN FINAL
A lo largo de estas páginas hemos planteado una teoría acerca de las "diluciones homeopáticas", que intenta
ser capaz de explicarnos cómo puede ser posible que diluciones que han superado el límite de dilución del soluto
–representado por el Número de Avogadro-, conserven alguna de las propiedades de éste. Es un enorme problema
(por eso, tal vez, para algunos resulta más fácil ignorarlo). Es como preguntarse si es posible que las propiedades
de ciertas moléculas puedan sobrevivir a su desaparición. Es casi como preguntarse si sobrevive algo –como el
alma- a la muerte del ser humano. Es un problema de un parecido nivel de dificultad. Y la similitud es lo bastante
cercana como para que algunos hayan planteado la naturaleza "espiritual" de lo que persiste a la dilución más allá
del número de Avogadro. Pero de esta manera han colocado el problema fuera de los límites de la Ciencia. Nuestra
intención ha sido justamente la contraria a esa manera de pensar. Es en el campo de la Ciencia –y solamente en
él- donde debe plantearse este problema de las "diluciones homeopáticas".
Si la teoría que ofrecemos es o no una teoría verdadera, ciertamente que es una pregunta injusta. Porque de las
teorías nunca se puede saber con absoluta seguridad si son ciertas o no, o si lo son en algún grado y cuál es él.
Sin teorías no hay Ciencia; luego, la teoría es el único camino -dentro del campo científico- para responder a la
interrogante que nos ocupa.
¿Qué hemos sacado en claro, entonces, de nuestra investigación teórica? Que existen seis pilares que deben
sustentar a una teoría acerca de las "diluciones homeopáticas", y que son los siguientes:
1. Capacidad receptora del agua. El agua es un líquido de una plasticidad maravillosa. Por ser un
líquido –a mitad de camino entre el desorden del gas y el orden rígido del sólido- y por la presencia de sus
puentes de Hidrógeno, capaces de enhebrarse en largos polímeros. El agua posee, de esta manera, la
capacidad de almacenar la Información. Las moléculas de agua representan las letras del alfabeto, y los
polímeros, palabras que esconden algún sentido. Pero el sentido hay que buscarlo fuera de ella: en el
soluto.
2. La dilución del soluto y la segunda Ley. La extrema dilución a que se somete al soluto, determina
que sea un sistema (una fase) con un número estadísticamente no significativo de moléculas ; luego, que
no acate a la segunda Ley. Lo cual implica que sea el sistema total (fase soluto más fase solvente) el que
esté en un estado neguentrópico, lejos del estado de equilibrio, constituyéndose así en un sistema inestable.
3. Presencia del soluto con su Información. Imaginemos en un vaso de agua la danza fantástica de
moléculas agitándose caóticamente, chocando unas con otras al azar, y produciendo en estos choques
polímeros de agua en diferentes dimensiones –cortos, la mayoría ; largos, unos cuantos-. Si por casualidad
se produjera un polímero que se corresponde (que es isomorfo) con la complejidad determinada por la
Información de una cierta sustancia –como la de una macromolécula orgánica cualquiera, por ejemplo- su
duración sería efímera. Pero si la Información de esa misma sustancia compleja estuviera presente como
soluto, entonces la formación de polímeros de agua que le corresponden ya no sería ni casual ni efímera.
Una buena parte del conjunto de moléculas de agua se plegarían a la forma impuesta por el soluto y
conservarían así la Información, no importando si muchas de ellas son reemplazadas por nuevas moléculas
de agua en sucesivas diluciones. Incluso las pocas moléculas de soluto desaparecerán, pero la Información
tenderá a prevalecer a través del solvente (solución cero).
4. El papel de la resonancia. La resonancia es el medio a través del cual la Información se transmite. No
solamente las moléculas de agua inmediatamente colocadas en la proximidad de las moléculas de soluto,
sufrirán por resonancia la influencia de la Información, sino que éstas –a su vez- llevarán el mensaje a las
moléculas de agua más remotas. Aquí la sucusión probablemente juegue un papel muy importante

58
aumentando la tasa de correlaciones. Además, es posible que las primeras microestructuras actúen
autocatalíticamente favoreciendo la producción de nuevas microestructuras. En este sistema inestable –
inestable, en último término, por la presencia activa de la Información-, el proceso se extiende en todas
las direcciones del espacio, y se difunde hasta abarcar el volumen total de la solución. Se alcanza,
entonces, el equilibrio. Se trata, sin embargo, de un nuevo equilibrio, cualitativamente diferente a
cualquier equilibrio que el agua por sí sola podría alcanzar.
5. Importancia del desequilibrio. Mientras perdure el estado de desequilibrio, la Información estará
activa. Una vez alcanzado el estado de equilibrio, la Información pasará a estar en un estado latente. El
sistema es ahora nuevamente estable.
6. Renovación indefinida del proceso. Este proceso puede ser renovado un número ilimitado de veces,
porque la Información permanecerá a través de las sucesivas diluciones y sucusiones sin perderse nunca.
Revisemos, por último, en una gran síntesis el proceso de preparación de las "diluciones homeopáticas": El
que era el macroestado predominante del soluto en estado de equilibrio, ya no lo es más al interactuar con el
solvente –un sistema inmensamente superior en el número de moléculas-, sino que pasa a ser más bien un
microestado raro ; o sea, representa una posibilidad improbable, luego, una Información, hasta ese momento
latente, la cual –dadas las condiciones de no equilibrio debidas a la dilución- se hace activa. Y es realmente esta
Información activa la razón por la cual el sistema es, en un primer momento, un sistema dinámico inestable. Es
fácil de entender que la Información del soluto se haga predominante, ya que no existe en el solvente ninguna
otra Información activa capaz de interferir con la Información del soluto. El solvente es como una pizarra donde
el soluto escribe su mensaje.
La Información activa del soluto, mediante la resonancia como medio, produce microestructuras acuosas que
tienen una complejidad (que equivale a una cierta cantidad de información) acorde con el nivel de complejidad
del soluto. Pero no solamente éso, las microestructuras acuosas almacenan la Información, permitiéndole persistir
a pesar de la dilución. Sin embargo, esta formación de microestructuras acuosas tiene un costo en energía, es
decir, disminuye la energía libre del sistema a expensas de un aumento de su entropía. Alcanzado el estado de
equilibrio (donde la entropía es máxima), la configuración predominante es –cualitativamente hablando- la
correspondiente al soluto, pero se trata –cuantitativamente hablando, ahora- del estado de equilibrio del agua. En
un nuevo proceso de dilución, la configuración predominante nuevamente dejará de serlo, y pasará a constituirse
en la Información activa capaz de reiniciar el proceso una vez más.
Terminemos este ensayo sugiriendo que se busque –mediante el método experimental que nos ofrece la
Ciencia-, poner de manifiesto el poder ejecutivo que le hemos atribuído a la Información, para sentar las bases
físicas de la Homeopatía.

59
BIBLIOGRAFÍA
Aguirre, F. Termodinámica del equilibrio. Ed. Interamericana. (1971).
Alonso, M.y Finn, E.J. Física. Vol. 3. Ed. Fondo Educativo Interamericano. (1978).
Atkins, P.W. La segunda ley. Biblioteca Scientific American. (1992).
Atlan, Henri. Entre el cristal y el humo. Ed. Debate. (1990).
Bennet, Charles. "Demonios, motores y segunda ley". Investigación y Ciencia, Nº 136. (1988).
Benveniste, J., et al. "Human basophil degranulation triggered by very dilute antiserum against IgE". Nature
1988, 333:816-818.
Brewer, G., y Hahn, E.L. "Memoria atómica". Investigación y Ciencia, Nº 101. (1985).
Brillouin, L. La Science et la Théorie de l’information. Ed. Masson. (1959).
Buckingham, A.D. Los principios de la Termodinámica y sus aplicaciones. Ed. Alhambra. (1966).
Costa de Beauregard, O. Le second Principe de la Science du Temp.Entropie, information, irréversibilité.
Ed. Seuil. (1963).
Dretske, Fred I. Conocimiento e información. Salvat Editores. (1989).
Ekeland, Ivar. Al Azar.La suerte, la ciencia y el mundo. Ed. Gedisa. (1992).
Fast, J.D. Entropía. Ed. Paraninfo. (1965).
Gardner, M. Extravagancias y disparates. Ed. Alcor. (1993).
Griguera, J. Raúl. Introducción a la biofísica del agua. EUDEBA. (1976).
Guéroult, M. El concepto de información en la Ciencia contemporánea. Siglo Veitiuno Editores. (1975).
Gutiérrez Cabria, S. Filosofía de la probabilidad. Ed. Tirant lo Blanch. (1992).
Hacking, I. El surgimiento de la probabilidad. Ed. Gedisa. (1995).
Hacking, I. La domesticación del azar. La erosión del determinismo y el nacimiento de las ciencias del
caos. Ed. Gedisa. (1995).
Harman, P.M. Energía, fuerza y materia. El desarrollo conceptual de la Física del siglo XIX. Ed. Alianza
Universidad. (1990).
Hayles, N.K. La evolución del caos. El orden dentro del desorden en las ciencias contemporáneas. Ed.
Gedisa. (1990).
Lachek, Diner et Fargue. L’objet quantique. Ed. Flammarion. (1989).
Lavenda, Bernard H. "El movimiento browniano". Investigación y Ciencia, Nº 103. (1985).
Margenau, H. La naturaleza de la realidad física. Una filosofía de la Física moderna. Ed. Tecnos. (1970).
Nash, L.K. Elementos de Termodinámica estadística. Ed. Diana. (1974).
Nicolis, G. y Pigogine, I. La estructura de lo complejo. Ed. Alianza Universidad. (1994).
60
Olivé, L. Cómo acercarse a la Filosofía. Ed. Limusa. (1991).
Pierce, J.R. Símbolo, señales y ruidos. Revista de Occidente. (1962).
Popper, K. Realismo y el objetivo de la Ciencia. Post Scriptum a la Lógica de la investigación científica. Vol.
1. Ed. Tecnos. (1985).
Popper, K. Búsqueda sin término. Ed. Tecnos. (1977).
Prigogine, I. ¿Tan sólo una ilusión? Tusquets Editores. (1983).
Prigogine, I. El nacimiento del tiempo. Tusquets Editores. (1991).
Prigogine, I. El fin de las certidumbres. Ed. Andrés Bello. (1996).
Prigogine, I. Las leyes del caos. Ed. Crítica. (1997).
Prigogine, I. y Stenger, I. La nueva alianza. Metamorfosis de la Ciencia. Alianza Editorial. (1983).
Prigogine, I. Y Stenger, I. Entre el tiempo y la eternidad. Alianza Editorial. (1990).
Reinchenbach, H. El sentido del tiempo. Ed. UNAM. (1959).
Reif, F. Física estadística. Berkeley Physics Course. Vol. 5. Ed. FCE. (1969).
Ruelle, D. Azar y caos. Ed. Alianza Universidad. (1993).
Sametband, M.J. Entre el orden y el caos: la complejidad. Ed. FCE. (1994).
Sears, F.W. Introducción a la Termodinámica. Teoría cinética de los gases y Mecánica estadística. Ed.
Reverté. (1959).
Sears, F.W. Mecánica, movimiento ondulatorio y calor. Ed. Aguilar. (1965).
Wagensberg, J. Ideas sobre la complejidad del mundo. Tusquets Editores. (1985).
Wagensberg, J. Proceso al azar. Tusquets Editores. (1986).
Zemansky, M. Calor y Termodinámica. Ed. Aguilar. (1973).
Ziman, J. La credibilidad de la Ciencia. Alianza Editorial. (1981).

61
POST SCRIPTUM.
INTRODUCCIÓN.
Dividiremos este ensayo en cuatro partes:
1. Las posibilidades improbables,
2. Porqué es necesario el concepto de Información,
3. La Información, y
4. La hipótesis de la "memoria del agua".
En estos cuatro apartados pretendemos profundizar en la idea central que subyace a la teoría que explica, según
nuestra opinión, el "misterio" de las "diluciones homeopáticas"; y que, de paso, explica igualmente todas las
demás fases del proceso homeopático. Esta idea central es la idea de Información. Creemos que el concepto de
Información, además de aplicarse al caso particular de la Homeopatía, debería poder aplicarse de manera muy
fecunda en el campo total de la Biología. Pero, por ahora, sólo nos limitaremos a dejar indicada esta sugerencia.
Creemos firmemente que el concepto de Información constituye la única explicación posible acerca del
"fenómeno homeopático". Si se renegara de él, no solamente explicar la Homeopatía sería imposible sino que
habría que aceptar que constituye un absurdo. Diluir más allá del límite señalado por el Número de Avogadro,
una cierta sustancia y pretender que todavía quede alguna traza de ella es simplemente una actitud anticientífica.
¿Por qué? Porque la estructura química de la materia es incompatible con tal pretensión. O aceptamos la Química
(¿y cómo no hacerlo?) y rechazamos por tanto una explicación química de la Homeopatía, o buscamos por otro
lado, por el lado de la Física.
Pero la Física tampoco parece dispuesta, en un primer momento, a ayudarnos. Ni la energía, ni la materia, ni la
entropía, nada donde encontrar una base. Sin embargo, el concepto de cantidad de información es también un
concepto científico que la Física pone a nuestra disposición. Si hay algo que pueda persistir a la dilución más
extrema no puede ser aquello que llamamos, un tanto imprecisamente, "materia", vale decir, átomos, iones o
moléculas. Por su parte el concepto de energía es demasiado vago y general como para que nos rinda algún
servicio inmediato. En cambio, si es que algo puede persistir en el solvente a las sucesivas diluciones, ese algo
es cantidad de información. Pero esa cantidad de información no puede ser un ente fantasmal, o sea, no puede
ser sino la cantidad de algo y ese algo ser la Información. Sin algo que sea físicamente real, alguna forma de
energía que, además, sea específica –y a la cual llamamos "Información"–, no puede haber cantidad de
información. De esa manera, el concepto de una Información concebida objetivamente, es decir, con
independencia de si el ser humano interactúa con ella o no, pasa a ser esencial para dar sustento científico a la
Homeopatía.
A continuación, introduciremos el concepto de Información desde una perspectiva de la máxima generalidad.

1. LAS POSIBILIDADES IMPROBABLES.


Lo conocido es sólo una pequeña parte de lo que existe. Luego, lo desconocido, que es el campo de
las posibilidades improbables, constituye la mayor parte de la realidad. Lo que esto quiere decir exactamente es
que todas aquellas posibilidades que son improbables, y que son sin embargo tan reales como aquellas otras que
consideramos como probables (aunque no estemos en condiciones de asegurar su realidad), constituyen la parte
fundamental de la estructura del universo.

62
Lo conocido es lo conocido por el ser humano. Está inextricablemente unido a la conducta humana. Por tanto, lo
desconocido es aquella parte de la realidad que el ser humano no puede predecir porque está más allá de lo
conocido por él.
Empecemos con algunos conceptos básicos. Para entender qué es una posibilidad improbable, debemos entender
primero qué es una posibilidad. Una vez entendido qué es posibilidad, tendremos que distinguir entre posibilidad
probable y posibilidad improbable.
El concepto de posibilidad es un concepto negativo, pues se refiere a todas aquellas proposiciones que no
contradicen el cuerpo de conocimientos reconocido, es decir, el cuerpo de conocimientos que el ser humano ha
recogido y acumulado hasta ahora. Pero con decir que una determinada proposición es posible, nada se implica
acerca de su verdad o, más bien, su condición de verdad queda abierta.
El concepto de posibilidad probable –o simplemente lo probable–, por su parte, deriva del mismo cuerpo de
conocimientos ya adquiridos. Lo probable es siempre y solamente lo conocido, y por tanto cambia en función del
avance del conocimiento. Pero lo probable es también lo que se considera como verdadero, al menos hasta nuevo
aviso. Pero aquí hay un problema.
Roger Scruton en Filosofía Moderna, escribe: "Aristóteles analiza la afirmación: ‘Mañana habrá un combate
naval’. ¿Esta afirmación tiene un valor-de-verdad ahora? Si lo tiene, debería ser el mismo valor-de-verdad que
tiene el afirmar mañana que hay un combate naval hoy día. Si mañana es verdad que hay un combate naval, hoy
es verdad que habrá un combate naval. Si las afirmaciones sobre el futuro son verdaderas, son
verdaderas ahora."
Sin embargo, las afirmaciones sobre el futuro no tienen ningún valor-de-verdad y por una razón radical: porque
el futuro no existe, porque el futuro es una creación delpensamiento a base del conocimiento acumulado en la
memoria. En realidad, con la palabra "futuro" estamos haciendo referencia al campo de lo desconocido, y, por
tanto, estamos hablando de las posibilidades improbables.
Por otra parte, no todo lo posible es probable. De manera que si eliminamos todo aquello que es imposible y
hacemos lo mismo con lo probable, ¿qué nos queda? Sólo nos quedan las posibilidades improbables, que
constituyen el campo de lo desconocido. Por tanto, el concepto de posibilidad improbable es también un
concepto negativo:
Posibilidad improbable no significa "posibilidad poco probable" sino la negación de lo probable, es decir,
significa "posibilidad no-probable".
La posibilidad improbable, como veremos, es un concepto que encierra la idea de Información, pero la peculiar
idea de una Información que, estando hasta ahora latente, tiene la capacidad de hacerse activa en cualquier
momento.
En contraste, la posibilidad probable se asocia a la idea de una Información inactiva, de una Información ya
manifestada y acumulada en el cerebro humano como conocimiento; vale decir, de una Información latente en el
particular sentido de estar pasiva, o sea, que por estar separada temporalmente de su ejecución, requiere de energía
extra para volver a expresarse. (Véase más abajo Porqué es necesario el concepto de Información, donde se
explica con más detalle estas diferencias).
En otras palabras, el adjetivo "latente" se aplica a la Información con dos matices diferentes, que son los
siguientes: En un sentido de estar latente pero con su poder ejecutivointacto, vale decir, con
su capacidad de modificar a su receptor (humano o no) de una forma determinada. Según nuestra opinión, este
es el concepto de Información queverdaderamente conviene a su esencia.
63
Y en el sentido, propiamente humano, de estar latente pasivamente, que es el sentido con el cual habitualmente
se emplea el concepto de información, "información" ahora con minúsculas ya que no se refiere exactamente al
concepto de Información que estamos dilucidando.
La palabra "información" se usa precisamente en este sentido cuando se habla de "cantidad de información", pues
la cuantificación es una operación que realiza el ser humano sobre objetos o eventos conocidos por él. La cantidad
de información, por ejemplo, de una cierta macromolécula sería imposible de medir sin conocer su estructura.
Como es evidente, el concepto de cantidad de información no puede ser aplicado a la Información, con
mayúsculas, hasta cuando es ya conocida y pasa, por tanto, a formar parte del cuerpo de conocimientos. Mientras
sea meramente una posibilidad improbable nada sabemos de ella, pero en el momento mismo en que se expresa
ya es posible cuantificarla. En consecuencia, sólo al hacerse activa para nosotros los seres humanos, la
Información nos aparece como siendo una determinada cantidad de información.
Ahora bien, lo conocido es lo probable (y viceversa). Sin embargo, una posibilidad probable siempre se refiere a
un acontecimiento considerado aisladamente de su contexto, lo cual representa en los hechos una idealización.
En la realidad propiamente tal, todo acontecimiento se presenta inseparablemente unido a su contexto, por lo cual
abstraído de él su predicción será siempre en algún grado inexacta.
De modo que solamente las predicciones que son lo suficientemente gruesas pueden aspirar a una cierta mayor
precisión. Mas, en la misma medida en que a una predicción se le exige una mayor finura de detalles (o
complejidad), su precisión decae hasta alcanzar rápidamente niveles de error bastante groseros, tornándose
finalmente incierta.
Utilizando un lenguaje causal, podemos analizar la influencia del contexto sobre el acontecimiento que sea el
caso, para de esa manera poder explicar la dificultad que sobre la predicción provoca dicha abstracción.
Buscando John Stuart Mill una definición científica de causa, la definió como condición suficiente:
Por ejemplo, la combustión tiene como condiciones: (a) que haya un material combustible, (b) que exista la
temperatura adecuada, y (c) que esté presente el oxígeno. Cualquiera de estas condiciones que faltara, haría
imposible la combustión; se trata de condiciones necesarias. Ahora bien, la presencia de todas ellas juntas
constituye una condición suficiente; luego, sería la causa.
Sin embargo, estamos hablando de un caso excepcionalmente simple, pues en la mayor parte de los
acontecimientos interesantes se requiere de miles de condiciones necesarias para que el acontecimiento se
produzca.
La causa, para J. S. Mill, es la suma total de las condiciones (tanto positivas como negativas) que, si se cumplen,
determinan el acontecimiento que denominamos "su efecto". Pero aun en un ejemplo tan sencillo como el de la
combustión, sería posible argumentar que, si bien es cierto que en la mayor parte de los casos esta conjunción de
tres condiciones necesarias bastaría para provocar el efecto (la combustión), habrá casos sin embargo en los cuales
intervendrá alguna otra condición impidiendo tal efecto.
Podría ser que el material combustible, digamos madera, esté mojado por la lluvia; por tanto, no habrá
combustión. Antes de que el ser humano aprendiera que la humedad del material combustible puede impedir la
combustión, se encontró con esta circunstancia que constituyó el caso de una, hasta ese momento, posibilidad
improbable. Una posibilidad improbable será siempre la circunstancia con la cual no contamos porque no la
conocemos y que, una vez conocida, recién podremos tomarla en consideración para el futuro (en los términos
ahora de una posibilidad probable).

64
La conjunción de material combustible, temperatura adecuada y presencia de oxígeno será condición suficiente –
y, por tanto, causa– de la combustión en la inmensa mayoría de los casos. Es a lo que llamaríamos una posibilidad
probable.
Pero, para considerarla así, es necesario recortar esas condiciones del contexto en el cual se manifiesta el
acontecimiento combustión. En la vida diaria actuamos de esa manera, aislamos habitualmente una condición
como si fuera la causa y dejamos de lado todas las demás. Decimos que arrojar una cerilla encendida al cesto de
papeles es la causa del fuego, aunque la presencia de oxígeno en la atmósfera y la presencia de papeles en el cesto
sean otras condiciones necesarias que también deberíamos mencionar y que habitualmente no lo hacemos.
La suma total de las condiciones, de las cuales nos habla J. S. Mill, algunas de las cuales son desconocidas –lo
que las convierte en posibilidades improbables–, constituye el contexto en el cual surge el acontecimiento bajo
examen. De manera que sólo podemos hablar de "posibilidad probable" si aislamos una determinada condición
(o una conjunción limitada de ellas) del resto del contexto. En otras palabras, la posibilidad probable es sólo
una abstracción.
Por otra parte, el ser humano solamente puede enfrentarse a la realidad desde lo conocido, y por tanto la realidad
de lo que está por suceder, que es lo desconocido para él, está en el campo de las posibilidades improbables.
No decimos que es meramente el campo de las puras posibilidades porque "lo posible" es todo aquello que
sabemos puede suceder –o creemos que sabemos ya que nadie podría asegurarnos que sabemos exactamente todo
lo que puede o no suceder–, pero tal saber está fundado en todo caso en lo conocido.
Es decir, sólo podemos pensar en las posibilidades basándonos en el conocimiento adquirido. Solamente si
llegáramos a pensar en una posibilidad no conocida, entonces (en tal hipótesis) sería en una posibilidad
improbable.
Por cierto, la realidad de lo que está por suceder no es tampoco el campo de lo probable porque "lo probable" es
siempre lo conocido. "Lo probable" es todo aquello de lo cual ya sabemos y que hemos llegado a saber por la
frecuencia relativa con la cual se ha presentado en el pasado; y además idealizado, al ser abstraído de su contexto.
Aquello otro que no se ha presentado nunca en el pasado, y sobre lo cual nada sabemos, constituye el campo de
las posibilidades improbables. La "improbabilidad" es, así, sinónimo de"no registrado", o sea, de "no conocido".
El punto de referencia para medir la improbabilidad, entonces, es la experiencia humana colectiva almacenada
como conocimiento humano. Y en la medida que el conocimiento humano aumenta, varía con ello el
discernimiento entre lo considerado probable y aquello otro considerado improbable. Lo que en este momento
estaríamos dispuestos a considerar como improbable –en el sentido de no-probable: contradictorio con lo
conocido–, el día de mañana podría ser considerado como probable. La historia de la Ciencia nos provee variados
ejemplos de tal situación. Que el ser humano pudiera volar como los pájaros no era más que un sueño para los
antiguos.
Pero por mucho que se ensanche el conocimiento, lo desconocido –que es lo improbable– seguirá estando más
allá de lo conocido. En pocas palabras, es claro que el concepto de posibilidad improbable está referido
exclusivamente al comportamiento humano.
Si no hubiera existido un animal –el animal humano– capaz de almacenar conocimiento y pensar a partir de él, la
expresión "posibilidad improbable" habría carecido de sentido (y consecuentemente la de "posibilidad probable").
Pero el hecho es que ese animal existe y, por tanto, el concepto también. Sin embargo, no debe omitirse del
análisis su origen humano. Es solamente porque el ser humano puede pensar en lo probable, que lo improbable
se convierte en pensable. Mas es pensable únicamente en términos negativos.

65
De lo anterior se deduce que el campo total de la realidad –en el cual viven los animales, incluido el animal
humano, los vegetales, los seres microscópicos, y todos los entes que llamamos "inertes"–, siendo de preferencia
el campo de las posibilidades improbables, al ser observado desde un punto de vista exclusivamente humano,
sufre la división entre lo conocido (o lo probable) y lo desconocido (o lo improbable).
La realidad es, ya lo hemos dicho, mayoritariamente el campo de las posibilidades improbables. Los
acontecimientos conocidos, es decir, las manifestaciones concretas de las posibilidades improbables –ya que antes
de ser conocidos por el ser humano, eran sólo posibilidades improbables (y como tales impredecibles) –,
constituyen una parte menor de la realidad. Lo desconocido por el ser humano desborda infinitamente lo conocido;
por tanto, lo previsible es infinitamente menos importante que el campo de lo imprevisible, el campo de las
posibilidades improbables.
Es imprescindible hacer ahora una distinción teórica entre la posibilidad improbable en tanto tal –vale decir, en
cuanto mera posibilidad– y el acontecimiento que calificamos de esa forma una vez producido, o sea, como un
acontecimiento improbable. La posibilidad improbable existe independientemente si se realiza o no, y cuando se
realiza se percibe por parte del ser humano como un acontecimiento improbable.
De esa manera, la realización frustrada de un determinado acontecimiento –por causa, probablemente, de la
existencia de otros acontecimientos que lo imposibilitan–, no le resta existencia a la posibilidad improbable que
contiene en potencia a dicho acontecimiento. Es decir, la posibilidad improbable sigue existiendo como tal, tanto
es así que llegará a manifestarse en algún otro momento si lo determinan las circunstancias.
Ahora bien, para que un acontecimiento cualquiera pueda darse en el mundo, se requiere de una conjunción de
diversas circunstancias que no pueden ser diferentes a como de hecho lo son en cada caso concreto.
Esta necesidad de que esa conjunción específica de circunstancias sea tal cual es y ninguna otra, implica la
existencia de un orden que especifica el tipo de acontecimiento. Si el orden fuera diferente, el acontecimiento
necesariamente también lo sería.
Por tanto, todo acontecimiento expresa un orden y ese orden específico de cada acontecimiento, cuando ese
acontecimiento todavía no se ha realizado, constituye su posibilidad improbable. La posibilidad improbable,
entonces, se refiere a un orden potencial. El orden es anterior al acontecimiento tanto en un sentido ontológico
como cronológico.
Se podría decir igualmente que la posibilidad improbable, en cuanto germen de un cierto acontecimiento, es
la disposición presente en todo sistema –cualquiera sea su naturaleza: física, química, biológica o psicológica–,
a actuar de una manera determinada, o según cierto orden, en presencia de las circunstancias adecuadas a su
manifestación. Es justamente a esta disposición a actuar a la que denominamos "Información".
Debemos entender, entonces, cada posibilidad improbable como una disposición a actuar según cierto orden (o
sea, como una Información); en consecuencia, como una disposición a realizar una acción específica, pero de la
cual los seres humanos sólo nos enteramos como siendo un cierto acontecimiento determinado en el momento en
que dicho acontecimiento realmente se produce.
Mas es muy importante comprender que la disposición a actuar, escondida como posibilidad improbable, no es
menos real que el acontecimiento mismo. En suma, la disposición a actuar es aquella energía potencial a la cual
llamamos "Información".

66
2. PORQUÉ ES NECESARIO EL CONCEPTO DE INFORMACIÓN.
El concepto de Información está relacionado con el concepto de neguentropía –que es lo opuesto a la entropía–
y, por consecuencia, con el concepto de orden. De manera que sólo entendiendo este último concepto será posible
entender el concepto de Información.
A diferencia del resto de los seres vivos, en el ser humano el orden se presenta con caracteres propios. Para el ser
humano, la actividad de ordenar requiere de una preparación a la cual se puede llamar "plan". Entre el plan y su
ejecución existe una distancia temporal, es decir, todo plan para concretarse en la realidad necesita tiempo. El
plan puede realizarse completamente en un tiempo mayor o menor, como también puede ejecutarse de manera
incompleta o simplemente no realizarse. Todo esto nos resulta muy familiar, pero es curioso comprobar que nadie
parece reparar en que esto no es así para ningún otro ser vivo.
En la naturaleza, por el contrario, plan y ejecución son dos aspectos de la misma cosa. No hay ningún tipo de
separación entre un supuesto plan organizador y su ejecución ni en los animales ni en los vegetales (ni en la
conducta de sus partes componentes: células, tejidos, etc.). Son aspectos simultáneos y no sucesivos en el tiempo.
No es necesario buscar muy lejos la razón de esta diferencia. Sin duda se debe a la presencia únicamente en el ser
humano del pensamiento con su capacidad de proyectarse hacia un futuro que todavía no existe, pero que puede
ser conjeturado a base del pasado, o sea, al conocimiento adquirido.
Los ejemplos de previsión que se dan en el resto de los seres vivos, especialmente en los animales superiores, no
contradicen lo anterior. Se trata de manifestaciones del instinto, concepto cuyo sentido es ser una cierta capacidad
que se utiliza para explicar aquellas conductas que sirven a la conservación y a la reproducción de la especie.
Precisamente por no ser de naturaleza intelectual, esta capacidad instintiva del ser vivo, aunque se manifieste
previsoramente, no expresa variaciones cuando las condiciones del ambiente han cambiado, como si fuera el
resultado de un impulso ciego. De nuevo tenemos aquí que plan y ejecución van de la mano, sea o no fructífera
su realización concreta.
Podríamos expresar esta diferencia entre el ser humano y el resto de los seres vivos, de la siguiente manera:
solamente el ser humano funciona en términos de un futuro virtual. Y de esa forma, el plan de una cierta actividad
futura existe ahora sólo en cuanto plan, sin existir todavía su ejecución que es relegada así al futuro incierto.
Por eso nos resulta sumamente difícil entender que en un animal o en un vegetal, o en sus células y tejidos (y,
todavía más, en las macromoléculas que los componen), el equivalente al plan –que es cierto tipo de organización–
no esté separado de su ejecución.
La consecuencia inmediata de esta diferencia humana es que para realizar el plan se requiere trabajo, tanto en el
sentido práctico de este término como en su sentido físico, vale decir, existe la necesidad de utilizar energía. Por
ejemplo, si se desea ordenar un aposento se necesita gastar una cierta cantidad de energía. Esa cantidad de
energía gastada es proporcional al grado de orden alcanzado. A mayor grado de orden, mayor es la cantidad de
energía requerida. O sea, el realizar o concretar un plan implica usar una determinada cantidad de energía extra.
Si no se dispone de esa energía extra, el plan simplemente no puede realizarse y, por tanto, se queda como mero
plan.
De lo anterior se deduce que, en el caso de los seres vivos no humanos –y también del ser humano en cuanto
animal–, su organización, en cualquiera de sus niveles: desde el nivel de la célula tanto hacia la molécula como
hacia la especie, involucra una cierta energía de un tipo especial.

67
Toda organización se mantiene a costa de energía, ciertamente, pero lo interesante es que no se trata de cualquier
energía sino de una energía especial que no se degrada, de una energía no-degradable. La energía que no se
degrada es la responsable de la organización aunque esa organización, por supuesto, utiliza energía que sí se
degrada.
Es decir, cuando consideramos a la organización como un plan por realizar, surge la necesidad de usar una cierta
cantidad de energía para cumplir (en el futuro) con ese trabajo, pero si la organización y la ejecución de esa
organización van de la mano (en el presente), entonces no surge ninguna necesidad de una energía extra para
mantener la organización. La única energía requerida es aquella necesaria para que esa organización continúe
funcionando en el tiempo.
Es como la diferencia que existe en el computador entre el hardware y el software, vale decir, se gasta energía
(eléctrica) en el uso del programa, pero no en el diseño del programa usado.
Ahora, si se rebate diciendo que el software requirió de energía en su elaboración, habría que responder que se
trata justamente del tipo de energía que surge del uso humano. El plan para elaborar el software está separado de
su elaboración concreta propiamente tal, y así va a ser siempre en cada caso de realización del pensamiento
humano. Si se diera el caso, ciertamente imposible, de que la elaboración intelectual del software y su elaboración
material fueran una, tendríamos un ejemplo de lo que sucede en el reino de los seres vivos más allá –o más acá–
del pensamiento.
Desde el principio del tiempo, el ser humano se encuentra con las cosas como ya existiendo así como con el
movimiento en sus diversas formas, pero se encuentra además –aunque no repare de primera en ello– con el orden.
El orden es algo con lo que debe contar al igual que con las cosas y con el movimiento de las cosas.
Entonces, el ser humano imita el orden natural creando un orden propiamente humano, y por tanto con las
limitaciones humanas, que es un reflejo de aquel. Un orden que se sobrepone al orden de la naturaleza, con las
ventajas –pero también con las desventajas– que tal poder involucra. Porque al ser humano, en cuanto animal
pensante, le cuesta el orden, vale decir, no le es algo gratuito sino que le exige trabajo. Es la lucha del ser humano
contra la naturaleza.
Diferente es el orden en la naturaleza, incluido el del propio ser humano en cuanto organismo, que no requiere de
energía para subsistir como orden sino que se mantiene a sí mismo en el tiempo.
Pero es imprescindible, para comprenderlo, distinguir entre el asunto del origen de la organización (u orden), y el
asunto totalmente diferente del uso de esa organización. Es decir, no hay propiamente un origen del orden –
aunque en términos religiosos se pueda atribuir a algún Dios–, ya que el orden simplemente existe.
Es como el origen de la energía, ésta simplemente existe. Ahora, una vez aceptado que el orden lisa y llanamente
existe y que se expresa de múltiples formas, como por ejemplo a través de la organización biológica, no representa
ninguna dificultad entender que la función de ese orden requiere de energía.
Cuando el orden como organización se expresa mediante alguna función, necesita energía, constituyéndose de
esa manera en un orden activo. En cambio, cuando ese orden carece de energía extra no puede manifestarse y se
constituye entonces en un orden latente. Es, por tanto, la energía degradable la que permite que el orden se
exprese.
Lo que importa destacar es lo siguiente: la creencia en que un orden en ausencia de energía (de energía
degradable), o sea, un orden latente (o pasivo), no puede persistir –pues todo orden sin aporte externo de energía
se degrada–, es falsa. El auténtico orden en cuanto orden no necesita de una energía externa porque es en sí mismo
energía: es energía no-degradable.
68
El orden, tanto en cuanto orden activo como pasivo (o latente), nunca se degrada, lo cual quiere decir que
permanece siempre. Lo único que se degrada es la energía degradable necesaria para la manifestación del orden.
Y es a este orden auto-mantenido, y por tanto no-degradable, al cual consideramos como Información.
Hablamos de un orden ordenado, pero que es también un orden ordenante. No solamente es un tipo reconocible
de orden sino que, y esto es lo realmente importante, un orden capaz de reproducirse constantemente en el tiempo
a la vez que de afectar a su medio en la medida que haya en este un receptor adecuado. Vale decir, la Información
activa posee una capacidad ejecutiva: es capaz de ordenar (o de organizar) al sistema receptor, lo cual se expresa
por la modificación de dicho sistema al momento de su recepción.
Por último, digamos que si la naturaleza fuera como el ser humano pensante, habría desaparecido ya mucho. En
el lapso trascurrido entre el plan "pensado" por esa supuesta naturaleza y su ejecución, el orden se degradaría. Y
en el lugar del orden estaría el caos.

3. LA INFORMACIÓN.
El estado de equilibrio en un sistema aislado se define –de acuerdo con la Mecánica estadística– como aquel
estado, entre todos los estados posibles, que es el estado más probable para ese sistema, al que llamaremos "estado
de máxima probabilidad". Por tanto, cualquier estado del sistema que no sea el de máxima probabilidad, será un
estado improbable. Se trata ciertamente de un concepto relativo, vale decir, cualquier estado que no sea el de
máxima probabilidad será, en cualquier grado que sea, un estado improbable.
Ahora bien, cualquier posibilidad improbable para ese sistema, es decir, cualquier posibilidad que, de
manifestarse, constituiría un estado improbable –y que por ser improbable no corresponde al estado de equilibrio–
, representa una Información.
La posibilidad improbable la entendemos no como un ente ideal que solamente existe en la mente de quien la
piense sino como una entidad existente por sí misma con independencia de cualquier ser humano.
Contrariamente a lo que se suele sostener, creemos que las posibilidades pueden ser pensadas precisamente porque
forman parte de la realidad –en lugar de existir sólo por ser pensadas–, es decir, constituyen estados de cosas y,
por tanto, permiten explicar cómo es el mundo.
De tal manera que la improbabilidad de las posibilidades improbables es la forma como se presenta la Información
a su receptor humano, pero aquello en que consiste la Información es otro asunto.
Antes de entrar en ello, aclaremos que no se trata de que la Información y la posibilidad improbable sean
exactamente lo mismo, pues si así fuera una posibilidad probable no sólo no sería una Información sino que no
sería tampoco real (a pesar de que toda posibilidad lo sea).
En verdad se trata de que aquello que denominamos "posibilidad probable", es Información latente acumulada
como conocimiento, y de la cual el ser humano, a diferencia de los animales, puede hacer un uso deliberado en
un sentido finalista (o sea, en función de metas).
Bien entendido, una Información activa es siempre una posibilidad improbable para el observador humano, mas
para el resto de los seres vivos no se presenta de esa manera, o sea, como una posibilidad que no se espera, ya
que sólo el ser humano posee expectativas (por ejemplo, espera una cosa y ocurre otra). Es evidente que la
improbabilidad existe en contraste con la probabilidad, es decir, solamente si se consideran como probables
ciertos sucesos es posible llegar a pensar en otros sucesos como improbables.

69
Por eso, la Información activa provoca en el animal únicamente un cambio en su conducta, porque representa
para él un estímulo y no un suceso esperado (o no esperado). Mientras que en el ser humano, además de provocar
un cambio de su conducta, pasa a formar parte de su pensamiento, lo cual quiere decir que se acumula en su
memoria en forma de conocimiento –en la condición de Información latente– utilizable en el futuro. Y cuando
hablamos de futuro en el ser humano, estamos hablando de un futuro pensado hoy, de un futuro que todavía no
existe, pero que puede llegar a existir mañana. Ese futuro es posibilidad. (Véase más arriba: "Porqué es necesario
el concepto de Información".)
El futuro como posibilidad es Información latente acumulada en el cerebro humano, no es Información activa.
Por supuesto, es siempre el resultado de la Información activa. Pues bien, el cerebro humano piensa a base de la
Información latente como conocimiento y lo que piensa, habitualmente, es acerca de las posibilidades probables
de ocurrencia de diferentes sucesos.
Rara vez piensa en la ocurrencia de sucesos improbables, es decir, rara vez se las tiene que ver con las
posibilidades improbables que, sin embargo, abundan en la realidad no controlada por el ser humano (y en alguna
medida también en la parte que está bajo su control). Solamente en los momentos de creatividad el ser humano
considera las posibilidades improbables, y al considerarlas les permite que se expresen.
Sin la existencia, tan propia de la mente humana, del futuro como posibilidad no podría hacerse la diferencia entre
las posibilidades improbables y las posibilidades probables. La posibilidad de cualquier suceso sería igualmente
improbable porque no habría expectativas. Es el caso de los animales. Desde el momento que todo suceso es
improbable –o, mejor dicho, no esperado– se constituye en una Información activa para el animal (y para el ser
humano en la medida que comparte su comportamiento animal). No es el caso, sin embargo, para el intelecto
humano.
Dado que para el ser humano existe el futuro como posibilidad, surge la distinción entre las posibilidades
probables –aquellas en las cuales puedo pensar porque poseo el conocimiento suficiente– y las posibilidades
improbables –las cuales desconozco y, por tanto, no puedo pensarlas–.
Es fácil de entender que cualquier posibilidad que, desde cierta perspectiva, es improbable, puede ser, desde una
perspectiva distinta, una posibilidad probable. En otras palabras, y visto esto desde un punto de vista
exclusivamente humano, la improbabilidad (y, por ende, la probabilidad) tiene que ver con el estado del sistema
con el cual interactúa la Información, vale decir, es relativa al receptor de la Información.
En el caso humano, la experiencia previa del receptor potencial de la Información determina si se trata de una
posibilidad probable o improbable. Es a lo que solemos denominar "saber".
La respuesta de un receptor que posee el conocimiento adecuado comparado con otro que no lo posee, define si
se trata o no de Información activa en cada caso. Para aquel sujeto que ya posee el conocimiento pertinente, la
Información permanece latente para él pues no hay modificación de su conducta a causa de ella. Se podría decir
que la Información recibida es neutralizada por la Información latente en forma de conocimiento.
En cambio, para aquel sujeto que no posee el conocimiento apropiado, la Información es activa, lo que se
comprueba porque le hace modificar su conducta. La capacidad ejecutiva de la Información se expresa,
precisamente, en este efecto sobre su receptor; es decir, cuando el sujeto sin el conocimiento que sea el caso
cambia su conducta a consecuencia de la Información.
Un ejemplo claro de todo esto es el uso en la Ciencia del teorema de Bayes, el cual permite cuantificar la
probabilidad de una hipótesis en vista de la evidencia. Es sabido que, en caso de que la evidencia sea

70
confirmatoria, el apoyo que le presta a la hipótesis propuesta cuando dicha evidencia es considerada probable es
muy pequeño; en cambio, ese apoyo es muy fuerte cuando la evidencia es poco probable.
En otras palabras, la confirmación de la hipótesis depende de la improbabilidad de la evidencia, o sea, depende
de una posibilidad improbable para el investigador y que, por tanto, expresa una Información. Podríamos decir
también que lo desconocido se expresa a través de la improbabilidad. La hipótesis es una posibilidad improbable
y, en la medida que se confirma, pasa a ser una Información.
Sin embargo, primero se debe cuantificar la evidencia, ya sea como probable, ya sea como improbable, acto que
está teñido en algún grado de subjetividad.
Lo que puede ser considerado probable desde el punto de vista de cierto investigador, podría ser considerado
improbable desde el punto de vista de otro investigador. Para distintos investigadores, el diagnóstico de la
improbabilidad de la evidencia –al igual que el de la hipótesis inicial– sin duda que puede ser diferente, pero es
un mérito muy destacable del teorema de Bayes su capacidad de auto-corrección.
Esta capacidad de auto-corrección consiste en que la probabilidad asignada previamente se va reajustando de
acuerdo con los resultados experimentales, vale decir, con la Información (o falta de ella) aportada por la nueva
evidencia. De esa manera, las diferencias inter-subjetivas existentes en un principio, se van acercando
progresivamente hasta niveles de mayor consenso objetivo.
Digamos de paso que esta es una ilustración de cómo la Información, por medio de la evidencia, modifica la
conducta del receptor, que en este caso es el investigador. La modificación de la conducta en el investigador se
expresa por un cambio en su grado de confianza (o convicción) acerca de la hipótesis en estudio.
El teorema de Bayes también nos ilustra sobre el valor de la improbabilidad de la evidencia, es decir, nos enseña
que la Información se expresa a través de las posibilidades improbables. De ahí que una vez que una teoría ha
sido confirmada por un experimento, su repetición no aporta nueva evidencia o, lo que quiere decir lo mismo, no
aporta una nueva Información capaz de modificar el nivel de certeza del investigador, como sí lo haría una
evidencia diferente (una nueva Información).
En relación con lo anterior, digamos que aprender es el proceso a través del cual un receptor vivo (en especial un
cerebro) es modificado por una Información, lo cual no sería posible si la Información no tuviera un carácter
ejecutivo.
El sistema nervioso de los animales –incluido el del ser humano– va almacenando estas modificaciones, las cuales
a su vez constituyen Informaciones latentes que, cuando se expresan, son capaces de ejercer su propio efecto a
través de lo que denominamos "conducta". En verdad, el teorema de Bayes no es más que la formalización de la
conducta diaria de cualquier ser humano (y en algún grado de la de cualquier animal) que aprende de la
experiencia.
Ahora bien, ¿qué caracteriza a la Información? La Información es, en primer lugar, una disposición a actuar y
en esa medida constituye una forma de energía potencial.
Karl Popper considera a las probabilidades, entendidas como entes realmente existentes –y no como entes ideales–
, como propensiones, en el sentido de fuerzas físicamentereales que dan lugar a las frecuencias estadísticamente
observables de los acontecimientos.
Pero, ¿qué es una propensión sino una cualidad disposicional, o sea, una disposición a actuar que puede
expresarse o no?

71
Entonces, hablemos mejor de "disposición" que de "propensión", ya que si bien implican el mismo concepto, la
palabra "disposición" nos sugiere la idea de una energía potencial a punto de expresarse en cualquier momento
(como la flecha en un arco en tensión), a diferencia de "propensión" que parece sugerir más bien la idea de
repetición, de reiteración, o de hábito.
En segundo lugar, esta disposición a actuar se manifiesta únicamente en presencia del receptor adecuado, siendo
el receptor adecuado aquel que sea capaz de resonar con él.
Por último, su acción ejecutiva es específica de cada Información, dándole así a cada una su perfil cualitativo que
la distingue de las demás. De lo anterior se deduce que solamente la respuesta del receptor adecuado permite
distinguir una Información de cualquiera otra.
Dado que las posibilidades improbables no pueden expresarse en el estado de equilibrio, que las oculta, a este
estado le corresponde una total ausencia de Informaciones activas; luego, y consecuentemente con ello,
la entropía en el estado de equilibrio es máxima. Pero no por eso las Informaciones desaparecen en el estado de
equilibrio, cualquiera sea el sistema considerado, sólo permanecen en un estado de latencia.
Las Informaciones no pueden desaparecer y no pueden desaparecer porque son energías no-degradables, es
decir, formas de energía que no participan del estado de equilibrio –que es el estado de degradación de la energía–
. Lo que esto quiere decir es lo siguiente: solamente se expresan fuera del estado de equilibrio, mientras que en
este estado se conservan en estado potencial sin poder manifestarse. Por eso hemos hablado de la Información
como de una energía que es, la mayor parte del tiempo, una energía potencial, salvo en el momento mismo de su
expresión.
Como consecuencia de lo anterior, mientras más se aleja un sistema de su estado de equilibrio, mayor es
la cantidad de información que ese sistema es capaz de expresar. Ahora, su forma de expresión se caracteriza
por la organización del movimiento molecular, vale decir, utiliza la energía cinética propia del sistema en
desequilibrio para expresar un orden propio. El sistema puede ser observado, entonces, desde dos puntos de vista
diferentes, aunque complementarios, que son el aspecto cuantitativo y el aspecto cualitativo.
Un sistema aislado en un estado de perfecto equilibrio es, ciertamente, un ente ideal, una ficción necesaria para
comprender las variaciones termodinámicas que cualquier sistema real y concreto experimenta con respecto a
este punto de referencia. Por tanto, no se pretende que exista realmente un sistema tal, como tampoco se
pretendería tal cosa acerca de cualquiera de los modelos tan usados en Ciencia como puntos de referencia (por
ejemplo, el punto material y el cuerpo rígido en Mecánica, etc.).
Lo que verdaderamente representaría un sistema aislado en equilibrio, de existir, sería el ser una porción de
materia-energía-Información separada del resto del universo, lo cual, de hecho, no se produce nunca, al menos de
manera prolongada. Un sistema que fuera verdaderamente aislado sería un sistema auto-clausurado, como la
mónada de Leibniz.
Se define un sistema aislado como aquel que no intercambia ni materia ni energía con su alrededor, pero un
verdadero sistema aislado es aquel que tampoco intercambia Informaciones con su medio. De manera que
solamente si un sistema está en equilibrio se puede considerar como realmente aislado, ya que sólo en un estado
de perfecto equilibrio las Informaciones están latentes y no pueden traspasar los límites del sistema.
Los sistemas reales, y en especial los sistemas vivos, son sistemas alejados del estado de equilibrio
termodinámico. Por tanto, las Informaciones que forman parte de ellos pueden atravesar los límites de cada
sistema e interactuar con otros sistemas. Cuando la interacción se da entre un organismo animal (sobre todo

72
humano) y su medio, hablamos de "adquisición de conocimiento". En realidad, dependiendo de qué entendamos
por "conocimiento", se podrá o no aplicar este concepto a la conducta de los animales.
Sin embargo, y utilizando un concepto mucho más amplio que el concepto de conocimiento,
la interacción informacional trasciende tanto a los seres humanos como a los seres vivos en general en cuanto
entes completos. También se da en el nivel de sus partes componentes, ya sea órganos y sistemas de órganos, ya
sea tejidos y células individuales, como asimismo respecto de las estructuras y componentes intracelulares.
Por ejemplo, entre una enzima y su sustrato se produce una resonancia que se traduce en una acción catalítica.
Ciertamente no llamaríamos a esto "adquirir un conocimiento" por parte de la enzima (o por parte del sustrato)
sino que hablaremos de la acción ejecutiva de la enzima sobre su sustrato como expresión de la Información que
dicha enzima contiene. (Véase: "La Homeopatía, las enzimas y la Información".)
Toda Información ordena –tal vez, deberíamos más bien usar la palabra "organiza" si se trata de sistemas
biológicos– al sistema receptor, vale decir, al sistema que, por medio de la resonancia, interactúa con la
Información que sea el caso. Solamente una energía que sea no-degradable puede ser capaz de ejercer un efecto
organizador sobre su ambiente, sin degradarse por ello. En cambio, una energía que en el proceso de organizar se
degrada, no genera orden sino desorden.
La organización únicamente puede persistir en la medida que la energía responsable de dicha organización no se
degrade, caso que no ocurre, por ejemplo, con la energía química presente en el seno de los tejidos orgánicos. Por
su parte, la Información sí puede cumplir este papel porque es una energía que no sufre degradación. Agreguemos
finalmente que cada Información organiza a su receptor de una manera característica, que es específica de cada
una de ellas, lo cual constituye la faz cualitativa de la Información.

4. LA HIPÓTESIS DE LA "MEMORIA DEL AGUA".


La hipótesis de la llamada "memoria del agua" no explica ni puede explicar el "fenómeno homeopático". Entiendo
por "fenómeno homeopático" la persistencia de la actividad biológica –independientemente de si también es una
actividad de carácter médico terapéutico (un efecto curativo) – de las diferentes sustancias químicas más allá del
límite físico representado por el Número de Avogadro.
Dicho en forma muy simple: cuando una sustancia cualquiera es diluida más allá de cierto límite, su presencia en
tal solución tiene necesariamente que desaparecer. De acuerdo con los conocimientos físicos y químicos
habitualmente aceptados, es una necesidad que deba existir ese límite; por tanto, el "fenómeno homeopático"
debería ser imposible.
Si, a pesar de todo, aceptamos como un hecho efectivo que la actividad biológica persiste más allá del límite de
Avogadro, entonces esta actividad no puede ser explicada sino por su persistencia en las moléculas de agua (el
solvente), ya que el soluto ha desaparecido completamente. ¿Y de qué forma podría persistir una actividad
biológica potencial en un grupo de moléculas de agua?
La respuesta que utiliza a la hipótesis de la "memoria del agua" como explicación es insuficiente porque, aun
suponiendo una modificación de la estructura del agua causada por la presencia anterior del soluto ("memoria
molecular"), cuando este soluto ya ha desaparecido dicha modificación –esta "memoria molecular"– no tiene
forma de transmitirse a nuevas moléculas de agua.
Se requiere postular un agente productor de tal memoria –que en su comienzo podía ser el soluto–, pues la
modificación misma es un resultado, vale decir, tiene un carácter meramente pasivo.

73
Es evidente que la modificación sufrida por el agua –por ejemplo: la polimerización de las moléculas de agua de
una manera específica para cada sustancia– demanda, tanto en su origen como en su propagación, de un agente
capaz de producirla. La modificación, que es comparada con una memoria (una huella específica), es el resultado
de un cierto agente que hay que precisar y que nosotros llamamos "Información".
Si sostenemos que, a diferencia de la hipótesis de la "memoria del agua", es la Información la que es capaz de
modificar el estado físico del agua –modificación que, al mismo tiempo, tiene que ser generadora de orden, o sea,
de carácter neguentrópico, como veremos–, entonces, y sólo entonces, será comprensible que también pueda
propagarse mientras ella esté presente.
Siendo la Información de la sustancia que sea el caso, y no la sustancia en cuanto un mero conjunto de moléculas,
la que posee la capacidad de modificar a las moléculas de agua –capacidad que, por otra parte, solamente puede
manifestarse bajo ciertas condiciones estrictas de no equilibrio del sistema–, podrá hacerlo tanto cuando dicha
Información se encuentre asociada a las moléculas de soluto, mientras éstas persistan, como cuando se encuentre
asociada a las moléculas de agua (o sea, al solvente).
La Información se hace activa bajo condiciones neguentrópicas del sistema (que es la solución), es decir, lejos
del estado de equilibrio, y su actividad consiste precisamente en producir la modificación del solvente,
convirtiendo a las moléculas de agua desordenadas en polímeros ordenados específicos de cada sustancia (o
soluto).
Es imprescindible que destaquemos el siguiente hecho: el "fenómeno homeopático" implica tomar un
conjunto desordenado de moléculas de agua y transformarlas en un conjunto ordenado.
Se trata de un conjunto azaroso de moléculas de agua que carecen de toda organización específica en común – y
que, si por casualidad poseyeran alguna, tuviera además la capacidad de persistir en el tiempo–, se transforme en
un sistema organizado de moléculas persistente y estable en el tiempo. Creo que este hecho no se ha destacado
como merece y, sin embargo, aquí está la clave del "fenómeno homeopático".
Pues la transformación, por efecto de la dilución y de la "sucusión" (que es la agitación mecánica de la solución),
de un gran número de polímeros acuosos diferentes e inestables, como los que se encuentran en cualquier porción
de agua común, y que son producto del azar, en un grupo bastante homogéneo de polímeros constituye la
expresión de un proceso de tipo neguentrópico.
En otras palabras, el proceso va en sentido opuesto al del aumento de la entropía, tal como lo predice la segunda
ley de la Termodinámica para los sistemas aislados, como es el caso, lo cual es sin duda sorprendente.
Pero no se trata solamente de la obtención de un tipo homogéneo de polímeros estables sino se trata también de
que estos polímeros contienen por su estructura una gran cantidad de información. En otras palabras, el sistema
se ha enriquecido en cantidad de información.
Desde luego, esta Información viene de afuera del sistema original, que es el agua en estado de equilibrio, sólo
que ésta tiene la capacidad de almacenarla. Naturalmente, la Información viene del soluto que ha sido diluido en
el agua.
Tenemos, entonces, que un sistema más bien desordenado conformado por un conjunto de moléculas de agua en
equilibrio térmico con su ambiente se convierte en otro sistema relativamente más ordenado –y, según parece,
sucesivamente más ordenado en la serie de diluciones y "sucusiones"–, cuando lo que sería dable esperar es, por
el contrario, que el sistema tienda nuevamente al equilibrio y, por tanto, alcance su nivel más alto de entropía
luego de cada acto de dilución y "sucusión".

74
Podríamos hacer una analogía que nos ayude a entender lo que llevamos dicho. Si ordenar una habitación consiste
en cambiar una habitación desordenada en otra ordenada, entonces ese cambio exige para su realización de dos
condiciones: a) de un agente ordenador que tenga la capacidad de realizar dicho cambio, y b) de aislar esa
habitación para evitar que nuevamente se desordene. En el caso del "fenómeno homeopático", el agente ordenador
no es, ni puede serlo, el operador del proceso de dilución y "sucusión" sino que la Información del soluto disuelto
que sí posee la capacidad de realizar ese cambio. Posteriormente, el sistema permanece aislado y de esa manera
se evita que el orden logrado se pierda.
Decíamos que el operador del proceso de dilución y "sucusión" no es el agente ordenador. Y no es el agente
ordenador porque su actividad, al diluir y agitar –aportando energía cinética al sistema–, sólo debería aumentar
la agitación molecular lo que lleva a un aumento de la temperatura y, finalmente, de la entropía. En lugar de
ordenar, desordena todavía más. Pero, sorprendentemente, el resultado final es de un aumento del orden.
Empero, debemos ser cuidadosos. El sistema total, una vez en reposo, está en equilibrio térmico con su ambiente;
luego, su nivel de entropía es máximo. La segunda ley sigue siendo válida. Pero el sistema ya no es el mismo que
al principio sino que representa el equilibrio de un orden diferente, es decir, cualitativamente diferente. Al
comparar ambos equilibrios, podemos observar que el último equilibrio presenta un ordenamiento mayor que el
primero. Vale decir, contiene una mayor cantidad de información. Es necesario explicar cómo es posible este
aumento en la cantidad de información.
Si nos limitamos a cuantificar la energía degradada (la diferencia entre la energía aportada y la energía perdida),
no podremos apreciar el "fenómeno homeopático" que se expresa por un orden nuevo para el agua.
Es, por decirlo así, como si comparáramos entre la energía gastada en ordenar realmente una habitación y un
esfuerzo consumidor de energía que pretendiera igualmente ordenar, pero que no lo consiguiera.
El balance de energías en ambos casos podría ser muy similar, quizás el mismo, pero el resultado es absolutamente
diferente. En un caso, el resultado es un cierto tipo de orden; en el otro caso, sólo desorden. Lo cual implica
que el orden mismo no ha consumido energía, aunque haya consumo de energía en el proceso de ponerlo de
manifiesto.
La operación de ordenar por parte de la Información se produce en algún instante entre el momento en el cual se
inicia la dilución y "sucusión", y el momento en el cual tal proceso termina. Y el resultado de esa actividad
ordenadora, el orden logrado por el agua (o "memoria del agua"), está al final de todo el proceso.
Se trata de la Información activa, en el primer caso, y de la Información pasiva (o latente), en el segundo caso,
vale decir, en el estado de reposo.
Por tanto, para nosotros los observadores humanos, la actividad de la Información permanece en todo momento
invisible. Solamente podemos conjeturar su acción a través de su efecto, la así llamada "memoria del agua", vale
decir, la modificación de la estructura de las moléculas del agua según lo que se supone sea un patrón específico
propio de cada soluto sometido a dilución.
En realidad ni siquiera es necesario que la modificación del solvente represente un isomorfismo espacial con el
soluto. En otras palabras, podría ser perfectamente el caso que microestructuras de polímeros de agua semejantes
entre sí, contuvieran Informaciones diferentes. En realidad la complejidad de la microestructura es la
consecuencia de la cantidad de información almacenada y no trasunta necesariamente la especificidad de la
Información.
La especificidad de la Información solamente se puede poner de manifiesto mediante la modificación ejercida
sobre su receptor (acción ejecutiva de la Información). Quizás una manera más exacta de decirlo sea la siguiente:
75
el receptor de la Información debe entrar en resonancia con ella, y es esta capacidad específica de ser receptor de
una Información y no serlo de otra la que permite que el receptor que sea el caso sufra una modificación de parte
de la Información.
Ahora bien, de la misma forma que la huella de una pisada humana en la arena nos hace conjeturar la presencia
de un ser humano en la playa, la "memoria del agua" nos hace conjeturar la presencia de la Información en el
"fenómeno homeopático". Por eso, explicar el "fenómeno homeopático" solamente considerando la "memoria del
agua" es tan equivocado como pretender explicar la presencia de esa huella de pisada sin la existencia de un ser
humano capaz de provocarla.
Toda modificación de carácter físico requiere como explicación de un agente físico capaz de producirla de una
manera igualmente física. Sin agente no hay acción. ¿Cómo explicar que una mera modificación en la estructura
de las moléculas de agua posea por sí misma la capacidad de reproducirse indefinidamente?
En otras palabras, ¿cómo puede ser que un efecto, un resultado, como es la modificación del agua, tenga la
capacidad de, a su vez, modificar a otras moléculas de agua?
Si sostuviéramos que la "memoria del agua" no es pasiva sino que activa, que posee la capacidad de reproducirse
activamente, entonces el concepto de Información sobraría porque estaríamos asumiendo su misma capacidad
ordenadora activa, ejecutiva.
Estaríamos usando así un concepto diferente (que nosotros denominamos "Información") bajo la misma expresión
("memoria del agua"), cuando el concepto encerrado por esta expresión claramente no lo contiene. Pues, ¿qué es
la memoria sino el resultado de la Información?
La memoria retiene, conserva la Información precisamente porque es un producto de la Información, es decir, se
convierte en Información pasiva o latente. Sin Información, no hay memoria. Entonces, primero está la
Información y luego el resultado de la Información que es la "memoria del agua".
Ahora, si en lugar de poner nuestra atención en las moléculas de agua, el solvente, nos preocupamos del soluto,
observaremos que aquí también podríamos hablar de "memoria". Pues, la "memoria del agua" procede
absolutamente de la "memoria de soluto"; es decir, que la "memoria del agua" no existiría sin la Información del
soluto. Es porque hay algo que podemos llamar "memoria del soluto" que hay también algo que podremos
consecuentemente llamar "memoria del agua", ya que esta última procede de la primera.
Mas lo importante es el paso entre ambas "memorias", aquello que permite que desde la "memoria del soluto" se
pase a constituir la "memoria del agua". Y ese algo es, por cierto, la Información.
Luego, es la presencia de la Información lo decisivo en este proceso. La Información partiendo del soluto
determina en el solvente, en las moléculas de agua, la modificación específica que llamamos "memoria del agua".
Hablando en términos generales, es la diferencia que hay entre la causa y lo causado. La causa preexiste a lo
causado. La causa, en este caso la Información, existe independientemente si produce o no la modificación del
solvente, que es lo causado. Lo que, por otra parte, nos sugiere que la Información existe siempre.
Existe la Información asociada a las moléculas de soluto, lo que hemos llamado "memoria del soluto", pero
también existe asociada a las moléculas de solvente y, por tanto, disociada del soluto. Entonces, su existencia
autónoma –ya que en algún momento de su transferencia entre el soluto y el solvente no estará asociado ni al uno
ni al otro–, implica su naturaleza energética. La Información es energía, pero energía no-degradable.

76
Precisamente por la presencia de esta energía no-degradable, es importante considerar a la "dilución homeopática"
no como un sistema estático sino como un sistema dinámico donde se están produciendo constantemente
transformaciones del desorden al orden y viceversa, entre las moléculas de solvente.
Esto quiere decir que si algunas moléculas de agua, en un instante dado, se organizan en la forma de ciertas
microestructuras específicas, otras se encontrarán en estado de agitación térmica, o sea, en desorden.
Luego, en otro instante posterior, las moléculas ordenadas y las desordenadas se intercambiarán, y así
sucesivamente en el tiempo. Tal dinámica implica que debe existir un patrón ordenador –que es la Información–
que no se pierde, pues de otra manera no se podría explicar la constancia de la cantidad de información total del
sistema.
Lo que estamos diciendo es que en un sistema aislado como es la "dilución homeopática", la cantidad total de
información permanece constante en el tiempo, salvo cuando ese sistema se abre y se produce intercambio con el
medio.
Otro punto importante de mencionar es el siguiente: la existencia de un sistema provisto de código exige,
conceptualmente, la existencia de otro sistema que sea decodificador. De otra forma el supuesto código dejaría
de ser tal. En otras palabras, un código tiene sentido solamente si puede ser decodificado.
La teoría de la "memoria del agua" considera que la presencia en las moléculas de agua de una configuración
espacial específica de cada soluto, es decir, de un polímero estereoespecífico, equivale a un código, el cual
representa una información –con minúsculas pues usamos la palabra "información" en su sentido corriente– que
puede ser copiada y transmitida.
Sin embargo, esta teoría trae aparejada profundas dificultades si se intenta aplicar a la explicación del efecto de
la información (concebida de esta manera corriente) sobre el agua del organismo; en otras palabras, cuando se
intenta entender su efecto biológico.
Toda teoría que pretenda explicar el "fenómeno homeopático", debe ser capaz de explicar todas las fases que
involucra este fenómeno y no solamente una de ellas.
Por tanto, debe también ser capaz de explicar su acción biológica, su acción en organismos (especialmente en el
organismo humano). Así, la "memoria del agua" debe explicar porqué existirían en el organismo –humano, animal
y vegetal– decodificadores de un código correspondiente a un elemento extraño a su constitución, e, incluso,
correspondiente a una sustancia sintética que no existe en la naturaleza.
Porque es un hecho que cualquier sustancia diluida más allá del límite impuesto por el Número de Avogadro, y
sin excepción alguna, es capaz de producir efectos sobre organismos sensibles, lo cual implicaría que ha sido
decodificada por ellos. ¿Cómo es posible que el organismo sea capaz de decodificar códigos (vale decir,
reconocerlos) a los cuales nunca antes se ha enfrentado y que nada tienen que ver con su supervivencia?
Pero resulta aún más extraño que sustancias que están presentes normalmente en el organismo, sean capaces en
dilución de provocar efectos tan notables. Por ejemplo: Natriummuriaticum, el cloruro de sodio o sal común
diluido más allá del límite físico determinado por el Número de Avogadro, produce en organismos sanos sensibles
efectos en forma de síntomas (experimentos llamados "patogenesias"), aun cuando de su dilución se ingiera una
cantidad de moléculas no significativa en comparación con el gran número de moléculas de cloruro de sodio que
hay en el organismo.
Tenemos, entonces, que una dosis insignificante de moléculas de agua con el código del cloruro de sodio, produce
un efecto muy superior al de todas las moléculas de esta sal presentes en el organismo. Esto es inexplicable.

77
Lo racionalmente esperable (según la Química) sería que fuera exactamente al revés, o sea, que el efecto de una
cantidad tan pequeña de moléculas fuera prácticamente nulo.
Al parecer no se repara en que cuando se usa una teoría completamente mecanicista –como es la de la "memoria
del agua" –, o sea, una teoría fundada exclusivamente en la existencia de elementos aislados (como son las
moléculas), los cuales guardan ciertas relaciones relativamente fijas entre ellos, indefectiblemente se está dejando
con ello de lado la presencia de un factor activo no mecánico.
Vale decir, se está dejando de lado la presencia de un factor capaz por sí solo de provocar un efecto significativo
sobre la totalidad orgánica. Pues en un sistema mecánico, el sistema total es la suma de sus partes y nada más.
La acción mecánica de molécula a molécula tiene un efecto estrictamente local y, por tanto, está sometida a la ley
de acción de las masas como cualquier reacción química ordinaria. Siendo este tipo de acción estrictamente
proporcional a la concentración de la masa activa, un efecto que involucre a todo el organismo logrado con una
cantidad tan feble de moléculas –como el que se observa en cualquier patogenesia–, resulta imposible de
comprender.
Sin embargo, la existencia de este efecto patogenésico está fuera de toda duda, por lo cual requiere de una
explicación consistente.
Si, por el contrario, partimos de la hipótesis de la Información como agente ejecutivo, o sea, como factor
activamente capaz de afectar al organismo entero, simplemente se necesita suponer la existencia en todo
organismo vivo de una entidad integradora única constituida por el conjunto de todas las Informaciones que lo
controlan. De manera que la Información procedente del exterior del organismo pueda actuar en esta totalidad
orgánica a través de esta especie de comando informacional.
Pues bien, esta entidad integradora es, según nuestro criterio, el genoma, pero siempre que se entienda no como
un conjunto de genomas individuales (el genoma de cada célula) sino como la Información común a todos ellos.
En un sistema total auténticamente no mecánico (como sería éste), el sistema total no es equivalente a la suma de
sus partes. Lo que se observa es que el todo está en cada parte.
¿Qué queremos decir con que el todo está en cada parte por pequeña que sea? Pues que la Información genética
no está, propiamente hablando, distribuida autónomamente en cada núcleo celular sino que la Información
genética total se expresa a través de cada núcleo –y, por tanto, de cada célula, tejido, órgano, etc.– aunque de
distinta manera según las circunstancias ambientales, tanto internas como externas al organismo.
Por tanto, no es difícil concebir coherentemente la acción directa de la Información sobre la Información, de la
Información de ciertas moléculas sobre la Información orgánica; entendiendo esta acción, por supuesto,
independientemente de la ley de acción de las masas.
Observamos una diferencia muy importante en la forma de actuar de la Información cuando ésta se haya asociada
a las moléculas propias de la sustancia a la cual pertenece, que cuando se encuentra libre de ella y laxamente
asociada a moléculas de agua.
Mientras que la Información latente en la masa de cualquier sustancia que pueda ser transportada en el interior
del organismo, en algún momento puede hacerse activa –principalmente por la acción de enzimas–, lo cual
requiere de tiempo (desde su absorción hasta su excreción); la Información disociada de la masa y transportada
por moléculas de agua actuará directa e inmediatamente sobre la Información orgánica total (la entidad
genómica global). Este efecto directo es instantáneo, pero sutil.

78
En otras palabras, si asociada a la masa de la sustancia que sea el caso producirá un efecto ineludible (como lo es
toda acción química), disociada de ella sólo provocará un efecto si se dan determinadas condiciones de la
Información orgánica. Habrá efecto en algunos casos y en otros no (según que opere o no la Ley de los
semejantes).
Solamente al concebir el funcionamiento total del organismo como siendo controlado por la Información
orgánica, o sea, por parte del genoma en tanto única entidad integradora global –versión actualizada del concepto
de "fuerza vital" de Hahnemann–, es posible comprender cómo una cantidad insignificante de moléculas de agua
codificada pueda actuar de manera de provocar efectos tan significativos.
La explicación es que la Información de la "dilución homeopática" actúa sobre el organismo porque el organismo
es controlado por la Información y sólo por la Información. ¿Cómo siendo así podría ser de otra forma? La
Información, entonces, y no la "memoria del agua" es la explicación de lo que hemos llamado el "fenómeno
homeopático".
Por cierto, la "memoria del agua" es solamente el subproducto de la acción de la Información sobre las moléculas
de agua –el solvente de la "dilución homeopática" –, cuando se dan las condiciones adecuadas a su manifestación.
El agua, en la preparación de la "dilución homeopática", se encuentra suficientemente aislada de la influencia de
otras Informaciones como para sufrir sólo el efecto organizador de la única Información disponible, la del soluto.
Además, el estado neguentrópico, o estado de desequilibrio del sistema constituido por la "dilución homeopática",
permite que la Información, hasta ese momento latente, se exprese. El resultado de esa expresión es la "memoria
del agua".
La "memoria del agua", resultante de la actividad ejecutiva de la Información del soluto de la "solución
homeopática" (como ya lo hemos dicho), representa un estado de organización, vale decir, constituye la expresión
de un orden que el agua previamente no poseía, pero no es precisamente lo que hemos denominado un
orden ordenante. Es simplemente un orden ordenado, como el orden de un cristal, al cual por otra parte se le
parece.
En pocas palabras, la "memoria del agua" es orden ordenado; en cambio, la Información es orden ordenante.
Es la diferencia que existe, por ejemplo, entre una molécula inerte de glucosa y una molécula viva de ADN (capaz
de generar un nuevo ser biológico).
Digamos, por último, que, dado que toda manifestación patológica, cualquiera sea la forma sintomática de
manifestarse, representa una pérdida de orden para el organismo, la causa estará en la alteración de su
organización, luego, en la alteración de la Información orgánica.
En consecuencia, si la enfermedad es desorden, la curación no podrá ser sino la recuperación del orden
perdido. El tratamiento que pretenda ser curativo deberá aportar orden, exactamente el orden que el organismo
enfermo que sea el caso necesita.
A diferencia de la Información, la "memoria del agua" no es capaz de aportar orden al organismo. La razón está
en que la "memoria del agua" no posee la capacidad ejecutiva que pueda poner orden en el desorden. En cambio,
ese orden que el organismo enfermo requiere para retornar a la salud es Información.
La Información es orden porque la Información es, por un lado, cualitativamente específica y es, por otro lado,
energía capaz de ordenar activamente el sistema que sea capaz de recogerla.

79
Ambos aspectos son solidarios, pues la capacidad ejecutiva de la Información no puede ejercerse sino sobre el
receptor adecuado, que es aquel capaz de resonar con dicha Información porque es cualitativamente semejante.
(Véase: La Homeopatía, las enzimas y la Información.)

80

Vous aimerez peut-être aussi