Vous êtes sur la page 1sur 39

La Teoría Cuántica, una aproximación al universo probable

Es un conjunto de nuevas ideas que explican procesos incomprensibles para la física de los objetos

La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto de
nuevas ideas introducidas a lo largo del primer tercio del siglo XX para dar explicación a procesos cuya
comprensión se hallaba en conflicto con las concepciones físicas vigentes.

Su marco de aplicación se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear,
donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica, en la
física de nuevos materiales, en la física de altas energías, en el diseño de instrumentación médica, en la
criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano.

La Teoría Cuántica es una teoría netamente probabilista: describe la probabilidad de que un suceso dado
acontezca en un momento determinado, sin especificar cuándo ocurrirá. A diferencia de lo que ocurre en
la Física Clásica, en la Teoría Cuántica la probabilidad posee un valor objetivo esencial (valores que
existen independientemente del sujeto que valora, este, los descubre), y no se halla supeditada
(condicionado) al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina.

La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Se trata de una teoría que
reúne un formalismo matemático y conceptual, y recoge un conjunto de nuevas ideas introducidas a lo
largo del primer tercio del siglo XX, para dar explicación a procesos cuya comprensión se hallaba en
conflicto con las concepciones físicas vigentes.

Las ideas que sustentan la Teoría Cuántica surgieron, pues, como alternativa al tratar de explicar el
comportamiento de sistemas en los que el aparato conceptual de la Física Clásica se mostraba
insuficiente. Es decir, una serie de observaciones empíricas cuya explicación no era abordable a través
de los métodos existentes, propició la aparición de las nuevas ideas.

Hay que destacar el fuerte enfrentamiento que surgió entre las ideas de la Física Cuántica, y aquéllas
válidas hasta entonces por la Física Clásica. Lo cual se agudiza aún más si se tiene en cuenta el notable
éxito experimental que éstas habían mostrado a lo largo del siglo XIX, apoyándose básicamente en la
mecánica de Newton y la teoría electromagnética de Maxwell (1865).

“Dos nubecillas”

Era tal el grado de satisfacción de la comunidad científica que algunos físicos, entre ellos uno de los más
ilustres del siglo XIX, William Thompson (Lord Kelvin), llegó a afirmar:

Hoy día la Física forma, esencialmente, un conjunto perfectamente armonioso, ¡un conjunto
prácticamente acabado! ... Aun quedan “dos nubecillas” que oscurecen el esplendor de este conjunto. La
primera es el resultado negativo del experimento de Michelson-Morley. La segunda, las profundas
discrepancias entre la experiencia y la Ley de Rayleigh-Jeans.

La disipación de la primera de esas “dos nubecillas” condujo a la creación de la Teoría Especial de la


Relatividad por Einstein (1905), es decir, al hundimiento de los conceptos absolutos de espacio y tiempo,
propios de la mecánica de Newton, y a la introducción del “relativismo” en la descripción física de la
realidad. La segunda “nubecilla” descargó la tormenta de las primeras ideas cuánticas, debidas al físico
alemán Max Planck (1900).

El origen de la Teoría Cuántica

¿Qué pretendía explicar, de manera tan poco afortunada, la Ley de Rayleigh-Jeans (1899)? Un
fenómeno físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción
entre la materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o
absorbiéndola, con una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la
Ley de Wien (1893), que pretendía también explicar el mismo fenómeno.

La Ley de Wien daba una explicación experimental correcta si la frecuencia de la radiación es alta, pero
fallaba para frecuencias bajas. Por su parte, la Ley de Rayleigh-Jeans daba una explicación experimental
correcta si la frecuencia de la radiación es baja, pero fallaba para frecuencias altas.

La frecuencia es una de las características que definen la radiación, y en general cualquier fenómeno en
el que intervengan ondas. Puede interpretarse la frecuencia como el número de oscilaciones por unidad
de tiempo. Toda la gama de posibles frecuencias para una radiación en la Naturaleza se hallan
contenidas en el espectro electromagnético, el cual, según el valor de la frecuencia elegida determina un
tipo u otro de radiación.

En 1900, Max Planck puso la primera piedra del edificio de la Teoría Cuántica. Postuló una ley (la Ley de
Planck) que explicaba de manera unificada la radiación del cuerpo negro, a través de todo el espectro de
frecuencias.

La hipótesis de Planck

¿Qué aportaba la ley de Planck que no se hallase ya implícito en las leyes de Wien y de Rayleigh-Jeans?
Un ingrediente tan importante como novedoso. Tanto que es el responsable de la primera gran crisis
provocada por la Teoría Cuántica sobre el marco conceptual de la Física Clásica. Ésta suponía que el
intercambio de energía entre la radiación y la materia ocurría a través de un proceso continuo, es decir,
una radiación de frecuencia “f ” podía ceder cualquier cantidad de energía al ser absorbida por la materia.

Lo que postuló Planck al introducir su ley es que la única manera de obtener una fórmula
experimentalmente correcta exigía la novedosa y atrevida suposición de que dicho intercambio de
energía debía suceder de una manera discontinua, es decir, a través de la emisión y absorción de
cantidades discretas de energía, que hoy denominamos “quantums” de radiación.

La cantidad de energía “E” propia de un quantum de radiación de frecuencia “f ” se obtiene mediante la


relación de Planck: E = h*f, siendo h la constante universal de Planck = 6.62x10‫־‬³⁴ (unidades de
“acción”).

Puede entenderse la relación de Planck diciendo que cualquier radiación de frecuencia f se comporta
como una corriente de partículas, los quantums, cada una de ellas transportando una energía E = h*f,
que pueden ser emitidas o absorbidas por la materia.

La hipótesis de Planck otorga un carácter corpuscular, material, a un fenómeno tradicionalmente


ondulatorio, como la radiación. Pero lo que será más importante, supone el paso de una concepción
continuista de la Naturaleza a una discontinuista, que se pone especialmente de manifiesto en el estudio
de la estructura de los átomos, en los que los electrones sólo pueden tener un conjunto discreto y
discontinuo de valores de energía.

La hipótesis de Planck quedó confirmada experimentalmente, no sólo en el proceso de radiación del


cuerpo negro, a raíz de cuya explicación surgió, sino también en las explicaciones del efecto
fotoeléctrico, debida a Einstein (1905), y del efecto Compton, debida a Arthur Compton (1923).

Marco de aplicación de la Teoría Cuántica

El marco de aplicación de la Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico,
subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos,
como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes
electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de
altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la
computación cuánticas, y en la Cosmología teórica del Universo temprano. De manera que la Teoría
Cuántica se extiende con éxito a contextos muy diferentes, lo que refuerza su validez.

Pero, ¿por qué falla la teoría clásica en su intento de explicar los fenómenos del micromundo? ¿No se
trata al fin y al cabo de una simple diferencia de escalas entre lo grande y lo pequeño, relativa al tamaño
de los sistemas? La respuesta es negativa. Pensemos que no siempre resulta posible modelar un mismo
sistema a diferentes escalas para estudiar sus propiedades.

Para ver que la variación de escalas es un proceso con ciertas limitaciones intrínsecas, supongamos que
queremos realizar estudios hidrodinámicos relativos al movimiento de corrientes marinas. En
determinadas condiciones, podríamos realizar un modelo a escala lo suficientemente completo, que no
dejase fuera factores esenciales del fenómeno. A efectos prácticos una reducción de escala puede
resultar lo suficientemente descriptiva.

Pero si reducimos la escala de manera reiterada pasaremos sucesivamente por situaciones que se
corresponderán en menor medida con el caso real. Hasta llegar finalmente a la propia esencia de la
materia sometida a estudio, la molécula de agua, que obviamente no admite un tratamiento
hidrodinámico, y habremos de acudir a otro tipo de teoría, una teoría de tipo molecular. Es decir, en las
sucesivas reducciones de escala se han ido perdiendo efectos y procesos generados por el
aglutinamiento de las moléculas.

De manera similar, puede pensarse que una de las razones por las que la Física Clásica no es aplicable
a los fenómenos atómicos, es que hemos reducido la escala hasta llegar a un ámbito de la realidad
“demasiado esencial” y se hace necesario, al igual que en el ejemplo anterior, un cambio de teoría. Y de
hecho, así sucede: la Teoría Cuántica estudia los aspectos últimos de la substancia, los constituyentes
más esenciales de la materia (las denominadas “partículas elementales”) y la propia naturaleza de la
radiación.

Cuándo entra en juego la Teoría Cuántica

Debemos asumir, pues, el carácter absoluto de la pequeñez de los sistemas a los que se aplica la Teoría
Cuántica. Es decir, la cualidad “pequeño” o “cuántico” deja de ser relativa al tamaño del sistema, y
adquiere un carácter absoluto. Y ¿qué nos indica si un sistema debe ser considerado “pequeño”, y
estudiado por medio de la Teoría Cuántica? Hay una “regla”, un “patrón de medida” que se encarga de
esto, pero no se trata de una regla calibrada en unidades de longitud, sino en unidades de otra magnitud
física importante denominada “acción”.
La acción es una magnitud física, al igual que lo son la longitud, el tiempo, la velocidad, la energía, la
temperatura, la potencia, la corriente eléctrica, la fuerza, etc., aunque menos conocida. Y al igual que la
temperatura indica la cualidad de frío o caliente del sistema, y la velocidad su cualidad de reposo o
movimiento, la acción indica la cualidad de pequeño (cuántico) o grande (clásico) del sistema. Como la
energía, o una longitud, todo sistema posee también una acción que lo caracteriza.

Esta acción característica, A, se obtiene de la siguiente multiplicación de magnitudes: A = P x L, donde P


representa la cantidad de movimiento característica del sistema (el producto de su masa por su
velocidad) y L su “longitud” característica. La unidad de esa “regla” que mencionábamos, con la que
medimos la acción de los sistemas, es la constante de Planck, h. Si el valor de la acción característica
del sistema es del orden de la constante de Planck deberemos utilizar necesariamente la Teoría Cuántica
a la hora de estudiarlo.

Al contrario, si h es muy pequeña comparada con la acción típica del sistema podremos estudiarlo a
través de los métodos de la teoría clásica. Es decir: Si A es del orden de h debemos estudiar el sistema
según la Teoría Cuántica. Si A es mucho mayor que h, podemos estudiarlo por medio de la Física
Clásica.

Dos ejemplos: partículas y planetas

Veamos dos ejemplos de acción característica en dos sistemas diferentes, aunque análogos:

1. El electrón orbitando en torno al núcleo en el nivel más bajo de energía del átomo de hidrógeno.

Vamos a calcular el orden de magnitud del producto P x L. P representa el producto de la masa del
electrón por su velocidad orbital, esto es P = 10 (exp-31) (masa) x 10 (exp 6) (velocidad) = 10 (exp-25)
(cantidad de movimiento). El valor característico de L corresponde al radio de la órbita, esto es, L = 10
(expo-10) (longitud). Realizamos ahora el producto P x L para hallar la magnitud de la “acción”
característica asociada a este proceso: A1 = Px L = 10 (expo-25) x 10 (expo-10) = 10 (expo-35)
(acción).

2. El planeta Júpiter orbitando en torno al Sol (consideramos la órbita circular, para simplificar).

Para este segundo ejemplo, realizamos cálculos análogos a los anteriores. Primeramente la cantidad de
movimiento P, multiplicando la masa de Júpiter por su velocidad orbital: P = 10 (expo 26) (masa) x 10
(expo 4) (velocidad) = 10 (expo 30) (cantidad de movimiento). Igualmente, la longitud característica será
la distancia orbital media: L = 10 (expo 11) (longitud). La magnitud de la acción característica en este
segundo caso será: A2 = 10 (expo 30) x 10 (expo 11) = 10 (expo 41) (acción).

Si comparamos estos dos resultados con el orden de magnitud de la constante de Planck tenemos:

h = 10 (expo-34)
A1 = 10 (expo -35)
A2 = 10 (expo 41)

Vemos que para el caso 1 (electrón orbitando en un átomo de hidrógeno) la proximidad en los órdenes
de magnitud sugiere un tratamiento cuántico del sistema, que debe estimarse como “pequeño” en el
sentido que indicábamos anteriormente, en términos de la constante de Planck, considerada como
“patrón” de medida. Al contrario, entre el caso 2 (Júpiter en órbita en torno al Sol) y la constante de
Planck hay una diferencia de 75 órdenes de magnitud, lo que indica que el sistema es manifiestamente
“grande”, medido en unidades de h, y no requiere un estudio basado en la Teoría Cuántica.

La constante de Planck tiene un valor muy, muy pequeño. Veámoslo explícitamente:


h = 0’ 000000000000000000000000000000000662 (unidades de acción)

El primer dígito diferente de cero aparece en la trigésimo cuarta cifra decimal. La pequeñez extrema de h
provoca que no resulte fácil descubrir los aspectos cuánticos de la realidad, que permanecieron ocultos a
la Física hasta el siglo XX. Allá donde no sea necesaria la Teoría Cuántica, la teoría clásica ofrece
descripciones suficientemente exactas de los procesos, como en el caso del movimiento de los planetas,
según acabamos de ver.

Aspectos esencialmente novedosos de la Teoría Cuántica

Los aspectos esencialmente novedosos (no clásicos) que se derivan de la Teoría Cuántica son:

a) Carácter corpuscular de la radiación (Hipótesis de Planck).

b) Aspecto ondulatorio de las partículas (Hipótesis de Broglie).

c) Existencia de magnitudes físicas cuyo espectro de valores es discontinuo. Por ejemplo los niveles de
energía del átomo de hidrógeno (Modelo atómico de Bohr).

Implicaciones de a): carácter corpuscular de la radiación.

Tradicionalmente se había venido considerando la radiación como un fenómeno ondulatorio. Pero la


hipótesis de Planck la considera como una corriente de partículas, “quantums”. ¿Qué naturaleza tiene,
entonces, la radiación: ondulatoria o corpuscular? Las dos. Manifiesta un carácter marcadamente “dual”.
Se trata de aspectos que dentro del formalismo cuántico no se excluyen, y se integran en el concepto de
“quantum”.

El quantum de radiación puede manifestar propiedades tanto corpusculares como ondulatorias, según el
valor de la frecuencia de la radiación. Para valores altos de la frecuencia (en la región gamma del
espectro) predomina el carácter corpuscular. En tanto que para frecuencias bajas (en la región del
espectro que describe las ondas de radio) predomina el aspecto ondulatorio.

Implicaciones de b): carácter ondulatorio de las partículas.

Se comprobó en experimentos de difracción de electrones y neutrones. Lo que ponen de manifiesto


estos experimentos es que una clase de onda acompaña el movimiento de las partículas como
responsable del fenómeno de difracción. De manera que nuevamente tenemos un ejemplo de dualidad
entre las propiedades corpusculares y ondulatorias, asociadas en este caso a las partículas.

Pero la aparición del fenómeno ondulatorio no se produce únicamente a nivel microscópico, también se
manifiesta para objetos macroscópicos, aunque en este caso la onda asociada tiene una longitud de
onda tan pequeña que en la práctica es inapreciable y resulta imposible la realización de un experimento
de difracción que la ponga de manifiesto.

Implicaciones de c): existencia de magnitudes físicas discontinuas.

Pone de manifiesto el carácter intrínsecamente discontinuo de la Naturaleza, lo que se evidencia, como


ejemplo más notable, en el espectro de energía de los átomos. A partir de la existencia de estas
discontinuidades energéticas se explica la estabilidad de la materia.
Dios no juega a los dados...

Un ejemplo concreto

Analicemos para el caso del átomo de hidrógeno, según el modelo de Bohr, cómo se conjugan estos tres
supuestos cuánticos anteriores, a), b) y c). El átomo de hidrógeno se entiende como un sistema estable
formado por un electrón y un protón. El electrón puede hallarse en un conjunto infinito, pero discontinuo
de niveles de energía [supuesto c)].

Para pasar de un nivel a otro, el electrón debe absorber o emitir un quantum discreto de radiación
[supuesto a)] cuya energía sea igual a la diferencia de energía entre esos niveles. Los niveles posibles
de energía de los electrones se representan matemáticamente por funciones ondulatorias [supuesto b)],
denominadas “funciones de estado”, que caracterizan el estado físico del electrón en el nivel de energía
correspondiente.

Para conocer el valor experimental de cualquier propiedad referente a la partícula debe “preguntarse” a
su función de estado asociada. Es decir, dicha función constituye un tipo de representación del estado
físico, tal que el estado del electrón en el n-ésimo nivel de energía es descrito por la n-ésima función de
estado.

La función de onda

La descripción más general del estado del electrón del átomo de hidrógeno viene dada por la
“superposición” de diferentes funciones de estado. Tal superposición es conocida como “función de
onda”. La superposición de estados posibles es típica de la Teoría Cuántica, y no se presenta en las
descripciones basadas en la Física Clásica.

En esta última, los estados posibles nunca se superponen, sino que se muestran directamente como
propiedades reales atribuibles al estado del sistema. Al contrario, especificar el estado del sistema en la
Teoría Cuántica implica tomar en consideración la superposición de todos sus estados posibles. Las
funciones de onda no son ondas asociadas a la propagación de ningún campo físico (eléctrico,
magnético, etc.), sino representaciones que permiten caracterizar matemáticamente los estados de las
partículas a que se asocian.

El físico alemán Max Born ofreció la primera interpretación física de las funciones de onda, según la cual
el cuadrado de su amplitud es una medida de la probabilidad de hallar la partícula asociada en un
determinado punto del espacio en un cierto instante. Aquí se manifiesta un hecho que se repetirá a lo
largo del desarrollo de la Teoría Cuántica, y es la aparición de la probabilidad como componente esencial
de la gran mayoría de los análisis.
La probabilidad en la Teoría Cuántica

La Teoría Cuántica es una teoría netamente probabilista. Nos habla de la probabilidad de que un suceso
dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión.
La importancia de la probabilidad dentro de su formalismo supuso el punto principal de conflicto entre
Einstein y Bohr en el V Congreso Solvay de Física de 1927.

Einstein argumentaba que la fuerte presencia de la probabilidad en la Teoría Cuántica hacía de ella una
teoría incompleta reemplazable por una hipotética teoría mejor, carente de predicciones probabilistas, y
por lo tanto determinista. Acuñó esta opinión en su ya famosa frase, “Dios no juega a los dados con el
Universo”.

La postura de Einstein se basa en que el papel asignado a la probabilidad en la Teoría Cuántica es muy
distinto del que desempeña en la Física Clásica. En ésta, la probabilidad se considera como una medida
de la ignorancia del sujeto, por falta de información, sobre algunas propiedades del sistema sometido a
estudio. Podríamos hablar, entonces, de un valor subjetivo de la probabilidad. Pero en la Teoría Cuántica
la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del
sujeto, sino que, en cierto modo, lo determina.

En opinión de Einstein, habría que completar la Teoría Cuántica introduciendo en su formalismo un


conjunto adicional de elementos de realidad (a los que se denominó “variables ocultas”), supuestamente
obviados por la teoría, que al ser tenidos en cuenta aportarían la información faltante que convertiría sus
predicciones probabilistas en predicciones deterministas.

Mario Toboso es Doctor en Ciencias Físicas por la Universidad de Salamanca y miembro de la Cátedra
Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas. Editor del Blog Tempus de
Tendencias21 y miembro del Consejo Editorial de nuestra revista. Este artículo es la primera entrega de
una serie de dos sobre Teoría Cuántica. Ver el siguiente: La Teoría Cuántica cuestiona la naturaleza de
la realidad.

02. Conoce qué es la teoría cuántica y qué trata de explicar

Las partículas son diferentes en la teoría cuántica

¿Cuántas veces has oído hablar de la teoría cuántica? Es de esas cosas que todo el mundo sabe, pero
pocos comprenden y pueden explicar. Nosotros hemos tratado de reunir los conocimientos básicos
que deberías saber sobre ella y por qué es tan importante. No la ideó una sola persona, sino que varios
científicos, entre ellos Einstein, contribuyeron a desarrollarla.
La teoría cuántica es una teoría física basada en la utilización del concepto de unidad cuántica para
describir las propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia
y la radiación. Bajo esta premisa se ha construido el que es uno de los pilares fundamentales de la
física.

Antes de la teoría cuántica, las leyes de cómo se comportaban los cuerpos en movimiento se basaba en
la mecánica newtoniana. Sin embargo, a finales del siglo XIX se dieron importantes descubrimientos
que explicaban mejor el mundo que nos rodea. Y también, como consecuencia, arrojaron más preguntas
sobre el porqué de las cosas.

Origen de la teoría cuántica

La teoría cuántica ha servido para entender también el universo

El físico alemán Max Planck fue el primero en hablar sobre ella en 1900. Postuló que la materia solo
puede emitir o absorber energía en pequeñas cantidades llamadas cuantos. Por otro lado, el físico
Werner Heisenberg, desarrolló el principio de incertidumbre, que sería clave para entender mejor el
mundo subatómico.

Esta fue su gran aportación a la ciencia en el siglo XX. Ofreció una nueva visión más amplia sobre la
estructura de la materia y sirvió de base para la comprensión de la estructura atómica.

Para la teoría cuántica no deja de ser una teoría que, a pesar de haber servido para explicar muchos
fenómenos, también tiene sus errores. Es lo que trató de explicar la paradoja EPR, postulada por el
mismísimo Eisntein junto a Boris Podolsky y Nathan Rosen. Estos tres científicos explicaron a través del
entrelazamiento cuántico cómo la teoría cuántica era errónea. Este experimento, que no deja de ser otro
planteamiento teórico, afirma que puedes conocer el posicionamiento de la otra partícula.

03. Mecánica cuántica ondulatoria

A pesar de las sucesivas correcciones del modelo atómico de Bohr, éste se manifestaba insuficiente para
dar una explicación de todos los fenómenos y experiencias a escala atómica, además de no ser aplicable
a átomos con más de un electrón.

La necesidad de introducir, de forma un tanto arbitraria, nuevos números cuánticos para poder explicar
los nuevos hechos experimentales mediante la teoría original de Bohr es consecuencia del hecho de que
ésta es una aplicación de las ideas cuánticas a la mecánica clásica. Es decir, los principios y leyes de la
escala macroscópica se aplican a escala microscópica con algunas correcciones, cuando lo que se ha de
cambiar es el planteamiento del problema, un nuevo "punto de vista" bajo el cual observar el
fenómeno.

Junto con la ecuación de Planck, dos ideas surgidas después de 1920 dieron origen a un nuevo
planteamiento para elaborar un modelo de átomo, la mecánica cuántica ondulatoria:

 La dualidad onda-corpúsculo de De Broglie.

 El principio de incertidumbre de Heisenberg.

Curiosidad

La V Conferencia Solvay

Fueron muchos los físicos que durante el primer cuarto del siglo XX contribuyeron a dar forma al modelo
de átomo que todavía se utiliza hoy en día.

En la fotografía siguiente puedes verlos a prácticamente todos, durante la V Conferencia Solvay,


celebrada en 1927. Se dice que es la mayor concentración de premios Nobel jamás fotografiada. Fíjate
en que solamente hay una mujer, Madame Curie; eso sí, es la única galardonada con los premios Nobel
de Física y de Química.
LA TEORÍA CUÁNTICA

La teoría cuántica, es una teoría física basada en la utilización del concepto de unidad
cuántica para describir las propiedades dinámicas de las partículas subatómicas y las
interacciones entre la materia y la radiación. Las bases de la teoría fueron sentadas por el
físico alemán Max Planck, que en 1900 postuló que la materia sólo puede emitir o absorber
energía en pequeñas unidades discretas llamadas cuantos. Otra contribución fundamental al
desarrollo de la teoría fue el principio de incertidumbre, formulado por el físico alemán
Werner Heisenberg en 1927, y que afirma que no es posible especificar con exactitud
simultáneamente la posición y el momento lineal de una partícula subatómica.

Introducción histórica
En los siglos XVIII y XIX, la mecánica newtoniana o clásica parecía proporcionar una
descripción totalmente precisa de los movimientos de los cuerpos, como por ejemplo el
movimiento planetario. Sin embargo, a finales del siglo XIX y principios del XX, ciertos
resultados experimentales
introdujeron dudas sobre si la
teoría newtoniana era
completa. Entre las nuevas
observaciones figuraban las
líneas que aparecen en los
espectros luminosos emitidos
por gases calentados o
sometidos a descargas
eléctricas. Según el modelo del
átomo desarrollado a
comienzos del siglo XX por el
físico británico nacido en
Nueva Zelanda Ernest
Rutherford, en el que los
electrones cargados
negativamente giran en torno a
un núcleo positivo, en órbitas
dictadas por las leyes del
movimiento de Newton, los
Líneas espectrales del hidrógeno científicos esperaban que los electrones
Cuando un electrón pasa de un nivel de emitieran luz en una amplia gama de
energía a otro, emite un fotón con una frecuencias, y no en las estrechas bandas de
energía determinada. Estos fotones dan frecuencia que forman las líneas de un
lugar a líneas de emisión en un espectro.
espectroscopio. Las líneas de la serie de Otro enigma para los físicos era la
Lyman corresponden a transiciones al coexistencia de dos teorías de la luz: la teoría
nivel de energía más bajo o fundamental. corpuscular, que explica la luz como una
La serie de Balmer implica transiciones al corriente de partículas, y la teoría ondulatoria,
segundo nivel. Esta serie incluye que considera la luz como ondas
transiciones situadas en el espectro visible electromagnéticas. Un tercer problema era la
y asociadas cada una con un color ausencia de una base molecular para la
diferente.
termodinámica. En su libro Principios elementales en mecánica estadística (1902), el físico
estadounidense J. Willard Gibbs reconocía la imposibilidad de elaborar una teoría de acción
molecular que englobara los fenómenos de la termodinámica, la radiación y la electricidad tal
como se entendían entonces.

Introducción del cuanto de Planck


A principios del siglo XX, los físicos aún no reconocían claramente que éstas y otras
dificultades de la física estaban relacionadas entre sí. El primer avance que llevó a la solución
de aquellas dificultades fue la introducción por parte de Planck del concepto de cuanto, como
resultado de los estudios de la radiación del cuerpo negro realizados por los físicos en los
últimos años del siglo XIX (el término "cuerpo negro" se refiere a un cuerpo o superficie ideal
que absorbe toda la energía radiante sin reflejar ninguna). Un cuerpo a temperatura alta —al
rojo vivo— emite la mayor parte de su radiación en las zonas de baja frecuencia (rojo e
infrarrojo); un cuerpo a temperatura más alta —al rojo blanco— emite proporcionalmente más
radiación en frecuencias más altas (amarillo, verde o azul). Durante la década de 1890, los
físicos llevaron a cabo estudios cuantitativos detallados de esos fenómenos y expresaron sus
resultados en una serie de curvas o gráficas. La teoría clásica, o precuántica, predecía un
conjunto de curvas radicalmente diferentes de las observadas. Lo que hizo Planck fue diseñar
una fórmula matemática que describiera las curvas reales con exactitud; después dedujo una
hipótesis física que pudiera explicar la fórmula. Su hipótesis fue que la energía sólo es radiada
en cuantos cuya energía es h· , donde  es la frecuencia de la radiación y h es el ‘cuanto de
acción’, ahora conocido como constante de Planck.
La energía es discontinua y depende de la frecuencia de la radiación:
Ecuación de Planck: E=h· = h·c/

Aportaciones de Einstein: Efecto fotoeléctrico


Los siguientes avances importantes en la teoría cuántica se debieron a Albert Einstein, que
empleó el concepto del cuanto introducido por Planck para explicar determinadas propiedades
del efecto fotoeléctrico, un fenómeno experimental en el que una superficie metálica emite
electrones cuando incide sobre ella una radiación.
Según la teoría clásica, la energía de los electrones emitidos —medida por la tensión eléctrica
que generan— debería ser proporcional a la intensidad de la radiación. Sin embargo, se
comprobó que esta energía era independiente de la intensidad —que sólo determinaba el
número de electrones emitidos— y dependía exclusivamente de la frecuencia de la radiación.
Cuanto mayor es la frecuencia de la radiación incidente, mayor es la energía de los electrones;
por debajo de una determinada frecuencia crítica, no se emiten electrones. Einstein explicó
estos fenómenos suponiendo que un único cuanto de energía radiante expulsa un único
electrón del metal. La energía del cuanto es proporcional a la frecuencia, por lo que la energía
del electrón depende de la frecuencia.
Einstein aplica el principio de conservación de la energía al efecto fotoeléctrico:
Energía incidente= Energía de extracción + Energía cinética
Ei = W0+Ec
h· = h·0 + ½ 2
m·v

Otro fenómeno no explicado por la física clásica fue el efecto Compton.


En el efecto Compton se aplican las leyes de conservación del momento lineal y de la
energía, al choque de un fotón con un electrón aislado para obtener la variación de la longitud
de onda del fotón en función del ángulo de dispersión.
El efecto Compton estudia la variación de la longitud de onda de los rayos X , explica la
dispersión de los Rayos X como un choque de un fotón de momento lineal inicial h/l con un
electrón libre. Se dispersan fotones mediante electrones y se relaciona el momento lineal del
fotón dispersado y el momento lineal del fotón inicial, con la masa del electrón y el ángulo de
dispersión.

Cuando se analiza la radiación electromagnética que ha pasado por una región en la que hay
electrones libres, se observa que además de la radiación incidente, hay otra de frecuencia
menor. La frecuencia o la longitud de onda de la radiación dispersada depende de la dirección
de la dispersión.

Sea la longitud de onda de la radiación incidente, y ’ la longitud de onda de la radiación


dispersada. Compton encontró que la diferencia entre ambas longitudes de onda estaba
determinada únicamente por el ángulo de dispersión, del siguiente modo
donde c es una constante que vale 2.4262 10-12 m

Llegamos entonces a la conclusión de que podemos explicar la dispersión de la


radiación electromagnética por los electrones libres como una colisión elástica
entre un fotón y un electrón en reposo en el sistema de referencia del observador.
A partir de las ecuaciones de conservación del momento lineal y de la energía,
llegamos a la ecuación que nos relaciona la longitud de onda de la radiación
incidente con la longitud de onda de la radiación dispersada ’ y con el ángulo
de dispersión .

El efecto Compton y el efecto fotoeléctrico demuestran que la energía luminosa interacciona


con la materia en cantidades discretas o cuantizadas denominadas fotones.

El átomo de Bohr

En 1911, Rutherford estableció la existencia del núcleo atómico. A partir de los datos
experimentales de la dispersión de partículas alfa por núcleos de átomos de oro, supuso que
cada átomo está formado por un núcleo denso y con carga positiva, rodeado por electrones
cargados negativamente que giran en torno al núcleo como los planetas alrededor del Sol. La
teoría electromagnética clásica desarrollada por el físico británico James Clerk Maxwell
predecía inequívocamente que un electrón que girara en torno a un núcleo radiaría
continuamente energía electromagnética hasta perder toda su energía, y acabaría cayendo en
el núcleo. Por tanto, según la teoría clásica, el átomo descrito por Rutherford sería inestable.
Esta dificultad llevó al físico danés Niels Bohr a postular, en 1913, que la teoría clásica no es
válida en el interior del átomo y que los electrones se desplazan en órbitas fijas, llamadas
estacionarias, sin emitir energía. Cada cambio de órbita de un electrón corresponde a la
absorción o emisión de un cuanto de radiación.
La aplicación de la teoría de Bohr a átomos con más de un electrón resultó difícil. Las
ecuaciones matemáticas para el siguiente átomo más sencillo, el de helio, fueron resueltas
durante la segunda y tercera década del siglo XX, pero los resultados no concordaban
exactamente con los datos experimentales. Para átomos más complejos sólo pueden
obtenerse soluciones aproximadas de las ecuaciones, y se ajustan sólo parcialmente a las
observaciones.

Mecánica ondulatoria: Dualidad onda corpúsculo

El físico francés Louis Victor de Broglie sugirió en 1924 que, puesto que las ondas
electromagnéticas muestran algunas características corpusculares, las partículas también
deberían presentar en algunos casos propiedades
ondulatorias (Dualidad onda-corpúsculo).
=h/p=h/m·v
Esta predicción fue verificada experimentalmente pocos
años después por los físicos estadounidenses Clinton
Davisson y Lester Halbert Germer y el físico británico
George Paget Thomson, quienes mostraron que un haz
de electrones dispersado por un cristal da lugar a una
figura de difracción característica de una onda.

El concepto ondulatorio de las partículas llevó al físico austriaco Erwin Schrödinger a


desarrollar una ‘ecuación de onda’ para describir las propiedades ondulatorias de una partícula
y, más concretamente, el comportamiento ondulatorio del electrón en el átomo de hidrógeno.
Aunque esta ecuación diferencial era continua y proporcionaba soluciones para todos los
puntos del espacio, las soluciones permitidas de la ecuación estaban restringidas por ciertas
condiciones expresadas por ecuaciones matemáticas llamadas funciones propias o
eigenfunciones (del alemán eigen, ‘propio’). Así, la ecuación de onda de Schrödinger sólo
tenía determinadas soluciones discretas; estas soluciones eran expresiones matemáticas en
las que los números cuánticos aparecían como parámetros (los números cuánticos son
números enteros introducidos en la física de partículas para indicar las magnitudes de
determinadas cantidades características de las partículas o sistemas). La ecuación de
Schrödinger se resolvió para el átomo de hidrógeno y dio resultados que encajaban
sustancialmente con la teoría cuántica anterior. Además, tenía solución para el átomo de helio,
que la teoría anterior no había logrado explicar de forma adecuada, y también en este caso
concordaba con los datos experimentales. Las soluciones de la ecuación de Schrödinger
también indicaban que no podía haber dos electrones que tuvieran sus cuatro números
cuánticos iguales, esto es, que estuvieran en el mismo estado energético. Esta regla, que ya
había sido establecida empíricamente por Wolfgang Pauli en 1925, se conoce como principio
de exclusión de Pauli.

Mecánica de matrices
De forma simultánea con el desarrollo de la mecánica ondulatoria, Heisenberg desarrolló un
análisis matemático diferente conocido como mecánica de matrices. La teoría de Heisenberg,
elaborada en colaboración con los físicos alemanes Max Born y Ernst Pascual Jordan, no
empleaba una ecuación diferencial, sino una matriz infinita formada por infinitas filas
compuestas a su vez de un número infinito de cantidades (véase Teoría de Matrices y Álgebra
Lineal). La mecánica de matrices introdujo las matrices infinitas para representar la posición y
el momento lineal en el interior de un átomo. Existen otras matrices, una para cada una de las
restantes propiedades físicas observables asociadas con el movimiento de un electrón, como
la energía o el momento angular. Estas matrices, igual que las ecuaciones diferenciales de
Schrödinger, podían resolverse; en otras palabras, podían manipularse para predecir las
frecuencias de las líneas del espectro del hidrógeno y otras cantidades observables. Al igual
que la mecánica ondulatoria, la mecánica de matrices coincidía con la teoría cuántica anterior
en los procesos en que dicha teoría concordaba con los experimentos, y también explicaba
fenómenos que la teoría anterior no podía explicar.

Significado de la mecánica cuántica


Posteriormente, Schrödinger demostró que la mecánica ondulatoria y la mecánica de
matrices son versiones matemáticas diferentes de una misma teoría, hoy denominada
mecánica cuántica. Incluso en el caso del átomo de hidrógeno, formado por sólo dos
partículas, ambas interpretaciones matemáticas son muy complejas. El siguiente átomo más
sencillo, el de helio, tiene tres partículas, e incluso en el sistema matemático relativamente
sencillo de la dinámica clásica, el problema de los tres cuerpos (la descripción de las
interacciones mutuas de tres cuerpos distintos) no se puede resolver por completo. Sin
embargo, sí es posible calcular los niveles de energía. Al aplicar la matemática
mecanocuántica a situaciones complejas, los físicos pueden emplear alguna de las muchas
formulaciones matemáticas. La elección depende de la conveniencia de la formulación para
obtener soluciones aproximadas apropiadas.
Aunque la mecánica cuántica describe el átomo exclusivamente a través de interpretaciones
matemáticas de los fenómenos observados, puede decirse a grandes rasgos que en la
actualidad se considera que el átomo está formado por un núcleo rodeado por una serie de
ondas estacionarias; estas ondas tienen máximos en puntos determinados, y cada onda
estacionaria representa una órbita. El cuadrado de la amplitud de la onda en cada punto en un
momento dado es una medida de la probabilidad de que un electrón se encuentre allí. Ya no
puede decirse que un electrón esté en un punto determinado en un momento dado, sino que
hay una zona de probabilidad, llamada orbital, donde es más probable que se encuentre.

El principio de incertidumbre de Heisemberg


La imposibilidad de determinar exactamente la posición de un electrón en un instante
determinado fue analizada por Heisenberg, que en 1927 formuló el principio de
incertidumbre. Este principio afirma que es imposible especificar con exactitud y al
mismo tiempo la posición y el momento lineal de una partícula. En otras palabras, los
físicos no pueden medir la posición de una partícula sin causar una perturbación en la
velocidad de dicha partícula. Se dice que el conocimiento de la posición y de la velocidad son
complementarios, es decir, que no pueden ser precisos al mismo tiempo. Este principio
también es fundamental en la visión de la mecánica cuántica que suele aceptarse en la
actualidad: los caracteres ondulatorio y corpuscular de la radiación electromagnética pueden
interpretarse como dos propiedades complementarias de la radiación.

Vamos a suponer que disponemos de un aparato que puede " ver " a los electrones. Para " ver "
un electrón necesitamos iluminarlo con " luz ". No podemos usar luz ordinaria porque su longitud
de ondas es muchísimas veces mayor que el electrón y este no es dispersaría o reflejaría.
Tendremos entonces que usar " luz " de una longitud de ondas muy pequeñas, o lo que es lo
mismo, fotones de energía muy alta que al ser dispersados por electrones nos proporcionan una
imagen de él. Pero he aquí que al hacer incidir un fotón muy energético sobre el electrón
estamos comunicados a este un momento lineal muy grande, que lo perturba demasiado y lo
hace cambiar del estado en que se encontraba. Nos enfrentamos como la imposibilidad de
observar al electrón sin perturbarlo. Podemos reducir la magnitud de la perturbación
disminuyendo la energía de fotones, pero entonces la longitud de onda de esto se hace mayor y
tendremos paquetes de ondas menos localizadas; esto disminuye la precisión con la que puede
conocerse la posición del electrón. Recíprocamente, si queremos aumentar la precisión en la
determinación de la posición del electrón, necesitamos más paquetes más <<concentrados>>
(menores longitudes de ondas) lo cual implica fotones más energéticos y más perturbados para
el electrón. Tenemos así que no podemos determinar simultáneamente la posición y la
velocidad (o momento lineal) del electrón con precisión tan buena como queramos. Y no hay
forma de vencer esta dificultad que la naturaleza nos presenta. Razonamientos como este
llevaron a Heisenberg a enunciar su famoso principio " Si es la incertidumbre en la posición de
una partícula y es la incertidumbre o error en la determinación de su momento lineal,
entonces necesariamente:

Si ; es decir, aumentar la precisión en el conocimiento de la posición


aumenta la incertidumbre del momento o de la velocidad.

Resultados de la mecánica cuántica


La mecánica cuántica resolvió todas las grandes dificultades que preocupaban a los físicos en
los primeros años del siglo XX. Amplió gradualmente el conocimiento de la estructura de la
materia y proporcionó una base teórica para la comprensión de la estructura atómica (véase
Átomo) y del fenómeno de las líneas espectrales: cada línea espectral corresponde a la
emisión o absorción de un cuanto de energía o fotón, cuando un electrón experimenta una
transición entre dos niveles de energía. La comprensión de los enlaces químicos se vio
radicalmente alterada por la mecánica cuántica y pasó a basarse en las ecuaciones de onda
de Schrödinger. Los nuevos campos de la física —como la física del estado sólido, la física de
la materia condensada, la superconductividad, la física nuclear o la física de partículas
elementales— se han apoyado firmemente en la mecánica cuántica.

Avances posteriores
Desde 1925 no se han encontrado deficiencias fundamentales en la mecánica cuántica,
aunque se ha debatido si la teoría debe o no considerarse completa (véase Desigualdad de
Bell). En la década de 1930, la aplicación de la mecánica cuántica y la relatividad especial a la
teoría del electrón (Electrodinámica cuántica) permitió al físico británico Paul Dirac formular
una ecuación que implicaba la existencia del espín del electrón. También llevó a la predicción
de la existencia del positrón, que fue comprobada experimentalmente por el físico
estadounidense Carl David Anderson.
La aplicación de la mecánica cuántica al ámbito de la radiación electromagnética consiguió
explicar numerosos fenómenos como la radiación de frenado (emitida por los electrones
frenados por la materia) y la producción de pares (formación de un positrón y un electrón
cuando la energía electromagnética interactúa con la materia). Sin embargo, también llevó a
un grave problema, la denominada dificultad de divergencia: determinados parámetros, como
las llamadas masa desnuda y carga desnuda de los electrones, parecen ser infinitos en las
ecuaciones de Dirac (los términos ‘masa desnuda’ y ‘carga desnuda’ hacen referencia a
electrones hipotéticos que no interactúan con ninguna materia ni radiación; en realidad, los
electrones interactúan con su propio campo eléctrico).

Perspectivas de futuro
La mecánica cuántica está en la base de los intentos actuales de explicar la interacción
nuclear fuerte (Cromodinámica cuántica) y desarrollar una teoría unificada para todas las
fuerzas fundamentales de la materia (Teoría del campo unificado). No obstante, existen
dudas sobre si la mecánica cuántica es o no completa. La dificultad de divergencia, por
ejemplo, sólo se ha resuelto en parte. Igual que la mecánica newtoniana fue corregida por la
mecánica cuántica y la relatividad, muchos científicos —Einstein era uno de ellos— están
convencidos de que la mecánica cuántica también experimentará cambios profundos en el
futuro. Por ejemplo, existen grandes contradicciones teóricas entre la mecánica cuántica y la
teoría del caos, que empezó a desarrollarse rápidamente en la década de 1980. Los físicos
teóricos como el británico Stephen Hawking siguen haciendo esfuerzos para desarrollar un
sistema que englobe tanto la relatividad como la mecánica cuántica.

Teoría ondulatoria – James Maxwell

CHRISTIAN HUYGENS (1629-1695)

Nacido en la ciudad de La Haya, Holanda. Fue astrónomo, físico, matemático y científico. En


1660, demostró que las leyes de la óptica, podían explicarse basándose en la suposición de que
la luz tenia naturaleza ondulatoria.

“La luz se propaga mediante ondas mecánicas emitidas por un foco luminoso. La luz para
propagarse, necesita un medio material de gran elasticidad, impalpable, que todo lo invade,
incluyendo el vacío, puesto que la luz también se propaga en el”.

A este medio le llamó éter, que se difundía y producía la sensación de


luz al colisionar con el ojo. Basandose en su teoría, pudo deducir las leyes de la reflexión y la
refracción, y explicar el fenómeno de la doble refracción.

En aquel momento la teoría ondulatoria de la luz no fue aceptada. Su reputación sobre los
trabajos de óptica y dinámica se difundieron por toda Europa, y en 1663 fue elegido socio
fundador de la Royal Society de Londres fundada en 1660. Por invitación de Luis XIV vivió en
Francia desde 1666 y fue uno de los fundadores de la Academia de Ciencias de francesa.

TEORÍA ONDULATORIA
Huygens considera que la luz es una onda electromagnética, consistente en un campo eléctrico
que varía en el tiempo generando a su vez un campo magnético y viceversa, ya que los campos
eléctricos variables generan campos magnéticos (ley de Ampère) y los campos magnéticos
variables generan campos eléctricos (ley de Faraday).

Carácter ondulatorio electromagnético

De esta forma, la onda se autopropaga indefinidamente a través del espacio, con campos
magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas son
sinusoidales, (elípticas) con los campos eléctrico y magnético perpendiculares entre sí y
respecto a la dirección de propagación.

Parámetros de las ondas

 Amplitud (A): Es la longitud máxima respecto a la posición de equilibrio que alcanza la


onda en su desplazamiento.
 Periodo (T): Es el tiempo necesario para el paso de dos máximos o mínimos sucesivos
por un punto fijo en el espacio.
 Frecuencia (ν): Número de oscilaciones del campo por unidad de tiempo; es una
cantidad inversa al periodo.
 Longitud de onda (λ): Es la distancia lineal entre dos puntos equivalentes de ondas
sucesivas.
 Velocidad de propagación (V): Es la distancia que recorre la onda en una unidad de
tiempo. En el caso de la velocidad de propagación de la luz en el vacío, se representa
con la letra c.

La velocidad, la frecuencia, el periodo y la longitud de onda están relacionadas por la siguiente


ecuación.

JAMES CLERK MAXWELL (1831-1879)


Nació en Edimburgo, Escocia, Reino Unido. A la edad de 16 años ingresa en la Universidad de
Edimburgo como estudiante de físicas y en 1850 en la Universidad de Cambridge. Es conocido
por el desarrollo de la teoría electromagnética.

En 1873, los experimentos realizados le permitieron demostrar que la velocidad de las ondas
electromagnéticas era sensiblemente igual que las ondas halladas en la luz, de donde se dedujo
que la naturaleza de ésta, debía ser la misma que la de las ondas electromagnéticas de
frecuencia extremadamente corta.

La exactitud de esta teoría quedó demostrada en 1888, por los experimentos realizados del
físico alemán Heinrich Rudolf Hertz.

FRANCESCO MARÍA GRIMALDI, (1618-1663)

Nació en Bolonia, Italia. A la edad de catorce años ingresó en la Compañía de Jesus; fue
matemático, físico y astrónomo; en 1648, se le ofreció ocupar la cátedra de matemáticas en la
Universidad de Bolonia. Una de sus contribuciones a la ciencia, fue el descubrimiento del
fenómeno de difracción de la luz.

En una cartulina, dejó pasar un rayo luz a través de una pequeña ranura; seguidamente, en otra
cartulina ranurada con las misma dimensiones que la anterior, descubrió que al incidir la luz
sobre una pantalla, la anchura de la ranura, proyectaba una imagen mayor que la esperada,
suponiendo que la propagación de la luz fuera rectilínea.

Otro experimento, fue el observar que el borde de la sombra no quedaba difuminado y se


apreciaban unas franjas claras y oscuras. La exposición del fenómeno desarrollado en 1814 por
Joseph von Fraunhofer contribuye a reforzar la teoría ondulatoria de la luz.

Teoría ondulatoria de la luz de Huygens

La teoría ondulatoria de la luz de Huygens definió la luz como una onda, similar al sonido o a
las ondas mecánicas que se producen en el agua. Por otra parte, Newton afirmó que la luz
estaba formada por partículas materiales a las que denominó corpúsculos.
La luz siempre ha despertado el interés y la curiosidad del ser humano. De este modo, ya desde
sus inicios uno de los problemas fundamentales de física ha sido desvelar los misterios de la
luz.

Por estos motivos, a lo largo de la historia de la ciencia ha habido distintas teorías que
pretendían explicar su verdadera naturaleza.

Sin embargo, no fue hasta finales del siglo XVII y principios del siglo XVIII, con las teorías de
Isaac Newton y Christiaan Huygens, cuando se empezaron a sentar las bases para un
conocimiento más profundo de la luz.

Principios de la teoría ondulatoria de la luz de Huygens

En el 1678, Christiaan Huygens formuló su teoría ondulatoria de la luz, que posteriormente, en


1690, publicaría en su obra Treatise on light.

El físico holandés propuso que la luz era emitida en todas las direcciones como un conjunto de
ondas que se desplazaban por un medio que él denominó éter. Dado que las ondas no se ven
afectadas por la gravedad, asumió la velocidad de las ondas se reducía cuando entraban en un
medio más denso.

Su modelo resultó particularmente útil para explicar la ley de Snell-Descartes sobre la reflexión y
la refracción. También explicaba satisfactoriamente el fenómeno de la difracción.

Su teoría se basaba fundamentalmente en dos conceptos:

a) Las fuentes luminosas emiten ondas con forma esférica, similares a las ondas que se
producen en la superficie del agua. De este modo, los rayos de luz están definidos por rectas
cuya dirección es perpendicular a la superficie de la onda.

b) Cada punto de una onda es a su vez un nuevo centro emisor de ondas secundarias, que son
emitidas con la misma frecuencia y velocidad que caracterizaba a las ondas primarias. La
infinidad de las ondas secundarias no se percibe, de modo que la onda resultante de estas
ondas secundarias es su envolvente.

Sin embargo, la teoría ondulatoria de Huygens no fue aceptada por los científicos de su época,
salvo contadas excepciones como la de Robert Hooke.
El enorme prestigio de Newton y el gran éxito que alcanzó su mecánica junto con los problemas
para entender el concepto del éter, hicieron que la mayoría de los científicos contemporáneos a
ambos se decantaran por la teoría corpuscular del físico inglés.

Reflexión

La reflexión es un fenómeno óptico que tiene lugar cuando una onda incide de forma oblicua
sobre una superficie de separación entre dos medios y sufre un cambio de dirección, siendo
devuelta al primer medio junto con parte de la energía del movimiento.

Las leyes de la reflexión son las siguientes:

Primera ley

El rayo reflejado, el incidente y la normal (o perpendicular), están situados en el mismo plano.

Segunda ley

El valor del ángulo de incidencia es exactamente el mismo que el del ángulo de reflexión.

El principio de Huygens permite demostrar las leyes de la reflexión. Se comprueba que cuando
una onda alcanza la separación de los medios, cada punto se convierte en un nuevo foco
emisor emitiendo ondas secundarias. El frente de ondas reflejado es la envolvente de las ondas
secundarias. El ángulo de este frente secundario de ondas reflejado es exactamente el mismo
que el ángulo incidente.

Refracción

Sin embargo, la refracción es el fenómeno que tiene lugar cuando una onda incide oblicuamente
sobre un espacio de separación entre dos medios, que tienen índice de refracción diferente.

Cuando esto sucede, la onda penetra y se transmite por el segundo de medio junto con parte de
la energía del movimiento. La refracción sucede como consecuencia de la diferente velocidad
con la que se propagan las ondas en los distintos medios.

Un ejemplo típico del fenómeno de refracción se puede observar cuando se introduce


parcialmente un objeto (por ejemplo, un lapicero o un bolígrafo) en un vaso con agua.
El principio de Huygens proporcionó una explicación convincente sobre la refracción. Los puntos
en el frente de onda situados en el límite entre los dos medios actúan como nuevas fuentes de
propagación de la luz y de este modo la dirección de propagación cambie.

Difracción

La difracción es un fenómeno físico característico de las ondas (ocurre en todo tipo de ondas)
que consiste en la desviación de las ondas cuando encuentran un obstáculo en su camino o
atraviesan una rendija.

Se debe tener en cuenta que la difracción se produce únicamente cuando la onda se distorsiona
por causa de un obstáculo cuyas dimensiones son comparables a su longitud de onda.

La teoría de Huygens explica que cuando la luz incide sobre una rendija todos los puntos de su
plano se convierten en fuentes secundarias de ondas emitiendo, como ya ha explicado
anteriormente, nuevas ondas que en este caso reciben el nombre de ondas difractadas.

Las preguntas sin respuesta de la teoría de Huygens

El principio de Huygens dejaba una serie de preguntas sin respuesta. Su afirmación de que
cada punto de un frente de onda era a su vez una fuente de una nueva onda, no permitía
explicar por qué la luz se propaga tanto hacia atrás como hacia adelante.

Igualmente la explicación del concepto de éter no resultaba enteramente satisfactoria y fue una
de las causas por la que inicialmente no se aceptó su teoría.

Recuperación del modelo ondulatorio

No fue hasta el siglo XIX cuando se recuperó el modelo ondulatorio. Fue fundamentalmente
gracias a las aportaciones de Thomas Young quien logró explicar todos los fenómenos de la luz
partiendo de la base de que la luz es una onda longitudinal.
En concreto, en 1801 realizó su famoso experimento de la doble rendija. Con este experimento
Young comprobó un patrón de interferencias en la luz procedente de una fuente luminosa lejana
cuando se difracta tras atravesar dos rendijas.

Del mismo modo, Young también explicó mediante el modelo ondulatorio la dispersión de luz
blanca en los diferentes colores del arco iris. Demostró que en cada medio cada uno de colores
que componen la luz posee una frecuencia y una longitud de onda características.

De esta forma, gracias a este experimento demostró la naturaleza ondulatoria de la luz.

Curiosamente, con el tiempo este experimento se demostró clave para demostrar la dualidad
onda corpúsculo de la luz, una característica fundamental de la mecánica cuántica.

La teoría ondulatoria

La teoría ondulatoria

El físico holandés Christian Huygens, en 1 678, desarrolló la teoría ondulatoria de la luz.

Esta teoría afirma que la luz está formada por ondas y no por partículas. Huygens supuso que,
tanto en el espacio como en la materia, se encuentra una sustancia muy tenue a la que
denominó éter. En ella, la luz se transmitiría con una vibración en forma de onda. Explicaba así
no sólo los fenómenos de reflexión y refracción, sino también la producción del sonido,
suponiendo que estas ondas viajan por el éter. Además, esta teoría postulaba que los distintos
colores se dan porque tienen diferentes longitudes de onda.

Sin embargo, había una contradicción: las ondas transversales se propagan en medios sólidos y
el éter es un medio líquido.

Pese a todo, esta teoría fue aceptada un siglo después de su creación, siendo apoyada por los
experimentos de Young (1 801) sobre el fenómeno de las interferencias, y por los de Fresnel
(1815) sobre la difracción y la polarización.

Teoría ondulatoria de la luz.

Para otros usos de este término, véase Luz (desambiguación).

Rayo de luz solar dispersado por partículas de polvo en el cañón del Antílope, en Estados
Unidos. Se llama luz (del latín lux, lucis) a la parte de la radiación electromagnética que puede
ser percibida por el ojo humano. En física, el término luz se usa en un sentido más amplio e
incluye todo el campo de la radiación conocido como espectro electromagnético, mientras que la
expresión luz visible señala específicamente la radiación en el espectro visible. La óptica es la
rama de la física que estudia el comportamiento de la luz, sus características y sus
manifestaciones. El estudio de la luz revela una serie de características y efectos al interactuar
con la materia, que permiten desarrollar algunas teorías sobre su naturaleza. Velocidad finita Se
ha demostrado teórica y experimentalmente que la luz tiene una velocidad finita. La primera
medición con éxito fue hecha por el astrónomo danés Ole Roemer en 1676 y desde entonces
numerosos experimentos han mejorado la precisión con la que se conoce el dato. Actualmente
el valor exacto aceptado para la velocidad de la luz en el vacío es de 299.792.458 m/s.1 La
velocidad de la luz al propagarse a través de la materia es menor que a través del vacío y
depende de las propiedades dieléctricas del medio y de la energía de la luz. La relación entre la
velocidad de la luz en el vacío y en un medio se denomina índice de refracción del medio.

Refracción

En esta ilustración se muestra la descomposición de la luz al atravesar un prisma.

Ejemplo de la refracción. La pajita parece partida, por la refracción de la luz al paso desde el
líquido al aire. La refracción es el cambio brusco de dirección que sufre la luz al cambiar de
medio. Este fenómeno se debe al hecho de que la luz se propaga a diferentes velocidades
según el medio por el que viaja. El cambio de dirección es mayor cuanto mayor es el cambio de
velocidad, ya que la luz recorre mayor distancia en su desplazamiento por el medio en que va
más rápido. La ley de Snell relaciona el cambio de ángulo con el cambio de velocidad por medio
de los índices de refracción de los medios. Como la refracción depende de la energía de la luz,
cuando se hace pasar luz blanca o policromática a través de un medio no paralelo, como un
prisma, se produce la separación de la luz en sus diferentes componentes (colores) según su
energía, en un fenómeno denominado dispersión refractiva. Si el medio es paralelo, la luz se
vuelve a recomponer al salir de él. Ejemplos muy comunes de la refracción es la ruptura
aparente que se ve en un lápiz al introducirlo en agua o el arcoíris.

Propagación y difracción

Sombra de una canica. Una de las propiedades de la luz más evidentes a simple vista es que se
propaga en línea recta. Lo podemos ver, por ejemplo, en la propagación de un rayo de luz a
través de ambientes polvorientos o de atmósferas saturadas. La óptica geométrica parte de esta
premisa para predecir la posición de la luz, en un determinado momento, a lo largo de su
transmisión. De la propagación de la luz y su encuentro con objetos surgen las sombras. Si
interponemos un cuerpo opaco en el camino de la luz y a continuación una pantalla,
obtendremos sobre ella la sombra del cuerpo. Si el origen de la luz o foco se encuentra lejos del
cuerpo, de tal forma que, relativamente, sea más pequeño que el cuerpo, se producirá una
sombra definida. Si se acerca el foco al cuerpo surgirá una sombra en la que se distinguen una
región más clara denominada penumbra y otra más oscura denominada umbra. Sin embargo, la
luz no siempre se propaga en línea recta. Cuando la luz atraviesa un obstáculo puntiagudo o
una abertura estrecha, el rayo se curva ligeramente. Este fenómeno, denominado difracción, es
el responsable de que al mirar a través de un agujero muy pequeño todo se vea distorsionado o
de que los telescopios y microscopios tengan un número de aumentos máximo.

Interferencia

La forma más sencilla de estudiar el fenómeno de la interferencia es con el denominado


experimento de Young que consiste en hacer incidir luz monocromática (de un solo color) en
una pantalla que tiene rendija muy estrecha. La luz difractada que sale de dicha rendija se
vuelve a hacer incidir en otra pantalla con una doble rendija. La luz procedente de las dos
rendijas se combina en una tercera pantalla produciendo bandas alternativas claras y oscuras.
El fenómeno de las interferencias se puede ver también de forma natural en las manchas de
aceite sobre los charcos de agua o en la cara con información de los discos compactos; ambos
tienen una superficie que, cuando se ilumina con luz blanca, la difracta, produciéndose una
cancelación por interferencias, en función del ángulo de incidencia de la luz, de cada uno de los
colores que contiene, permitiendo verlos separados, como en un arco iris. Reflexión y dispersión
Al incidir la luz en un cuerpo, la materia de la que está constituido retiene unos instantes su
energía y a continuación la reemite en todas las direcciones. Este fenómeno es denominado
reflexión. Sin embargo, en superficies ópticamente lisas, debido a interferencias destructivas, la
mayor parte de la radiación se pierde, excepto la que se propaga con el mismo ángulo que
incidió. Ejemplos simples de este efecto son los espejos, los metales pulidos o el agua de un río
(que tiene el fondo oscuro). La luz también se refleja por medio del fenómeno denominado
reflexión interna total, que se produce cuando un rayo de luz, intenta salir de un medio en que
su velocidad es más lenta a otro más rápido, con un determinado ángulo. Se produce una
refracción de tal modo que no es capaz de atravesar la superficie entre ambos medios
reflejándose completamente. Esta reflexión es la responsable de los destellos en un diamante
tallado. En el vacío, la velocidad es la misma para todas las longitudes de onda del espectro
visible, pero cuando atraviesa sustancias materiales la velocidad se reduce y varía para cada
una de las distintas longitudes de onda del espectro, este efecto se denomina dispersión.
Gracias a este fenómeno podemos ver los colores del arcoíris. El color azul del cielo se debe a
la luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de la leche también
se debe a la dispersión de la luz por las gotitas de agua o por las partículas de grasa en
suspensión que contienen respectivamente.

Polarización

El fenómeno de la polarización se observa en unos cristales determinados que individualmente


son transparentes. Sin embargo, si se colocan dos en serie, paralelos entre sí y con uno girado
un determinado ángulo con respecto al otro, la luz no puede atravesarlos. Si se va rotando uno
de los cristales, la luz empieza a atravesarlos alcanzándose la máxima intensidad cuando se ha
rotado el cristal 90° sexagesimales respecto al ángulo de total oscuridad. También se puede
obtener luz polarizada a través de la reflexión de la luz. La luz reflejada está parcial o totalmente
polarizada dependiendo del ángulo de incidencia. El ángulo que provoca una polarización total
se llama ángulo de Brewster. Muchas gafas de sol y filtros para cámaras incluyen cristales
polarizadores para eliminar reflejos molestos.

Efectos químicos

Algunas sustancias al absorber luz, sufren cambios químicos; utilizan la energía que la luz les
transfiere para alcanzar los niveles energéticos necesarios para reaccionar, para obtener una
conformación estructural más adecuada para llevar a cabo una reacción o para romper algún
enlace de su estructura (fotólisis). La fotosíntesis en las plantas, que generan azúcares a partir
de dióxido de carbono, agua y luz; la síntesis de vitamina D en la piel; la ruptura de dihalógenos
con luz en las reacciones radicalarias o el proceso de visión en el ojo, producido por la
isomerización del retinol con la luz, son ejemplos de reacciones fotoquímicas. El área de la
química encargada del estudio de estos fenómenos es la fotoquímica.

Aproximación histórica

==Isaac Newton==. A principios del siglo XVIII era creencia generalizada que la luz estaba
compuesta de pequeñas partículas. Fenómenos como la reflexión, la refracción y las sombras
de los cuerpos, se podían esperar de torrentes de partículas. Isaac Newton demostró que la
refracción estaba provocada por el cambio de velocidad de la luz al cambiar de medio y trató de
explicarlo diciendo que las partículas aumentaban su velocidad al aumentar la densidad del
medio. La comunidad científica, consciente del prestigio de Newton, aceptó su teoría
corpuscular. En la cuneta quedaba la teoría de Christian Huygens que en 1678 propuso que la
luz era un fenómeno ondulatorio que se transmitía a través de un medio llamado éter. Esta
teoría quedó olvidada hasta la primera mitad del siglo XIX, cuando Thomas Young sólo era
capaz de explicar el fenómeno de las interferencias suponiendo que la luz fuese en realidad una
onda. Otros estudios de la misma época explicaron fenómenos como la difracción y la
polarización teniendo en cuenta la teoría ondulatoria. El golpe final a la teoría corpuscular
pareció llegar en 1848, cuando se consiguió medir la velocidad de la luz en diferentes medios y
se encontró que variaba de forma totalmente opuesta a como lo había supuesto Newton. Debido
a esto, casi todos los científicos aceptaron que la luz tenía una naturaleza ondulatoria. Sin
embargo todavía quedaban algunos puntos por explicar como la propagación de la luz a través
del vacío, ya que todas las ondas conocidas se desplazaban usando un medio físico, y la luz
viajaba incluso más rápido que en el aire o el agua. Se suponía que este medio era el éter del
que hablaba Huygens, pero nadie lo conseguía encontrar. James Clerk Maxwell. En 1845,
Michael Faraday descubrió que el ángulo de polarización de la luz se podía modificar
aplicándole un campo magnético (efecto Faraday), proponiendo dos años más tarde que la luz
era una vibración electromagnética de alta frecuencia. James Clerk Maxwell, inspirado por el
trabajo de Faraday, estudió matemáticamente estas ondas electromagnéticas y se dio cuenta de
que siempre se propagaban a una velocidad constante, que coincidía con la velocidad de la luz,
y de que no necesitaban medio de propagación ya que se autopropagaban. La confirmación
experimental de las teorías de Maxwell eliminó las últimas dudas que se tenían sobre la
naturaleza ondulatoria de la luz. No obstante, a finales del siglo XIX, se fueron encontrando
nuevos efectos que no se podían explicar suponiendo que la luz fuese una onda, como, por
ejemplo, el efecto fotoeléctrico, esto es, la emisión de electrones de las superficies de sólidos y
líquidos cuando son iluminados. Los trabajos sobre el proceso de absorción y emisión de
energía por parte de la materia sólo se podían explicar si uno asumía que la luz se componía de
partículas. Entonces la ciencia llegó a un punto muy complicado e incomodo: se conocían
muchos efectos de la luz, sin embargo, unos sólo se podían explicar si se consideraba que la luz
era una onda, y otros sólo se podían explicar si la luz era una partícula. El intento de explicar
esta dualidad onda-partícula, impulsó el desarrollo de la física durante el siglo XX. Otras
ciencias, como la biología o la química, se vieron revolucionadas ante las nuevas teorías sobre
la luz y su relación con la materia.

Naturaleza de la luz

La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como
una onda o como una partícula. Estos dos estados no se excluyen, sino que son
complementarios (véase Dualidad onda corpúsculo). Sin embargo, para obtener un estudio claro
y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que participa
según su interpretación teórica:

Teoría ondulatoria

Descripción Esta teoría, desarrollada por Christiaan Huygens, considera que la luz es una onda
electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez
un campo magnético y viceversa, ya que los campos eléctricos variables generan campos
magnéticos (ley de Ampère) y los campos magnéticos variables generan campos eléctricos (ley
de Faraday). De esta forma, la onda se autopropaga indefinidamente a través del espacio, con
campos magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas
son sinusoidales, con los campos eléctrico y magnético perpendiculares entre sí y respecto a la
dirección de propagación. Para poder describir una onda electromagnética podemos utilizar los
parámetros habituales de cualquier onda: Amplitud (A): Es la longitud máxima respecto a la
posición de equilibrio que alcanza la onda en su desplazamiento. Periodo (T): Es el tiempo
necesario para el paso de dos máximos o mínimos sucesivos por un punto fijo en el espacio.
Frecuencia (ν): Número de oscilaciones del campo por unidad de tiempo. Es una cantidad
inversa al periodo. Longitud de onda (λ): Es la distancia lineal entre dos puntos equivalentes de
ondas sucesivas. Velocidad de propagación (V): Es la distancia que recorre la onda en una
unidad de tiempo. En el caso de la velocidad de propagación de la luz en el vacío, se representa
con la letra c. La velocidad, la frecuencia, el periodo y la longitud de onda están relacionadas por
las siguientes ecuaciones:

Fenómenos ondulatorios

Algunos de los fenómenos más importantes de la luz se pueden comprender fácilmente si se


considera que tiene un comportamiento ondulatorio. El principio de superposición de ondas nos
permite explicar el fenómeno de la interferencia: si juntamos en el mismo lugar dos ondas con la
misma longitud de onda y amplitud, si están en fase (las crestas de las ondas coinciden)
formarán una interferencia constructiva y la intensidad de la onda resultante será máxima e igual
a dos veces la amplitud de las ondas que la conforman. Si están desfasadas, habrá un punto
donde el desfase sea máximo (la cresta de la onda coincida exactamente con un valle)
formándose una interferencia destructiva, anulándose la onda. El experimento de Young, con
sus rendijas, nos permite obtener dos focos de luz de la misma longitud de onda y amplitud,
creando un patrón de interferencias sobre una pantalla. Las ondas cambian su dirección de
propagación al cruzar un obstáculo puntiagudo o al pasar por una abertura estrecha. Como
recoge el principio de Fresnel - Huygens, cada punto de un frente de ondas es un emisor de un
nuevo frente de ondas que se propagan en todas las direcciones. La suma de todos los nuevos
frentes de ondas hace que la perturbación se siga propagando en la dirección original. Sin
embargo, si por medio de una rendija o de un obstáculo puntiagudo, se separa uno o unos
pocos de los nuevos emisores de ondas, predominará la nueva dirección de propagación frente
a la original.

Onda propagándose a través de una rendija.

La difracción de la luz se explica fácilmente si se tiene en cuenta este efecto exclusivo de las
ondas. La refracción, también se puede explicar utilizando este principio, teniendo en cuenta
que los nuevos frentes de onda generados en el nuevo medio, no se transmitirán con la misma
velocidad que en el anterior medio, generando una distorsión en la dirección de propagación:

Refracción de la luz según el principio de Huygens.

Otro fenómeno de la luz fácilmente identificable con su naturaleza ondulatoria es la polarización.


La luz no polarizada está compuesta por ondas que vibran en todos los ángulos, al llegar a un
medio polarizador, sólo las ondas que vibran en un ángulo determinado consiguen atravesar el
medio, al poner otro polarizador a continuación, si el ángulo que deja pasar el medio coincide
con el ángulo de vibración de la onda, la luz pasará íntegra, si no sólo una parte pasará hasta
llegar a un ángulo de 90º entre los dos polarizadores, donde no pasará nada de luz.
Dos polarizadores en serie.

Este efecto, además, permite demostrar el carácter transversal de la luz (sus ondas vibran en
dirección perpendicular a la dirección de propagación). El efecto Faraday y el cálculo de la
velocidad de la luz, c, a partir de constantes eléctricas (permitividad, ) y magnéticas
(permeabilidad, ) por parte de la teoría de Maxwell: confirman que las ondas de las que está
compuesta la luz son de naturaleza electromagnética. Esta teoría fue capaz, también, de
eliminar la principal objeción a la teoría ondulatoria de la luz, que era encontrar la manera de
que las ondas se trasladasen sin un medio material.

Teoría corpuscular

Descripción La teoría corpuscular estudia la luz como si se tratase de un torrente de partículas


sin carga y sin masa llamadas fotones, capaces de transportar todas las formas de radiación
electromagnética. Esta interpretación resurgió debido a que, la luz, en sus interacciones con la
materia, intercambia energía sólo en cantidades discretas (múltiplos de un valor mínimo) de
energía denominadas cuantos. Este hecho es difícil de combinar con la idea de que la energía
de la luz se emita en forma de ondas, pero es fácilmente visualizado en términos de corpúsculos
de luz o fotones.

Fenómenos corpusculares

Max Planck. Existen tres efectos que demuestran el carácter corpuscular de la luz. Según el
orden histórico, el primer efecto que no se pudo explicar por la concepción ondulatoria de la luz
fue la radiación del cuerpo negro. Un cuerpo negro es un radiador teóricamente perfecto que
absorbe toda la luz que incide en él y por eso, cuando se calienta se convierte en un emisor
ideal de radiación térmica, que permite estudiar con claridad el proceso de intercambio de
energía entre radiación y materia. La distribución de frecuencias observadas de la radiación
emitida por la caja a una temperatura de la cavidad dada, no se correspondía con las
predicciones teóricas de la física clásica. Para poder explicarlo, Max Planck, al comienzo del
siglo XX, postuló que para ser descrita correctamente, se tenía que asumir que la luz de
frecuencia ν es absorbida por múltiplos enteros de un cuanto de energía igual a hν, donde h es
una constante física universal llamada Constante de Planck. En 1905, Albert Einstein utilizó la
teoría cuántica recién desarrollada por Planck para explicar otro fenómeno no comprendido por
la física clásica: el efecto fotoeléctrico. Este efecto consiste en que cuando un rayo
monocromático de radiación electromagnética ilumina la superficie de un sólido (y, a veces, la
de un líquido), se desprenden electrones en un fenómeno conocido como fotoemisión o efecto
fotoeléctrico externo. Estos electrones poseen una energía cinética que puede ser medida
electrónicamente con un colector con carga negativa conectado a la superficie emisora. No se
podía entender que la emisión de los llamados "fotoelectrones" fuese inmediata e independiente
de la intensidad del rayo. Eran incluso capaces de salir despedidos con intensidades
extremadamente bajas, lo que excluía la posibilidad de que la superficie acumulase de alguna
forma la energía suficiente para disparar los electrones. Además, el número de electrones era
proporcional a la intensidad del rayo incidente. Einstein demostró que el efecto fotoeléctrico
podía ser explicado asumiendo que la luz incidente estaba formada de fotones de energía hν,
parte de esta energía hν0 se utilizaba para romper las fuerzas que unían el electrón con la
materia, el resto de la energía aparecía como la energía cinética de los electrones emitidos:
donde m es la masa del electrón, vmáx la velocidad máxima observada, ν es la frecuencia de la
luz iluminante y ν0 es la frecuencia umbral característica del sólido emisor. La demostración final
fue aportada por Arthur Compton que observó como al hacer incidir rayos X sobre elementos
ligeros, estos se dispersaban con menor energía y además se desprendían electrones
(fenómeno posteriormente denominado en su honor como efecto Compton). Compton,
ayudándose de las teorías anteriores, le dio una explicación satisfactoria al problema tratando la
luz como partículas que chocan elásticamente con los electrones como dos bolas de billar. El
fotón, corpúsculo de luz, golpea al electrón: el electrón sale disparado con una parte de la
energía del fotón y el fotón refleja su menor energía en su frecuencia. Las direcciones relativas
en las que salen despedidos ambos están de acuerdo con los cálculos que utilizan la
conservación de la energía y el momento. Otro fenómeno que demuestra la teoría corpuscular
es la presión luminosa.

Teorías cuánticas

Diagrama de Feynman donde se muestra el intercambio de un fotón virtual (simbolizado por una
línea ondulada ) entre un positrón y un electrón. La necesidad de reconciliar las ecuaciones de
Maxwell del campo electromagnético, que describen el carácter ondulatorio electromagnético de
la luz, con la naturaleza corpuscular de los fotones, ha hecho que aparezcan varías teorías que
están aún lejos de dar un tratamiento unificado satisfactorio. Estas teorías incorporan por un
lado, la teoría de la electrodinámica cuántica, desarrollada a partir de los artículos de Dirac,
Jordan, Heisenberg y Pauli, y por otro lado la mecánica cuántica de de Broglie, Heisenberg y
Schrödinger. Paul Dirac dio el primer paso con su ecuación de ondas que aportó una síntesis de
las teorías ondulatoria y corpuscular, ya que siendo una ecuación de ondas electromagnéticas
su solución requería ondas cuantizadas, es decir, partículas. Su ecuación consistía en reescribir
las ecuaciones de Maxwell de tal forma que se pareciesen a las ecuaciones hamiltonianas de la
mecánica clásica. A continuación, utilizando el mismo formalismo que, a través de la
introducción del cuanto de acción hν, transforma las ecuaciones de mecánica clásica en
ecuaciones de mecánica ondulatoria, Dirac obtuvo una nueva ecuación del campo
electromagnético. Las soluciones a esta ecuación requerían ondas cuantizadas, sujetas al
principio de incertidumbre de Heisenberg, cuya superposición representaban el campo
electromagnético. Gracias a esta ecuación podemos conocer una descripción de la probabilidad
de que ocurra una interacción u observación dada, en una región determinada. Existen aún
muchas dificultades teóricas sin resolverse, sin embargo, la incorporación de nuevas teorías
procedentes de la experimentación con partículas elementales, así como de teorías sobre el
comportamiento de los núcleos atómicos, nos han permitido obtener una formulación adicional
de gran ayuda.

Efectos relativísticos

Sin embargo, existían aún algunas situaciones en las que la luz no se comportaba según lo
esperado por las teorías anteriores.

Luz en movimiento

La primera de estas situaciones inexplicables se producía cuando la luz se emitía, se transmitía


o se recibía por cuerpos o medios en movimiento. Era de esperar, según la física clásica, que la
velocidad en estos casos fuese el resultado de sumar a la velocidad de la luz, la velocidad del
cuerpo o del medio. Sin embargo, se encontraron varios casos en los que no era así: Augustin
Fresnel. En 1818, Augustin Fresnel propuso un experimento para medir la velocidad a la que la
luz atravesaba un líquido en movimiento. Para ello, se haría atravesar a la luz una columna de
un líquido que fluyese a una velocidad v relativa al observador. Conociendo la velocidad v' a la
que se trasmite la luz a través de ese medio (a través del índice de refracción), se calculó que la
velocidad total de la luz en ese fluido sería: Sin embargo, cuando en 1851, el físico francés
Hippolyte Fizeau llevó a cabo el experimento, comprobó que la velocidad a la que la luz
atravesaba el líquido en movimiento no era la calculada sino: es decir, que la velocidad del fluido
contaba menos en la velocidad final si la velocidad con la que atravesaba la luz ese fluido era
mayor. En 1725, James Bradley descubrió que la posición observada de las estrellas en el
firmamento variaba anualmente con respecto a la posición real en un intervalo de 41 segundos
de arco. La teoría que propuso para explicarlo fue que esta variación se debía a la combinación
de la velocidad de la tierra al rotar alrededor del sol con la velocidad finita de la luz. Gracias a
esta teoría fue capaz de calcular la velocidad de la luz de una forma aceptable. Basándose en
este efecto, el astrónomo inglés George Airy comparó el ángulo de aberración en un telescopio
antes y después de llenarlo de agua, y descubrió que, en contra de sus expectativas, no había
diferencia en sus mediciones (la luz no variaba de velocidad a pesar de que el fluido se movía a
la velocidad de la tierra). Teniendo en cuenta este experimento, dos astrónomos, el alemán
Albert Michelson y el estadounidense Edward Morley propusieron un experimento (véase
Experimento de Michelson y Morley) para medir la velocidad a la que fluía el éter con respecto a
la tierra. Suponían que el éter se movía en una dirección concreta con una velocidad
determinada, por eso, debido a la translación de la Tierra alrededor del Sol habría épocas del
año en el que tendríamos una componente de esa velocidad a favor y otras épocas en contra,
por lo que supusieron que cuando lo tuviésemos a favor, la velocidad de la luz sería superior y
cuando lo tuviésemos en contra sería inferior. Para ello midieron la velocidad de la luz en
diferentes estaciones del año y observaron que no había ninguna diferencia. Y lo más curioso:
que ni siquiera había diferencias debidas a la propia velocidad de translación de la Tierra (30
km/s). En 1905, Albert Einstein dio una explicación satisfactoria con su teoría de la relatividad
especial, en la que, en su segundo postulado propone que la velocidad de la luz es isótropa, es
decir, independiente del movimiento relativo del observador o de la fuente.

Distorsiones espectrales

Desplazamiento nebular.

Al comparar el espectro de la luz procedente de algunos cuerpos celestes, con los espectros
medidos en el laboratorio de los mismos elementos que los que contienen esos cuerpos, se
observa que no son iguales, ya que las líneas espectrales procedentes del espacio están
desplazadas hacia posiciones de mayor longitud de onda, es decir, hacia el lado rojo del
espectro en lugares de menor energía. Se han encontrado dos tipos diferentes de
desplazamientos de líneas espectrales:

Desplazamiento nebular

Uno, el más común, llamado desplazamiento nebular es un desplazamiento sistemático de los


espectros procedentes de las estrellas y galaxias. Edwin Hubble tras estudiar el corrimiento de
los espectros de las nebulosas, lo interpretó como el resultado del efecto Doppler debido a la
expansión continua del universo. Gracias a esto propuso una fórmula capaz de calcular la
distancia que nos separa de un cuerpo determinado analizando el corrimiento de su espectro:
donde Δλ es la diferencia entre las longitudes de onda del espectro del cuerpo y la esperada, λ
es la longitud de onda esperada y d, la distancia en pársecs.

Desplazamiento gravitacional
El otro, mucho más extraño se llama desplazamiento gravitacional o efecto Einstein, observado
en espectros de cuerpos extremadamente densos. El ejemplo más famoso es el espectro del
llamado compañero oscuro de Sirio. La existencia de este compañero fue predicha por Friedrich
Bessel en 1844 basándose en una perturbación que observó en el movimiento de Sirio, pero
debido a su débil luminosidad, no fue descubierto hasta 1861. Este compañero es una enana
blanca que tiene una masa comparable a la del Sol pero en un radio aproximadamente cien
veces menor, por lo que su densidad es inmensa (61.000 veces la del agua). Al estudiarse su
espectro, se observa un desplazamiento de 0,3 Å de la línea ß de la serie Balmer del hidrógeno.

Teoría de la relatividad general

Albert Einstein. Para que su anterior teoría de la relatividad especial abarcase también los
fenómenos gravitatorios, Albert Einstein, entre 1907 y 1915 desarrolló la teoría de la relatividad
general. Una de las principales conclusiones de esta teoría es que la gravedad influye en la
propagación de la luz, representada en la teoría por el potencial gravitatorio Φ, descrito por:
donde G es la Constante de gravitación universal, M la masa y R la distancia al objeto que
genera el campo gravitatorio. Einstein encontró que la luz, al pasar por un campo gravitatorio de
potencial Φ sufría una disminución de su velocidad, según la fórmula: donde c0 es la velocidad
de la luz sin campo gravitatorio y c es la velocidad con él. También se ve modificada la
frecuencia de la luz emitida por una fuente en un campo ==gravitatorio== Lo que explica el
desplazamiento gravitacional. Otro ejemplo que confirma experimentalmente este punto de la
teoría son las líneas espectrales del sol, que están desplazadas hacia el rojo dos millonésimas
veces cuando sea comparan con las generadas por los mismos elementos en la Tierra. Por
último, en esta relación entre luz y gravedad, esta teoría predijo que los rayos de luz al pasar
cerca de un cuerpo pesado se desviaban en un ángulo α determinado por el efecto de su campo
gravitatorio, según la relación: Este punto de la teoría se pudo confirmar experimentalmente
estudiando el desvío de la luz que provocaba el sol, para ello los científicos estudiaron la
posición de las estrellas del área alrededor del sol aprovechando un eclipse en 1931. Se vio
que, como predecía la teoría, estaban desviadas hasta 2,2 segundos de arco comparadas con
fotos de la misma área 6 meses antes.

Radiación y materia

Paul Dirac. Al formular su ecuación de ondas para un electrón libre, Paul Dirac predijo que era
posible crear un par de electrones (uno cargado positivamente y otro negativamente) a partir de
un campo electromagnético que vibrase extremadamente rápido. Esta teoría fue rápidamente
confirmada por los experimentos de Irene Curie y Frédéric Joliot y por los de James Chadwick,
Stuart Blackett y Giuseppe Occhialini al comparar el número de electrones con carga negativa y
el número de electrones con carga positiva (estos últimos llamados positrones) desprendidos
por los rayos γ de alta frecuencia al atravesar delgadas láminas de plomo y descubrir que se
obtenía la misma cantidad de unos que de los otros. Pronto se encontraron otras formas de
crear pares positrón-electrón y hoy en día se conocen una gran cantidad de métodos: Haciendo
chocar dos partículas pesadas. Haciendo pasar a un electrón a través del campo de un núcleo
atómico. La colisión directa de dos electrones. La colisión directa de dos fotones en el vacío. La
acción del campo de un núcleo atómico sobre un rayo γ emitido por el mismo núcleo. También
ocurre el proceso en sentido contrario: al colisionar un electrón y un positrón (ellos solos tienden
a juntarse, ya que tienen cargas eléctricas opuestas), ambos se aniquilan convirtiendo toda su
masa en energía radiante. Esta radiación se emite en forma de dos fotones de rayos γ
dispersados en la misma dirección, pero diferente sentido. Esta relación entre materia-radiación,
y viceversa (y sobre todo la conservación de la energía en esta clase de procesos) está descrita
en la famosa ecuación de Albert Einstein: enmarcada en la teoría de la relatividad especial y que
originalmente formuló así: Si un cuerpo de masa m desprende una cantidad de energía E en
forma de radiación, su masa disminuye E / c2 Albert Einstein en Zur Elektrodynamik bewegter
Körper.2

Teorías de campo unificado

Actualmente, se busca una teoría que sea capaz de explicar de forma unificada la relación de la
luz, como campo electromagnético, con el resto de las interacciones fundamentales de la
naturaleza. Las primeras teorías intentaron representar el electromagnetismo y la gravitación
como aspectos de la geometría espacio-tiempo, y aunque existen algunas evidencias
experimentales de una conexión entre el electromagnetismo y la gravitación, sólo se han
aportado teorías especulativas.

Espectro electromagnético

El espectro electromagnético está constituido por todos los posibles niveles de energía que la
luz puede tener. Hablar de energía es equivalente a hablar de longitud de onda; así, el espectro
electromagnético abarca también todas las longitudes de onda que la luz pueda tener, desde
miles de kilómetros hasta femtómetros. Ese es el motivo de que la mayor parte de las
representaciones esquemáticas del espectro suelan tener escala logarítmica.

El espectro electromagnético se divide en regiones espectrales, clasificadas según los métodos


necesarios para generar y detectar los diversos tipos de radiación. Por eso estas regiones no
tienen unos límtes definidos y existen algunos solapamientos entre ellas.

Espectro visible

De todo el espectro, la porción que el ser humano es capaz de ver es muy pequeña en
comparación con las otras regiones espectrales. Esta región, denominada espectro visible,
comprende longitudes de onda desde los 380 nm hasta los 780 nm. El ojo humano percibe La
luz de cada una de estas longitudes de onda como un color diferente, por eso, en la
descomposición de la luz blanca en todas sus longitudes de onda, por prismas o por la lluvia en
el arco iris, el ojo ve todos los colores.

quantum
Quantum es un término latino que no vamos a encontrar en el diccionario de la Real Academia
Española (RAE), a pesar de que su uso es habitual en el ámbito de la física. La palabra apropiada en
nuestra lengua es cuanto, que refiere al cambio del nivel energético de una materia al emitir o absorber
radiación.
Puede entenderse al quantum como la cantidad mínima de energía que es
susceptible de transmisión a través de una longitud de onda. También la
noción refiere al valor más pequeño que puede adquirir una magnitud en el
marco de un sistema físico al modificar su estado.

Los quantum, de acuerdo a la física cuántica, son las unidades de energía


emitidas mediante la radiación electromagnética. Esta rama de la física
sostiene que las partículas se dedican a intercambiar energía en enteros que
albergan la mínima cantidad posible, que son los quantum.

La física cuántica se encarga de analizar cómo se comporta la materia con dimensiones ínfimas, algo que
dificulta conocer cuál es la posición exacta y la energía de una partícula.

Al trabajar con quantums y en base al postulado del intercambio de energía de forma discreta, la física
cuántica permitió brindar explicaciones a hechos inaccesibles para la física convencional.

Dentro del ámbito literario, hay que exponer la existencia de un libro que responde al título de “Quantum
Touch”. Richard Gordon es el autor de este trabajo, referente al mundo de la medicina y la salud, que viene
a plantear la existencia de un singular método de curación y sanación, el que da título a la obra.

En concreto, se establece que ese sistema de curación consiste básicamente en que la persona que lo lleva a
la práctica y su paciente entren en contacto. ¿Cómo? Mediante una serie de técnicas corporales de enfoque,
la respiración adecuada y los distintos puntos de energía que se considera que tiene el cuerpo.

Mediante el Quantum Touch, que se establece que cualquier persona puede aprender de manera rápida y
sencilla, se expone que se puede conseguir desde reducir la inflamación de una parte del cuerpo hasta
minimizar dolores, corregir la postura que adopta un individuo, ponerle fin a la angustia emocional e
incluso alinear correctamente la espalda. Pero no sólo eso, Richard Gordon establece que, además, se
puede usar para curar a animales domésticos, tales como gatos y perros.

Además de todo lo expuesto, se deja constancia también en esa publicación que este singular sistema de
sanación se puede usar sin ningún tipo de problemas junto a lo que es la llamada medicina tradicional.

“Quantum of Solace”, también conocida como “007: Quantum”, es el título de una película centrada en
el personaje de James Bond. El filme, dirigido por Marc Foster y protagonizado por Daniel Craig, se
estrenó en 2008.

“Quantum of Solace” tuvo un presupuesto cercano a los 200 millones de dólares y recaudó más de 580
millones, resultando un gran éxito comercial. Por el momento, este largometraje está considerado como el
tercero más taquillero de todos cuantos dan forma a la saga protagonizada por James Bond así como
también el más violento de esa serie.

La física cuántica, para entenderla por fin


Explicada para todos los públicos por el físico Sidney Perkowitz
Por Por Sidney Perkowitz. Ilustraciones: Dani Blázquez

26/09/2014

No podemos observarlos directamente, pero el comportamiento de átomos, quarks, fotones y todo aquello
que compone la realidad a una escala nanométrica o menor confirma que aún no sabemos gran cosa del
universo. La teoría cuántica –que describe estas diminutas partículas– dejó de ser una rareza antes
confinada al laboratorio; ahora invade nuestras vidas y se encuentra en el teléfono inteligente que llevamos
en nuestro bolsillo, y hasta en el número de la tarjeta de crédito que usamos para comprar por internet. La
“cuántica” aparece cada vez más en términos como “sanación cuántica” y “políticas cuánticas”. Cuántico
se ha convertido en una palabra de moda. Cualquier relevancia científica en estos usos es puramente
accidental; sin embargo, esto ilustra que lo “cuántico” posee una mística más allá de lo científico.

A pesar de que la mecánica cuántica surgió para resolver un problema científico, más de un siglo después
aún guarda algo de misterio. La física cuántica predice comportamientos paradójicos o increíbles. Por
ejemplo, una partícula cuántica no posee solo un valor de una cantidad física, sino todos los valores al
mismo tiempo, algo que se llama superposición; dos partículas cuánticas pueden permanecer ligadas o
“entrelazadas”, aun a distancias ilimitadas y sin ninguna conexión física de por medio; y se pueden
teletransportar a través del espacio vacío.

Los saltos cuánticos pueden encontrarse en tu bar favorito y en el supermercado local

En 2011, el físico austríaco Anton Zeilinger aplicó un cuestionario con 16 preguntas de opción múltiple a
más de 30 especialistas en teoría cuántica, acerca de sus conceptos básicos y su interpretación. Ninguna de
las posibles respuestas recibió apoyo unánime, pues muchas de las preguntas provocaron un amplio rango
de opiniones. Según el investigador Charles Clark, codirector del Joint Quantum Institute en la
Universidad de Maryland, sería “un gran tema ubicar dónde está el problema” que hace que la teoría
cuántica sea tan difícil de interpretar. En parte, esto se debe a que es muy abstracta, por mor de la pequeñez
de lo que describe. Cuando pateamos un balón, obtenemos conocimiento empírico de cómo funciona el
mundo a una escala humana. Pero no podemos patear un quark o aventar un fotón; solo podemos describir
estas partículas con ayuda de la teoría cuántica.

Una idea desesperada


Cuando Max Planck inventó la teoría cuántica en 1900, pensó que solo era un truco matemático. Pero su
“truco” explicaba por qué los físicos de la época no podían responder a esta pregunta: “¿Cuál es la
naturaleza de la luz emitida por una llama o cualquier otro cuerpo caliente?” Sabían que la luz era una
onda electromagnética generada por partículas cargadas eléctricamente, como los electrones, pero el
problema era que los cálculos que usaban para aplicar esta teoría contradecían los resultados del
laboratorio del espectro de luz generado por objetos calientes.
Planck probó varias soluciones para resolver el problema antes de dar con la idea de que la luz es emitida
por medio de energías “cuánticas”, múltiplos exactos de cierta cantidad mínima, o “cuanto”. A esto lo
llamó “un acto de desesperación”, pero produjo el espectro correcto de luz de un cuerpo caliente y eso le
valió el Premio Nobel en 1918. Después, Albert Einstein y Niels Bohr obtuvieron sus propios premios
Nobel al extender el trabajo de Planck. Einstein mostró que la luz viene en discretos paquetes de energía,
luego llamados fotones, y Bohr planteó que los electrones en un átomo absorben o emiten fotones al
tiempo que brincan entre niveles de energía cuántica.

Fue asombroso encontrar que el mundo operaba de esta extraña manera. Ahora se sabe que los saltos
cuánticos y todo lo demás son reales. Pero, ¿por qué la humanidad no notó los “cuantos” hasta 1900?
Porque hablamos de una cantidad de energía muy pequeña. Incluso el febril brillo de una vela representa
un torrente de fotones (trillones por segundo). La luz que irradia una fuente es como arena derramándose
de un cubo; parece ser una corriente continua, pero en realidad es una multitud de diminutos granos
perdidos dentro del flujo mayor. De forma similar, los saltos cuánticos en los átomos son cambios
extremadamente pequeños en la energía, aunque el uso popular de “saltos cuánticos” con frecuencia hace
referencia, incorrectamente, a grandes cambios.

Publicidad - Sigue leyendo debajo

Saltos cuánticos reales


Pueden encontrarse en tu bar favorito o en el supermercado local. Siempre que veas brillar el anuncio
luminoso de alguna cerveza o el escáner de un código de barras, mira detenidamente: estás observando
saltos cuánticos eléctricos en acción a través de sus huellas dactilares, la emisión de la luz, como Niels
Bohr determinó.
Un anuncio de neón es un tubo de cristal relleno con el gas noble neón o con otro gas que brilla cuando se
le aplica un voltaje. La “descarga luminosa”, vista por primera vez a finales del siglo XIX, funciona
porque el voltaje eleva a los electrones de los átomos del gas a un nivel más alto de energía; después, los
electrones descienden a niveles más bajos y sueltan fotones. Los gases poseen diferentes niveles de energía
atómica, y estos niveles definen las longitudes de onda del fotón. El neón produce luz roja, el argón genera
luz azul… y así.

La descarga luminosa está también en la iluminación fluorescente y en el láser. En un tubo fluorescente,


los saltos cuánticos en el vapor de mercurio crean fotones ultravioleta, que activan un revestimiento dentro
del tubo, el cual produce luz blanca. El láser, inventado en 1960, es como un tubo de descarga entre dos
espejos. Al tiempo que los fotones de un salto cuántico atómico rebotan de un lado a otro, estimulan más
fotones de los átomos que lo atraviesan. Eso produce un rayo mejorado de luz pura en una sola longitud de
onda. Un rayo cuya infinita gama de usos hace evidente que la energía cuántica es real.

Los saltos cuánticos aparecen también en los diodos emisores de luz (led). Los leds están hechos de
semiconductores en los cuales los electrones deben saltar a través de una brecha hacia una energía mayor,
antes de moverse como corriente eléctrica. Al aplicarle voltaje al led, los electrones saltan la brecha, y
después regresan produciendo fotones.

Además de para el led, el comportamiento cuántico es crucial para los aparatos digitales. Sus circuitos
integrados están hechos de silicio semiconductor, cuya brecha de energía cuántica permite un buen control
de los electrones para manipular los bits digitales.

Jugar a los dados


Aunque los saltos cuánticos se consideraron radicales, no contradicen las visiones existentes del mundo.
La superposición, el entrelazamiento y la teletransportación, sin embargo, producen más extrañeza porque
se oponen a nuestro entendimiento del universo. Estos problemas surgen porque la teoría cuántica no
predice valores definitivos para las propiedades físicas, sino solo probabilidades.

Einstein no creía que la naturaleza fuera azarosa, como lo expresó en su famoso comentario “Dios no juega
a los dados con el universo”, pero en teoría cuántica este no parece ser el caso. Una bola de béisbol tiene
cierto impulso, pero en el mundo cuántico, cualquier partícula lleva en sí todos sus posibles valores físicos
al mismo tiempo o en “superposición” hasta que es medido o interactúa con el ambiente.

Por ejemplo, la propiedad llamada “giro” hace que los electrones se comporten como pequeñas barras
magnéticas con su polo norte apuntando hacia arriba (U) o abajo (D). En teoría cuántica, el electrón está en
estos estados al mismo tiempo, pues existe una probabilidad del 50% de que una medición muestre U o D.

El experimento del “gato de Schrödinger” –como lo imaginó en 1935 el pionero de la teoría cuántica
Erwin Schrödinger– ilustra esta naturaleza estadística. El gato está muerto o vivo dependiendo de un
evento aleatorio y, por tanto, puede describirse en ambos estados a la vez.

Publicidad - Sigue leyendo debajo

Extraño, pero útil


Necesitamos comprender estos raros efectos si deseamos entender la física cuántica; pero, incluso sin eso,
la cuántica está entrando en la tecnología digital. Los circuitos integrados en los aparatos digitales
representan bits binarios en pequeños interruptores electrónicos que se prenden o apagan para representar
el 0 y el 1. Pero cualquier sistema con dos posibilidades también puede representar el 0 y el 1, incluyendo
los estados U y D de los electrones y los estados H y V de los fotones; solo por medio de la superposición,
estos representan 0 y 1 simultáneamente.

Esta es la idea innovadora detrás del bit cuántico, o qubit, una especie de superbit (el nombre se inventó
como un chiste en 1995). Por ejemplo, dos bits ordinarios representan solo uno de los números decimales
0, 1, 2, 3… pero dos qubits representan los cuatro números al mismo tiempo. La ventaja crece
rápidamente, de tal forma que 20 qubits cargan 20 millones más de veces la información que 20 bits. Se ha
estimado que una computadora “cuántica” que usase 150 o 300 qubits tendría el poder de todas las
supercomputadoras convencionales del mundo juntas.

El Joint Quantum Institute de la Universidad de Maryland y una docena de laboratorios más alrededor del
mundo trabajan para usar qubits en la informática y también en las telecomunicaciones, ya que los fotones
que atraviesan una amplia red de fibra óptica cargan gran parte de la información que viaja por el mundo,
desde las llamadas telefónicas hasta las descargas de internet. Sin embargo, la tecnología de los qubit es
difícil de implementar, porque las partículas deben ser aisladas del ambiente y mantenerse a temperaturas
ultrabajas para que permanezcan en superposición. Pasarán años antes de que tengamos la computadora de
150 qubits, pero ya se han construido y programado las versiones de prueba que usan unos cuantos qubits
de fotones para resolver el problema. Los qubits de fotones también se están utilizando para realizar
transmisiones de información más seguras por medio de las aplicaciones del entrelazado.

Teletransportación
El primer paso para entrelazar fotones es crear un par correlacionado con uno de ellos en estado H y el otro
en estado V (lo cual se puede obtener enviando luz a través de ciertos cristales), aunque aún no sabemos
cuál es cual. Si después se separa ampliamente a los fotones, estos mostrarán una propiedad sorprendente.
Si se mide al fotón 1 como H, la medición del fotón 2 dará V; pero si el fotón 1 se mide como V, el
segundo fotón da H. De alguna manera, el fotón 2 “sabe” el resultado de la medición del fotón 1 y se ajusta
de acuerdo con ese resultado; las dos partículas están entrelazadas.

Para observar lo excepcional que es esto, pongámoslo en un contexto más familiar. Un cajón en la Ciudad
de México contiene un número idéntico de calcetines negros y blancos, al igual que un cajón en Toronto,
Canadá. Si se elige en forma aleatoria un calcetín en la Ciudad de México y un amigo escoge otro en
Toronto, la mitad de las veces las elecciones coincidirán. Pero si los calcetines están entrelazados, como
los fotones, no importa qué color elijas, tu amigo escogerá el otro color en todas las ocasiones, a pesar de
la distancia entre los dos calcetines y la ausencia de cualquier conexión física.

Publicidad - Sigue leyendo debajo

El entrelazado de los fotones se demostró en el laboratorio en 1982; las últimas mediciones muestran que
puede operar en distancias de hasta 144 kilómetros de espacio vacío. También señalan que cualquier
información transmitida entre los fotones viaja 10.000 veces más deprisa que la luz y quizá de manera
instantánea. Esto contraviene los resultados de la relatividad de Einstein, donde se asegura que nada puede
viajar más rápido que la luz. Peor aún, la transmisión instantánea nos hará volver a considerar por
completo nuestras nociones de tiempo y espacio.

Mucho antes de que se dieran estos inquietantes resultados, a Einstein le costaba trabajo aceptar el
entrelazamiento y lo llamó “una espeluznante acción a distancia”. Pero existe, con partículas conectadas de
algún modo por un desconocido canal cuántico que no logramos comprender. Aún más: los investigadores
han llevado este misterioso vínculo más allá, al campo de la teletransportación. En ese medio de transporte
tan común en la ciencia ficción, una persona o un objeto es replicado en otra parte mientras desaparece de
su ubicación original, como podía verse en las historias de Star Trek. En 1993, Charles Bennett de IBM y
sus colegas mostraron en teoría cómo teletransportar un fotón. Imaginando un par de fotones entrelazados
en distintas ubicaciones, A y B, demostraron que el estado polarizado de un tercer fotón podía enviarse de
la posición A al fotón en B, por medio del canal de entrelazamiento, recreando de tal manera al tercer fotón
en el sitio lejano. Anton Zeilinger (el del cuestionario cuántico) y sus colegas demostraron la
teletransportación de un fotón en el laboratorio en 1997, y en 2012 reportaron haber teletransportado
fotones en distancias mayores a 143 kilómetros.

Un ordenador cuántico tendría el poder de todas las supercomputadoras convencionales del mundo

El secreto cuántico
Estos efectos van más allá de la ciencia ficción cuando los fotones polarizados se controlan como qubits en
la criptografía cuántica, método diseñado para transmitir información de modo seguro por medio de una
red de fibra óptica. En 1984, Charles Bennett y Gilles Brassard inventaron la distribución de la llave
cuántica. Como la combinación de un candado, la “llave” es un largo hilo de bits que conforman la
contraseña secreta para acceder a un complejo de algoritmos que codifican y decodifican información. El
código es indescifrable sin la llave, pero esta, a su vez, debe ser difundida del transmisor al receptor
cuando corre el riesgo de ser leída por un tercero.

Bennett y Brassard mostraron cómo podía evitarse esa vulnerabilidad en la seguridad usando la
aleatoriedad cuántica de los qubits de fotones, para crear un único y azaroso hilo de bits que funcionara
como una codificada llave secreta basada en el entrelazamiento de fotones. Las llaves cuánticas se han
usado para asegurar transferencias bancarias y resultados electorales en Suiza. Aún no son comunes.

Rareza cuántica de tamaño completo


Es posible que jamás seamos capaces de teletransportar gente o grandes objetos, pero en 2011, Ian
Walmsley, de la Universidad de Oxford, y sus colegas entrelazaron objetos macroscópicos visibles para el
ojo humano: dos diamantes, cada uno de tres milímetros de largo.

Los átomos en sólidos cristalinos, como los diamantes, vibran a energías cuánticas, las cuales se
encuentran en cantidades inusuales en los átomos de carbono de los diamantes. En el experimento, estos
efectos exteriores se mantuvieron al margen lo suficiente como para preservar los estados cuánticos y
permitirles a los investigadores enlazar los diamantes a distancias de hasta 15 centímetros. Este es un paso
en la creciente extrañeza cuántica para llegar a un punto en el cual sea más fácil examinarla y
comprenderla.

La idea de Max Planck en 1900 comenzó un viaje desde el mundo ordinario hacia el mundo
submicroscópico. Aunque aún no comprendemos por completo la teoría cuántica, ilumina este mundo y
hace que la tecnología avance. Con resultados como los del experimento de los diamantes, continuamos el
viaje trayendo el universo submicroscópico al mundo que ocupamos. Planck, Einstein y Bohr estarían hoy
completamente fascinados.