Vous êtes sur la page 1sur 19

EL FIN DE LA TEORÍA: El diluvio de

datos ¿hará obsoleto el método


científico? Por Chris Anderson, editor
jefe de Wired.
escrito por 3.0
Compartir
Edge (30-6-08) Traducción: Verónica Puertollano

«Todos los modelos son erróneos, pero algunos son útiles».


Dijo el proclamado estadístico George Box hace treinta años, y llevaba razón. Pero
¿qué opción teníamos? Sólo los modelos, desde las ecuaciones cosmológicas a las
teorías de la conducta humana, parecían ser capaces de explicar de forma
coherente, si bien imperfecta, el mundo que nos rodea. Hasta ahora. Hoy, las
empresas como Google que han crecido en una era de masiva abundancia de datos,
no tienen que conformarse con modelos erróneos. De hecho, no tienen que
conformarse con modelos en general.
Hace sesenta años los ordenadores hicieron la información legible. Hace veinte,
internet la hizo alcanzable. Hace diez, los primeros robots araña1 la hicieron una
base de datos sencilla. Ahora Google y compañías similares escudriñan la época
más medida de la historia, tratando este corpus masivo como un laboratorio de la
condición humana. Son hijos de la Era del Petabyte.
La Era del Petabyte es diferente porque más es diferente. Los kilobytes se
almacenaban en disquetes. Los megabytes, en discos duros. Los terabytes, en
sistemas disk array2. Los petabytes se almacenan en clústeres3. De igual modo que
avanzamos en esa progresión, y fuimos de la analogía de la carpeta a la del
archivador y de ahí a la de la biblioteca, al llegar al petabyte nos quedamos sin
analogías organizativas.
En la escala del petabyte, la información no es sólo una cuestión tridimensional ─y
tetradimensional─ de simple taxonomía y orden sino de estadísticas
dimensionalmente agnósticas.
Esto exige un enfoque completamente distinto, que nos haga desprendernos de la
red de datos como algo que pueda ser visualizado en su totalidad. Nos fuerza a ver
los datos matemáticamente primero y establecer un contexto después. Por ejemplo,
Google conquistó el mundo de la publicidad con nada más que matemáticas
aplicadas. No pretende saber nada sobre la cultura y los convencionalismos de la
publicidad ─simplemente supuso que unos mejores datos, con mejores
herramientas de análisis, triunfarían. Y Google estaba en lo cierto.
La filosofía fundacional de Google es que no sabemos por qué esta página es mejor
que esa otra: si las estadísticas de los links entrantes lo dicen, es suficientemente
buena. No se requiere un análisis semántico o causal. Por eso es por lo que Google
puede traducir idiomas sin «saberlos» realmente (dados idénticos cuerpos de
datos, Google puede traducir del klingon4 al persa con la misma facilidad con que
traduce del francés al alemán). Y por qué puede casar los anuncios con los
contenidos sin ningún conocimiento o presunción sobre el anuncio o los
contenidos.
Hablando en la Conferencia O’Reilly de Tecnologías Emergentes el pasado marzo,
Peter Norving, director de investigación de Google, aportó una actualización de la
máxima de George Box: «Todos los modelos son erróneos, y se puede cada vez más
triunfar con ellos”.
Este es un mundo en el que las cantidades masivas de datos y las matemáticas
aplicadas reemplazan a cualquier otra herramienta que pudiera ser utilizada. Fuera
con cada teoría del comportamiento humano. Olvide la taxonomía, la ontología y la
psicología. ¿Quién sabe por qué las personas hacen lo que hacen? La cuestión es
que lo hacen, y podemos seguir su pista y medirlo con una fidelidad sin
precedentes. Con suficientes datos, los números hablan por sí mismos.
No obstante, el gran objetivo aquí no es la publicidad. El método científico está
construido sobre hipótesis comprobables. Estos modelos, en su mayoría, son
sistemas visualizados en la mente de los científicos. Los modelos son entonces
probados, y los experimentos confirman o falsan los modelos teoréticos de cómo
funciona el mundo. Esta es la manera en que la ciencia ha trabajado durante
cientos de años.
Los científicos están preparados para reconocer que la correlación no implica
causalidad, que ninguna conclusión debería apoyarse sólo en la base de la
correlación entre X e Y (podría ser sólo una coincidencia). En su lugar, se deben
comprender los mecanismos subyacentes que conectan a las dos. Una vez que se
tiene un modelo, se puede unificar el conjunto de datos con seguridad. Los datos
sin un modelo son sólo ruido.
Pero en contraste con los datos masivos, este planteamiento de la ciencia
─elaboración de hipótesis, modelo, prueba─ está volviéndose obsoleto. Considérese
la física: los modelos newtonianos fueron rudas aproximaciones a la verdad
(equivocadas al nivel atómico, pero aún útiles). Hace cien años, la mecánica
cuántica fundada estadísticamente ofreció un mejor retrato ─pero aún la mecánica
cuántica es otro modelo, y como tal, también es defectuosa, sin duda la caricatura
de una realidad profunda más compleja. La razón por la que la física se ha
deslizado hacia la especulación teorética sobre los modelos n-dimensionales
unificados globalmente durente las últimas décadas (etapa de «bonita historia» de
una disciplina privada de datos) es que no sabemos cómo ejecutar los experimentos
que falsarían las hipótesis ─las energías son demasiado altas y los aceleradores
demasiado caros, y así.
Ahora la biología apunta a la misma dirección. Los modelos que tomamos en la
escuela sobre los genes «dominantes» y «recesivos» regidos por un proceso
estrictamente mendeliano han resultado ser una simplificación de la realidad aún
mayor que las leyes de Newton. El descubrimiento de las interacciones del gen
proteína y otros aspectos de la epigenética han cuestionado la visión del ADN como
destino e incluso ha aportado indicios de que el ambiente puede influir en rasgos
no heredables, algo que fue una vez considerado genéticamente imposible.
En resumen, cuanto más aprendemos sobre biología, más lejos nos encontramos de
un modelo que pueda explicarla.
Ahora hay un método mejor. Los petabytes nos permiten decir: «la correlación es
suficiente». Podemos dejar de buscar modelos. Podemos analizar los datos sin
hipótesis sobre qué podrían mostrar. Podemos arrojar los números hacia los
clústeres de computación más grandes que el mundo haya visto y dejar que los
algoritmos estadísticos encuentren patrones que la ciencia no puede.
El mejor ejemplo práctico de esto es la secuenciación aleatoria del genoma por J.
Craig Venter. Gracias a secuenciadores de alta velocidad y superordenadores que
analizan estadísticamente los datos que producen, Venter pasó de secuenciar
organismos individuales a secuenciar ecosistemas enteros. En 2003, comenzó a
secuenciar gran parte del océano, recorriendo el viaje del Capitán Cook. Y en 2005
empezó a secuenciar el aire. En el proceso, descubrió miles de especies de bacteria
antes desconocidas y otras formas de vida.
Si las palabras «descubrir nuevas especies» le recuerdan a Darwin y a los dibujos
de pinzones, probablemente esté situado en el modo viejo de hacer ciencia. Venter
no puede decirle casi nada de las especies que él encuentra. No conoce su
apariencia, ni cómo viven, ni mucho más sobre su morfología. No puede incluso
teniendo su genoma entero. Todo lo que tiene es una variación estadística ─una
secuencia única que, siendo distinta a cualquier otra secuencia de la base de datos,
debe representar una nueva especie.
Esta secuencia puede correlacionarse con otras secuencias que se parecen a
aquellas de especies más conocidas. En ese caso, Venter puede hacer algunas
conjeturas sobre los animales ─que convierten la luz del sol en energía de una
determinada manera, o que descienden de un ancestro común. Pero al margen de
eso, no tiene mejores modelos de estas especies de los que tiene Google de su
página MySpace. Son sólo datos. Sin embargo, analizándolos con los recursos
informáticos avanzados de Google, Venter ha modernizado la biología mucho más
que cualquiera de su generación.
Esta forma de pensar está lista para ser la corriente dominante. En febrero, la
Fundación Nacional de la Ciencia anunció el Cluster Exploratory [CluE] un
programa de fondos para la investigación diseñado para ser ejecutado en una
plataforma de computación distribuida a gran escala, desarrollada por IBM y
Google en conjunto con seis universidades piloto. El cluster consistirá en 1.600
procesadores, varios terabytes de memoria y cientos de almacenaje, junto al
software, que incluye el Tivoli de IBM y versiones open source de Google File
System [GFS] y Google MapReduce. Los primeros proyectos CluE incluirán
simulaciones del cerebro y del sistema nervioso y otras investigaciones biológicas
que se sitúan entre el wetware y el software.
Aprender a usar un «ordenador» de estas proporciones puede ser un reto. Pero la
oportunidad es grande: la nueva disponibilidad de enormes cantidades de datos,
junto a las herramientas estadísticas que hagan los cálculos, ofrece toda una nueva
forma de entender el mundo. La correlación sustituye a la causalidad, y la ciencia
puede avanzar aun sin modelos coherentes, teorías unificadas o ciertamente
cualquier otra explicación mecanística. No hay razones para aferrarnos a nuestros
viejos usos. Es hora de preguntar: ¿Qué puede aprender la ciencia de Google?
Sobre El fin de la teoría de Chris Anderson.

George Dyson
Durante mucho tiempo he estado obcecado en la idea de que el cerebro contiene de
alguna forma un «modelo» de la realidad, y que la Inteligencia Artificial se hará
realidad cuando entendamos ese modelo inserto en una máquina. ¿Qué es un
modelo? Podemos plantear dos condiciones: a/ algo que funcione y b/ algo que
entendamos. Se puede tener a sin b. Nuestras grandes creaciones distribuidas a
escala petabyte están empezando a captar la realidad de un modo que funciona
bien, pero que no necesariamente entendemos. Pero cuando podamos finalmente
apartar el cerebro, neurona por neurona, sin encontrar nunca el modelo, podremos
descubrir que la verdadera IA vino a la existencia sin que nadie desarrollara nunca
un modelo coherente de realidad o una teoría inequívoca de la inteligencia. La
realidad, con sus ambigüedades, funciona. Puede que nuestro verdadero destino
como especie sea construir una inteligencia de probado gran éxito, entendamos o
no cómo funcione. La memoria colectiva asociativa distribuida masivamente que
constituye la «supramente» (o el Ordenador Único de Kevin) ya está formando
asociaciones, detectando patrones y haciendo predicciones –aunque esto no
signifique pensar en el modo en que lo hacemos o en una escala que podamos
comprender. El repentino aluvión de grandes bases de datos y la apertura de un
territorio científico completamente nuevo promete una vuelta a la emoción del
nacimiento de la ciencia (moderna) en el siglo XVII, cuando era, como Newton,
Boyle, Hooke, Petty y el resto vieron, «el negocio de la Filosofía Natural» el que
averiguaba las cosas. Lo que Chris Anderson da a entender es que la ciencia irá
perteneciendo cada vez más a una nueva generación de filósofos naturales que no
sólo están leyendo la naturaleza, sino que están empezando a leer la «supramente».
¿Hará esto que el método científico quede obsoleto? No. Aún estamos muy cerca de
los comienzos del método científico para hablar de su fin. Como Sir Robert
Southwell escribió a William Petty el 28 de septiembre de 1687, poco antes de ser
elegido presidente de la Royal Society, «La intuición de la verdad no resulta tan
sabrosa como la Verdad ya cazada».

Kevin Kelly
Existe la incipiente sensación de que las bases de datos extremadamente grandes, a
partir del nivel petabyte, podrían cambiar el modo en que aprendemos las cosas. El
modo tradicional de hacer ciencia implica construir una hipótesis que coincida con
los datos observados o solicitar otros nuevos. Dado un grupo de observaciones ¿qué
teoría explica cuántos datos son suficientes para poder predecir la siguiente
observación? Puede resultar que volúmenes de datos tremendamente grandes sean
suficientes para saltarse la teoría y hacer una observación predictiva. Google fue
uno de los primeros en darse cuenta de esto. Pongamos el ejemplo del corrector
ortográfico de Google. Cuando, googleando, escribes una palabra mal, Google
surgiere la forma correcta. ¿Cómo lo sabe? ¿Cómo predice la palabra correcta? No
es porque tenga una teoría sobre la ortografía, ni porque haya llegado a dominar las
reglas ortográficas. De hecho, Google no sabe nada en absoluto sobre ortografía. En
su lugar, Google opera con un gran conjunto de datos de observaciones que
muestran que para cualquier palabra escrita hay x personas que dicen «sí» cuando
se les pregunta si querían decir la palabra «y». El motor ortográfico de Google
consiste enteramente en estos puntos de referencia, más que en cualquier otra
noción sobre la correcta escritura del inglés. Por eso, el mismo sistema puede
corregir la ortografía de cualquier idioma. Lo cierto es que Google emplea la misma
filosofía de aprendizaje mediante datos masivos para sus programas de traducción.
Pueden traducir del inglés al francés, o del alemán al chino, haciendo correlaciones
entre inmensos conjuntos de datos a partir del material traducido por el hombre.
Por ejemplo, Google entrena su motor de traducción francés-inglés surtiéndolo de
documentos canadienses que han sido publicados de manera frecuente tanto en
inglés como en francés. Los de Google no conocen la teoría del idioma,
especialmente del francés, tampoco un traductor con inteligencia artificial. Y las
traducciones son bastante buenas. No al nivel de experto, pero lo suficiente para
entender lo esencial. Puedes coger una web china y al menos captar el sentido de lo
que significa en inglés. Pero como Peter Norving, director de investigación de
Google, presumía ante mí, «ni una sola persona que trabajara en el traductor de
chino hablaba chino». No hay teoría de chino, ni comprensión. Sólo datos. (Si
alguien ha querido alguna vez una refutación del enigma de Searle de la Sala China,
aquí la tiene).

Si se puede saber cómo se escribe una palabra sin saber nada sobre ortografía o
gramática, y si se puede saber cómo traducir idiomas sin tener ninguna teoría o
concepto sobre la gramática de esos idiomas que estás traduciendo, entonces ¿qué
más se puede saber sin la teoría? Chris Anderson está explorando la idea de que
quizá se pueda hacer ciencia sin tener teorías.

Este es un mundo en el que las cantidades masivas de datos y las matemáticas


aplicadas reemplazan a cualquier otra herramienta que pudiera ser utilizada. Fuera
con cada teoría del comportamiento humano. Olvide la taxonomía, la ontología y la
psicología. ¿Quién sabe por qué las personas hacen lo que hacen? La cuestión es
que lo hacen, y podemos seguir su pista y medirlo con una fidelidad sin
precedentes. Con suficientes datos, los números hablan por sí mismos.

Quizá haya algo respecto a esta observación. Muchas ciencias como la astronomía,
la física, la genómica, la lingüística y la geología están generando hoy conjuntos de
datos extremadamente grandes y constantes flujos de datos a nivel petabyte. En
una década habrán alcanzado el nivel exabyte [mil millones de Gb]. Usando
«máquinas de aprendizaje» pasadas de moda, los ordenadores pueden extraer
patrones en este océano de datos que ningún humano podría detectar posiblemente
nunca. Estos patrones son correlaciones. Pueden ser o no causales, pero podemos
aprender nuevas cosas. Por tanto, logran lo que la ciencia hace, aunque no de la
manera tradicional. Lo que Anderson está planteando es que a veces basta con las
suficientes correlaciones. Hay un buen paralelismo en la salud. Un montón de
trabajos médicos en el enfoque correlativo. El doctor puede no encontrar nunca la
causa real de una dolencia, pero puede predecir correctamente su curso y tratar los
síntomas. ¿Pero es esto verdadera ciencia? Se pueden tener resultados, pero si no
se tiene un modelo ¿es algo en lo que otros puedan basarse? No lo sabemos todavía.
El término técnico para este enfoque científico es Data Intensive Scalable
Computation (DiSC). Otros términos son «Grid Datafarm Architecture» o
«Petascale Data Intensive Computing ». Estas técnicas hacen más hincapié en la
naturaleza de los datos intensivos que en los propios clusters de computación. La
industria online llama a esta forma de investigación una especie de «analytics».
Empresas de cloud computing como Google, IBM y Yahoo, y algunas universidades
han hecho talleres sobre el tema. En esencia, estos pioneros están intentando
explotar el cloud computing, o la Máquina Única, para la ciencia a gran escala. Las
herramientas actuales incluyen masivas plataformas software como MapReduce
(Ver: A Cloudbook For The Cloud), almacenaje barato, y gigantescos clusters de
centros de datos. Hasta la fecha, muy pocos científicos, al margen de la genómica,
están empleando estas nuevas herramientas. La intención del NSF’s Cluster
Exploratory program es reunir a científicos que posean grandes cantidades de
datos basados en las observaciones con los científicos informáticos que tienen
contacto y pericia con el cluster/cloud computing.

Mi impresión es que este método naciente será una herramienta adicional en la


evolución del método científico. No reemplazará a ninguno de los métodos vigentes
(¡lo siento, la ciencia no se acaba!) pero complementará la teoría establecida por la
ciencia. Llamemos a este enfoque de datos intensivos, para solucionar el problema,
Correlative Analytics. Creo que Chris Anderson desaprovecha una oportunidad
única titulando su tesis «El fin de la teoría», porque eso es una negación, la
ausencia de algo. Es más bien el comienzo de algo, y ahora es cuando se tiene la
posibilidad de acelerar ese nacimiento dándole un nombre positivo. Un nombre no
negativo también ayudará a clarificar la tesis. Estoy sugiriendo Correlative
Analytics en lugar de No Teoría porque no estoy completamente seguro de que
estos sistemas correlativos carezcan de modelo. Creo que hay un incipiente e
inconsciente modelo implícito incrustado en el sistema que genera las respuestas.
Si ninguno de los que trabajan en la Sala China de Google que habla inglés conoce
la teoría del chino, podemos seguir pensando en la Sala como una forma de teoría.
El modelo puede estar más allá de la percepción y la comprensión de los creadores
del sistema, y ya que funciona, no merece la pena intentar descubrirlo. Pero puede
seguir estando ahí. Simplemente opera a un nivel al que no tenemos acceso.

Pero no importa la invisibilidad de los modelos, porque funcionan. No es el fin de


las teorías, sino el fin de las teorías que entendemos. George Dyson dice esto
mucho mejor en su respuesta a Chris Anderson. Lo que George Dyson sugiere es
que este nuevo método de hacer ciencia –reunir zillones de puntos de referencia y
después hacer que la Máquina Única calcule una respuesta correlativa– puede ser
también pensado como método de comunicación con un nuevo tipo de científico,
uno que puede crear modelos a niveles de abstracción (en el mundo de los zillones)
más alla de nuestras propias facultades. Hasta ahora Correlative Analytics, o el
modo Google de hacer ciencia, han sido principalmente utilizados en áreas
sociológicas, como la traducción de idiomas, o el marketing. Ahí es donde los
zillones de datos han estado. Todos esos zillones de puntos generados por nuestra
vida colectiva online. Pero a medida que nuestras observaciones y medidas de la
naturaleza sean captadas durante 24 horas, 7 días a la semana, con una variedad
creciente de pruebas y sensores, la ciencia también entrará en el campo de los
zillones y será procesada fácilmente por las nuevas herramientas de Correlative
Analytics. En esta parte de la ciencia, podemos obtener respuetas que funcionan,
pero que no entendemos. ¿Es esto una comprensión parcial? ¿O una nueva forma
de comprensión? Quizá la comprensión y las respuestas están sobrevaloradas. «El
problema de los ordenadores», se rumorea que dijo Pablo Picasso, «es que sólo te
dan respuestas». Estos inmensos sistemas correlativos basados en datos nos darán
montones de respuestas –de buenas repuestas– pero es todo lo que nos darán. Eso
es lo hace al Ordenador Único –darnos buenas respuestas. En el nuevo mundo del
cloud computing las buenas respuestas se convertirán perfectamente en una
mercancía. El valor real del resto de la ciencia se convierte entonces en hacer
buenas preguntas. [Ver The Google Way of Science en el blog de Kevin Kelly].

Stewart Brand
La humanidad digital ha pasado aparentemente de un hito a otro durante los
últimos pocos años. Ahora nos damos cuenta. Darse cuenta suele ser de ayuda.
Coincidiremos en uno o dos nombres para el nuevo hito y observaremos lo que la
inducción nos diga sobre cómo funciona o para qué sirve.

W. Daniel Hills
Soy un gran fan de Google, y me encanta buscar patrones matemáticos en los datos,
pero el artículo de Chris Anderson, El fin de la teoría, establece una falsa distinción.
Afirma que usando una gran colección de datos para «ver los datos
matemáticamente primero y establecer un contexto después» es en cierto modo
distinto de «la manera en que la ciencia ha trabajado durante cientos de años». No
estoy de acuerdo.

La ciencia siempre comienza buscando patrones en los datos, y los primeros


modelos simples eran siempre meras extrapolaciones de lo que habíamos visto
antes. Los astrónomos eran capaces de predecir con precisión los movimientos de
los planetas mucho antes de las teorías de Newton. Lo hicieron reuniendo
montones de datos y buscando patrones matemáticos.

El «nuevo» método que Chris Anderson describe ha estado siempre en el punto de


partida: reunir una cantidad de datos y asumir que es representativa de otras
situaciones. Esto funciona bien mientras no intentemos extrapolarlo demasiado a
partir de lo que hemos observado. Es un tipo de modelo muy sencillo, un modelo
que dice «lo que vamos a ver a continuación será mucho más de lo que hemos visto
hasta ahora». Suele ser una buena conjetura. Los datos existentes siempre nos dan
nuestra primera hipótesis. Los humanos y otros animales están probablemente
preparados para ese tipo de extrapolación. Las herramientas matemáticas como las
ecuaciones diferenciales y la estadística fueron desarrolladas para ayudarnos a
hacer un mejor uso de ellas. Estas herramientas científicas han sido usadas durante
siglos y los ordenadores nos han dejado aplicarlas a mayores conjuntos de datos.
También nos han permitido reunir más datos que extrapolar. Los métodos basados
en datos que aplicamos a los petabytes son los métodos que siempre hemos
probado en primer lugar.
El método experimental (hipótesis, modelo, prueba) es lo que permite a la ciencia
ir más allá de lo que puede ser extrapolado a partir de los datos existentes. Las
hipótesis son más interesantes cuando predicen algo que es diferente de lo que
hemos visto hasta ahora. Por ejemplo, el modelo de Newton pudo predecir las
trayectorias de planetas no descubiertos, mientras que los obsoletos modelos
basados en datos, no. El modelo de Einstein, a su vez, predijo métodos que habrían
sorprendido a Newton. Los modelos son interesantes precisamente porque pueden
llevarnos más allá de los datos.

Chris Anderson dice que «este planteamiento de la ciencia –hipótesis, modelo,


prueba– se está volviendo obsoleto». No dudo que la frase pretende ser
provocadora, pero no veo ni siquiera una pizca de verdad en ella. Comparto su
entusiasmo por las posibilidades creadas por los conjuntos de datos de petabytes y
la computación paralela, pero no veo por qué grandes las grandes cantidades de
datos vayan a minar el método científico. Empezaremos, como siempre, por buscar
patrones sencillos en lo que hemos observado y los usaremos para hacer una
hipótesis sobre lo que es cierto en otra parte. Cuando nuestras extrapolaciones
funcionen, creeremos en ellas, y cuando no, crearemos nuevos modelos y
probaremos sus consecuencias. Extrapolaremos a partir de los datos primero y los
estableceremos en un contexto después. Esta es la forma de hacer ciencia que ha
funcionado durante cientos de años.

Chris Anderson acierta en su intuición de que hay algo diferente sobre estas nuevas
y grandes bases de datos, pero no ha identificado bien lo que es. Lo que es
interesante es que por primera vez tenemos datos significativamente cuantitativos
sobre las variaciones de los individuos: su comportamiento, su interacción e
incluso sus genes. Estos nuevas bases de datos inmensas nos dan una medida de la
riqueza de la condición humana. Ahora podemos vernos a nosotros mismos con las
herramientas que hemos desarrollado para estudiar las estrellas.

Sean Carroll
¿Qué es una buena teoría?
A principios del siglo XVII, Johannes Kepler propuso sus Tres Leyes del
Movimiento Planetario: los planetas se mueven en elipses, barren áreas iguales en
tiempos iguales y sus periodos son proporcionales al cubo de la distancia media
desde el Sol. Esto fue un gran avance en el aspecto astronómico de la cultura,
descubriendo un conjunto de relaciones simples en los voluminosos datos sobre los
movimientos de los planetas que habían sido reunidos por su mentor Tycho Brahe.
Más tarde, en el mismo siglo, Sir Isaac Newton propuso su teoría de la mecánica,
que incluía sus Leyes del Movimiento y su Ley de la Gravitación Universal (la
fuerza ejercida por la gravedad inversamente proporcional al cuadrado de la
distancia). En el sistema de Newton, se podían derivar las leyes de Kepler –en vez
de oponerlas– y muchas otras cosas. Esto era generalmente considerado como un
importante paso al frente. No sólo teníamos reglas de una aplicabilidad mucho más
amplia, sino que podíamos afirmar con sensatez que entendíamos lo que estaba
pasando. Entender es algo bueno, y es en cierto sentido el primer objetivo de la
ciencia.

Chris Anderson parece querer que lo deshagamos. Comienza con un


verdaderamente importante y emocionante desarrollo –las nuevas bases de datos
gigantes de petabytes que resisten modos ordinarios de análisis, pero que podemos
usar para descubrir patrones inesperados hasta ahora indagando en los torrentes
de información– de que la era de la teoría ha terminado. Él imagina un mundo en
el cual los científicos escudriñan las pilas gigantes de números, buscando cosas
frescas, y que no se molestan en entender lo que todo eso significa en términos de
los sencillos principios que subyacen.
Ahora hay un método mejor. Los petabytes nos permiten decir: «la correlación es
suficiente». Podemos dejar de buscar modelos. Podemos analizar los datos sin
hipótesis sobre qué podrían mostrar.
Bien, podemos hacer eso. Pero, como le gustaba decir a Richard Nixon, sería
incorrecto. A veces será duro, o imposible, descubrir modelos sencillos que
expliquen las inmensas colecciones de datos enmarañados tomados de los
fenómenos ruidosos y no lineales. Pero eso no significa que no debamos intentarlo.
Las hipótesis no son sólo herramientas útiles en algunas visiones de la ciencia
potencialmente obsoletas; lo son todo. La teoría es comprender, y comprender
nuestro mundo es de lo que trata totalmente la ciencia.

Jaron Lanier
El objetivo de la teoría científica no es que un ángel vaya a apreciarla. Su propósito
es la comprensión humana. La ciencia sin una búsqueda de teorías significa una
ciencia sin humanos. Los científicos están mundialmente contentos con los nuevos
grandes recursos relacionados con la computación. Soy consciente de que nadie
discute ese punto. La única idea en el texto de Chris Anderson que se sale de esa
feliz zona de consenso es que no deberíamos querer entender nuestro propio
trabajo cuando usamos los nuevos recursos. Encuentra emocionante que podamos
hacer algo que funciona sin comprender el porqué. Esto es precisamente lo que no
debería ser emocionante. Algunos remedios caseros funcionan y no sabemos por
qué. La ciencia va de entender. La comprensión es mucho más excitante que los
remedios caseros. Anderson parece decir que es inútil ser humano. Las máquinas
deberían ser ahora las que piensen, y ser las heroínas del descubrimiento. Digo
«parece» porque no me creo que esté siendo sincero. Creo que es una treta para
lograr cierto tipo de atención. Escuchar la retórica antihumana produce la misma
punzada que la trama de una película sobre un asesino en serie. Alguna parte
profunda y moral de todos nosotros está tan ofendida que no podemos desviar
nuestra atención.

Joseph Traub
Estoy de acuerdo con Danny Hills en que las grandes cantidades de datos no
socavarán el método científico. De hecho, las leyes científicas codifican una
inmensa cantidad de datos. Pienso en el ejemplo de las ecuaciones de Maxwell o en
las leyes de Kepler. ¿Por qué piensa Chris Anderson que con más datos aún, las
leyes (lo que él llama teoría) se volverá menos importante?

John Horgan
Mi primera reacción al ensayo de Chris Anderson fue, no, otra Gran-Profecía-del-
Fin-de-Algo. Anderson, además, recicla la retórica del caos, la complejidad y la
Inteligencia Artificial. ¡Ordenadores aún más poderosos van a encontrar patrones
ocultos en bases de datos cada vez mayores y van a revolucionar la ciencia! No
necesitas ser un ordenador para trazar los ciclos de auge y caída de estas
afirmaciones. Pero la idea de que los ordenadores obviarán la teoría y la
comprensión inspira unos pocos pensamientos:

Montones de grupos que ya trabajan en soluciones a los problemas sin


comprenderlas. Los economistas emplean métodos puramente numéricos para
predecir los mercados, y los matemáticos construyen «pruebas computacionales»
basadas en cálculos masivos en lugar de la lógica comprensible. Esto es menos
ciencia que ingeniería. La ingeniería no busca la verdad. Buscan una solución al
problema. Lo que funciona, funciona. Se podría decir que desde la aparición de la
mecánica cuántica, la física moderna ha dado la predicción sin comprensión. La
teoría cuántica tiene un éxito estupendo, casi demasiado para el que la conviene,
prediciendo los resultados de los experimentos del acelerador. Pero como Niels
Bohr solía decir, cualquiera que diga que entiende la teoría cuántica no sabe lo
primero que hay que saber sobre ella.

Pero dudo de que computadoras procesadoras de cálculo vayan a reemplazar por


completo a los expertos humanos, como da a entender Anderson. Los físicos del
Gran Colisionador de Hadrones tienen que hacer programas que ayuden a sus
ordenadores a averiguar entre la avalancha de datos eventos potencialmente
importantes. El procesador de cálculo masivo de IBM permitió a Deep Blue vencer
a Gary Kasparov. Pero los expertos humanos de ajedrez también incorporaron sus
conocimientos al software de Deep Blue para hacerlo más eficiente y encontrar las
jugadas óptimas. Apuesto a que el traductor de Google incorpora mucha habilidad
humana.

Chris Anderson parece creer que los ordenadores reducirán la ciencia a la pura
inducción, prediciendo el futuro basado en el presente. Este método no puede
naturalmente predecir cisnes negros, anomalías y sucesos verdaderamente
originales. La carga teórica de los expertos humanos no puede prever cisnes negros,
pero para el futuro previsible, los expertos humanos sabrán cómo manejar mejor a
los cisnes negros cuando aparezcan.

Bruce Sterling
La ciencia ficción inmediatamente obsoleta por la «petabyte ficción»
Estoy tan impresionado por los prefijos «peta» y «exa» como el que más. También
me inclino a pensar que los motores de búsqueda son más grandes y mejores que la
Inteligencia Artificial (incluso aunque la IA se las hubiera arreglado alguna vez para
existir fuera de la ciencia ficción). También me encanta la idea de grandes,
nubladas [cloudy] y sin embargo profundas relaciones entre fenómenos
aparentemente inconexos –en literatura, llamamos a esos gadgets «metáforas».
¡Son geniales!

Pero he de preguntarme por qué Chris Anderson quiere que Google –después de
que haya echado inmediatamente por tierra la publicidad– aborde la teoría
científica. La publicidad no tiene nada que ver con la teoría científica. La publicidad
ha sido siempre una completa paparruchada de hechiceros. Despues de que soplara
esa casa de paja, Google puede querer seguir con las de ladrillo (eso es una
metáfora). Seguramente hay otros frutos de fácil alcance que los petabytes podrían
recoger fructíferamente antes de aspirar a las remotas, frágiles y altísimas ramas de
la ciencia. (Otra metáfora –aquí me enrollo).

Por ejemplo: la ideología política. Todo el mundo sabe que la ideología es muy
similar a la publicidad. Así que ¿por qué no hacemos que los zillones establezcan
nuestras creencias políticas, basadas en algunas grandes escalas y asociaciones con
otros fenómenos estadísticamente verificables como, digamos, el color de nuestra
piel o el lugar donde nacimos? La abogacía. ¿Por qué argumentar los casos con
lógica, intentando determinar los hechos, la culpa o la inocencia? Echemos toda la
carga legal de todos los casos conocidos en la tolva de petabytes, y dejemos que los
algoritmos seleccionen el resultado del juicio. Después podemos «colgar a todos los
abogados», como dijo Shakespeare (no es una metáfora). El amor y el matrimonio.
No puedo entender por qué la gente sigue insistiendo en casarse con sus amiguitas
de la infancia cuando una búsqueda petabyte de miles de millones de potenciales
compañeras de todo el mundo resulta demostrablemente más barato y más
efectivo. Las inversiones. Hacer cálculos en el mercado de valores tiene que ser
trabajo de tecnología petabyte. Ningún humano sabe cómo oscila el mercado –es
todo la hora del «triple embrujo», es pura, baja y sucia superstición. Pero
seguramente los propietarios petabyte pueden deducir mecánicamente el (sólo
aparente) caos de los mercados, convirtiéndose en súper-ultramagnates. Entonces
compran toda la ciencia y hacen lo que les parezca con ella. Los escépticos no se
reirán entonces. El diseño gráfico. Éste se mata fácilmente. Se compara el conjunto
total de pixels de un proyecto de página para Wired con el conjunto de todos los
píxeles de todas las páginas de papel que haya escaneado Google. Se pone el
creatímetro en marcha y se genera la imagen gráfica definitiva. Ah, y lo mismo para
toda la música digitalizada en tu iPod, nada más y nada menos. ¿Por qué mezclar
las canciones en random [aleatoriamente] cuando puedes reducir las canciones a
puras longitudes de onda en un alucinante mashup petabyte? Así puedes patentarlo
en vez de poner copyright. Finalmente –aquí llegaré a una pequeña meta–, el
último número de Edge. En lugar de esos dolorosos comentarios que Edge publica
como respuesta a acreditados científicos y sus parásitos culturetas, la Tercera
Cultura conquistará la Tierra cuando todos los comentarios de internet de
cualquier tipo sean analizados para las posibles repuestas Edgy, del modo en que
Google puede traducir estonio a klingon ¡en un solo paso! ¡El resultado es la última
tesis cultural crítico-científica! No es una «Gran Teoría Unificada» –(así de
acabada está la teoría, ya que nunca podrás estampar los datos bancarios de Google
en una camiseta). Siguiendo con las metáforas –aquí quédate conmigo–, visualizo
este Edge petabyte como una especie de infinito cantoriano, de debate intelectual
posthumano, una cibercultura autogeneradora que muerde delicadamente su cola
de dragón como un ouroboros chino, masticando la naturaleza de la verdad remota
con una poética claridad cristalina, girando y precesando en su propio eje de
escamas, en una nube de internet del tamaño de California.

Douglas Rushkoff
Sí, pero.
Tengo mis sospechas en unos pocos puntos:
Lo primero: no creo que Google haya sido probado «correcto». Sólo efectivo, por el
momento. Una vez que la propia publicicidad se revele como un modelo de negocio
temporal, la habilidad de Google de explotar correctamente la trayectoria de una
industria en descenso podrá entonces ser tenida en cuenta. Sin un contexto más
amplio, el éxito de Google es en realidad una mera táctica. No es una extensión de
una agencia humana (o incluso de una agencia corporativa), sino una puñalada
estratégica basada en la lógica del momento. No es un esfuerzo guiado, sino una
respuesta pasiva. ¿Funciona? De momento. ¿Va a la cabeza? En absoluto.
Asimismo, para determinar la elección humana, o hacer política u obtener ciencia a
partir de la nube [cloud] niega a todos estos campos la presunción de significado.
Vi cómo, durante las elecciones de 2004, las firmas de investigación de mercado
procesaban los datos de esta forma para las campañas de Bush y Kerry. Usarían la
información no relacionada con la política para identificar hogares que parecieran
contener a más votantes indecisos. El modelo predictivo usaría puntos de
referencia tales como si los votantes tenían un perro o un gato, un coche de dos o
cuatro puertas, a qué distancia les quedaba el trabajo y cuánto debían en sus
hipotecas para determinar qué tipo de votantes había dentro. Estas técnicas no
tenían lógica para ellos. La lógica era vista como una distracción. Todo lo que
importaba eran las correlaciones que eran determinadas por ordenadores que
estudiaban minuciosamente los datos. Si resultaba que quienes tenían un gato y un
coche con dos puertas parecían más votar en un cierto sentido o favorecer cierta
causa, entonces las compañías de encuestas podían indicar a los que encuestadores
a qué teléfono tenían que llamar para hacérselas. Chicos con reproductores de DVD
que contenían anuncios personalizados para ciertos hogares se dejarían ver en las
esquinas de las casas, pondrían la canción por ordenador, dejarían un folleto y se
dirigirían a la siguiente. Algo, durante ese proceso, me hizo cínico respecto a ese
campo que emergía de forma no piramidal, contraria a la taxonomía. Estoy
totalmente a favor de una buena «folksonomía», como cuando los chicos etiquetan
sus vídeos favoritos o los post de los blogs. Es así como sabemos qué vídeo de
YouTube ver; hacemos una búsqueda general y luego del hit que ha sido visto más
veces. Pero los números más certeros no hablan por sí mismos. Al olvidar la
taxonomía, la ontología y la psicología, olvidamos por qué estamos aquí en primera
instancia. Quizá el consumidor de vídeos puede olvidar esas disciplinas, ¿pero y el
que hace los vídeos?
Cuando leí los sumamente astutos argumentos de Anderson sobre la dirección de la
ciencia, me sentí preocupado por que la ciencia pudiera muy bien seguir el mismo
curso en la política o en los negocios. Las técnicas del petabyte sin cerebro
favorecen a la industria sobre la reflexión, al consumo sobre la creación, y –me
atrevo a decir– al fascismo descerebrado sobre el reflexivo autogobierno. Son
compatibles con los objetivos ético-agnósticos de las grandes empresas mucho más
de lo que lo son las ciencias más intencionalmente aplicadas a una comunidad o
civilización. Aunque para los propios agnósticos, estas técnicas no son imparciales.
Mientras que su tendencia puede ser menos obvia de lo que les han enseñado a los
científicos humanos en las instituciones de élite, su tendencia no está sin embargo
implícita en el aparente pero falsamente postmecanicista y absolutamente abierto
enfoque de los datos y sus implicaciones. No son en realidad más abiertas que la
apertura de mercados, y en definitiva están inclinadas a su favor. Sólo porque
eliminemos los límites y las distorsiones de la narratividad humana de la ciencia,
no significa que otras distorsiones se apresuren a llenar el vacío.

Oliver Morton
Las provocaciones de Chris Anderson despiertan muchos pensamientos –me
limitaré a dos específicos y dos generales. El primero específico es que Anderson
hace una caracterización equivocada de la física de partículas. El problema con la
física de partículas no es la pobreza de datos –es la complejidad teórica. El
Tevatron, y el LEP antes, habían producido cantidades inmensas de datos para sus
épocas –datos que son un rico suministro. El problema es que el modelo estándar
lo explique todo. El paso que va más allá del modelo estándar no es una reflexión
sobre la pobreza de datos, sino teoría que se nutre de teoría porque los datos están
bien servidos. Esto no significa que no haya un ángulo Googlesco que se pueda usar
aquí –hay un equipo observando los datos de Fermilab en lo que entiendo que es
una efectiva forma de «teoría agnóstica» (ver Particle physicists hunt for the
unexpected de mi colega de Nature Sarah Tomlin)– pero no es algo de vital
importancia. (Y añado brevemente: una teoría como la de Newton, que permite a
los profesionales predecir con precisión las posiciones de los pequeños trozos de
roca que vuelan velozmente, con décadas de antelación, en un sistema solar 10[25]
más grande que las rocas en cuestión pude ser incompleta pero, «en bruto», no lo
es.

La segunda caracterización errónea es de la biología. Sugerir que ver el fenotipo


como una interacción del genoma y el entorno es en cierto modo un nuevo
conocimiento, o teóricamente confuso, simplemente no es así. Pero es a lo que
equivale en realidad todo eso que dice de la epigenética y las interacciones de los
genes y las proteínas. No me queda realmente claro en qué sentido serio la biología
forma hoy un modelo «más allá» del que había hace cincuenta años. Ahora hay
nuevos modelos de biología que explican más de lo que entonces era explicable, y
no hay un modelo para todos. En cuanto a los puntos generales, no creo que el
discurso alejado de las normas de Feyerabend del método científico –«vale todo»–
sea la última palabra en este asunto. Pero está más cerca de la verdad que decir que
la ciencia siempre avanza por los modelos, o por cualquier otra estrategia. La
ciencia como proceso de descubrimiento es mucho más interesante que las
herramientas que usa en cualquier momento o en cualquier área disciplinaria.

Y supongo que mi otro punto es «petabytes-¡bah!». Sin duda, un petabyte es algo


grande –pero el número de formas en que uno puede hacer preguntas es mucho
más grande. No soy matemático, y con mucho gusto aceptaré que me corrijan en
esto, pero según lo veo yo, una forma de entender un kilobit es la de un recurso que
puede agotarse –o quizá un espacio que pueda colapsarse– con diez pregutnas de sí
o no: eso es lo que es 2 [10]. Para un kilobyte el número sube a 13. Para un
petabyte, a 53. Hoy, en muchos casos, 53 es un montón de preguntas. Pero en las
redes de miles de genes, no son en verdad tantas. Para entender la biología,
necesitas pensar mucho más grande. Es posible que yo describiera los comienzos
del camino a seguir en «A Machine With a Mind of Its Own», un artículo que
escribí para Wired sobre la científica de robótica de la universidad de Aberystwyth,
y tuve el gusto de escuchar hace poco que ese programa ha comenzado haciendo
verdaderos descubrimientos nada triviales. Pero quizá, para hacerle justicia real a
estas cosas necesitas un millón de millardos de experimentos elegidos por tales
algoritmos –datos que generan datos, en lugar de datos que generan conocimiento;
la clase de futuro retratada en Rainbows End de Vernor Vinge, con sus
indescriptiblemente grandes laboratorios subterráneos automatizados en San
Diego.
Ps. Cualquiera que no aprecie la ironía en el «no, otra Gran-Profecía-del-Fin-de-
Algo» de John Horgan, debería.

Daniel Everett
El ensayo de Chris Anderson hace que me pregunte sobre la lingüística en la era de
los petabytes. En la primera hora de la teoría lingüística en Estados Unidos, los
lingüistas estuvieron, como todos los científicos, preocupados con el
descubrimiento de las regularidades. La antropóloga Ruth Benedict primero, llamó
«patrones en la cultura» a las regularidades en los modos de los humanos de dar
significado al mundo. Más tarde, Edward Sapir, Kenneth Pike y otros buscaron
patrones en el lenguaje, especialmente en las lenguas indias americanas que se
convirtieron en el centro de la lingüística americana diferenciándose así de los
incipientes estudios lingüísticos de los investigadores europeos. Habiendo acabado
de terminar una guía de investigación de campo, mi propio énfasis pedagógico para
los nuevos investigadores es en gran parte el mismo que el de los primeros estudios
de las lenguas indígenas de las Américas –entrar en una comunidad que habla un
idioma no estudiado y seguir procedimientos inductivos estándar para encontrar
regularidades y patrones. Una vez que los patrones han sido descubiertos,
articularlos como normas, anotar las excepciones y ahí lo tienes: una gramática.
Pero hay dos aspectos en los que los lingüistas están empezando a estar
descontentos con esta metodología, como el resultado de unas cuestiones que
conectan con las tesis de Chris Anderson. El primero, que los lingüistas han
comenzado a cuestionar la relevancia de distinguir las reglas de las listas. Segundo,
que han comenzado a preguntarse si el niño procede de facto como un pequeño
lingüista en el aprendizaje de su lengua con procedimientos de inducción y
deducción construidos en él genéticamente, o si el aprendizaje del niño del idioma
tiene lugar de forma muy distinta del modo en que los lingüistas estudian en campo
nuevas lenguas. La diferencia entre las reglas y las listas y los enunciados
extensionales vs. intencionales es la confrontación de que la ley rige contra el
desorden. Así, los humanos estamos motivados por nuestra evolución a clasificar.
Estamos profundamente insatisfechos con los recuentos de datos que parecen más
listas y «meras estadísticas» que generalizaciones basadas en la detección de un
comportamiento estructurado por leyes. Y sin embargo, como muchos han
empezado a señalar, algunos de los hechos más interesantes sobre las lenguas,
especialmente los hechos cruciales que distinguen una lengua de otra, son con
frecuencia listas, más que reglas (o esquemas). La gente tiene que aprender listas
en cualquier lenguaje. Ya que tienen que hacerlo, ¿hay alguna razón para
proponerles un segundo tipo de aprendizaje, o de adquisición en forma de reglas,
estén las propuestas motivadas genéticamente o no? Más curiosamente ¿adquieren
el lenguaje los niños basándose en un conjunto de hipótesis limitado
genéticamente, o tratan el lenguaje como internet y funcionan como calculadoras
estadísticas, como pequeños «Googlers»? Los psicólogos conexionistas de Carnegie
Mellon, Stanford y otras universidades han impulsado hipótesis relacionadas con
nosotros durante años, aunque los lingüistas han tardado en abrazarlas.

La lingüística tiene mucho que hacer durante los próximos años para restituirse a sí
misma en la era de los petabytes. Las generalizaciones estadísticas sobre grandes
cantidades de datos pueden ser más útiles en algunos aspectos, al menos si las
usamos como herramientas paralelas, que la reflexión superficial sobre pequeños
montones de datos que caracteriza a los primeros modelos de las ciencias humanas.
Puede muy bien ser, de hecho a muchos de nosotros nos parece más probable, que
los modelos previos basados principalmente en la inducción o en los genes eran
incapaces de explicar qué es lo fundamental qué queremos explicar –cómo los
niños aprenden las lenguas y cómo las lenguas pueden diferir de interesantes
formas mientras comparten profundas similitudes.

Gloria Origgi
Estoy de acuerdo con Daniel Hills en que lo que dice Chris Anderson: aunque
provocador y oportuno, no es exactamente una nueva noticia. La ciencia se ha
valido siempre de las correlaciones con el fin de ganar fuerza predictiva. La ciencia
social más que otras ciencias: tenemos pocos mecanismos causales sólidos que
expliquen por qué la gente se comporta de un modo o de otro, o por qué estallan las
guerras, pero un montón de correlaciones sólidas –para las que no tenemos
fundamentos– que es mejor tener en cuenta si queremos entender mejor un
fenómeno. Si el aumento de la tasas de mortalidad infantil resulta estar
correlacionado con la caída del Imperio soviético (como se ha señalado), es en
efecto información relevante, aunque carezcamos de una explicación causal para
ello. De modo que buscamos un posible mecanismo causal que sustente esta
correlación. La buena ciencia social encuentra mecanismos causales que no son
completamente ad hoc y que sustentan las generalizaciones en otros casos. La mala
ciencia social se atasca en las interpretaciones que suelen confirmar los prejuicios
ideológicos del científico. La ciencia describe, predice y explica el mundo: las
correlaciones ayudan a predecir, y también pueden describir el mundo de una
nueva forma, como un enredado conjunto de petabytes, pero no explican nada si no
son sustentadas por un mecanismo causal. La función explicativa de la ciencia, esto
es, responder los porqués, puede ser sólo un pequeño elemento de la empresa en su
totalidad: y de hecho, coincido plenamente con Anderson en que las técnicas y los
métodos de recopilación de datos pueden ser transformados completamente por la
densidad de la información disponible y la existencia de algoritmos estadísticos que
filtren esta información con una tremenda capacidad de computación.

Así que nada de nostalgia por los buenos viejos métodos si las nuevas técnicas de
compilación de datos son más eficientes para predecir eventos. Ni nada de
nostalgia por los «malos» modelos si las nuevas técnicas son lo suficientemente
buenas como para proporcionarnos comprensión (la Inteligencia Artificial frente a
los motores de búsqueda, por ejemplo). De modo que, pensemos en la era de los
petabytes como una era en la que «el contexto del descubrimiento», por usar el
viejo estribillo de la filosofía de la ciencia, es masivamente mecanizado por el
tratamiento algorítmico de enormes cantidades de datos, mientras que el «contexto
del descubrimiento» sigue perteneciendo a la ambición humana de dar sentido al
mundo que nos rodea.

Esto deja sitio para los porqués, es decir, ¿por qué algunas de las correlaciones
estadísticas extraídas por los algoritmos son tan condenadamente buenas?
Sabemos que son buenas porque tenemos la intuición de que funcionan y de que
nos dan la respuesta correcta, pero este «equilibrio reflexivo» entre las respuestas
clasificadas de Google a nuestras peticiones y nuestra intuición de que la
clasificación es satisfactoria sigue necesitando ser explicado. En el caso de
PageRank, me parece que el algoritmo incorpora un modelo de la web como una
red social estructurada en la que cada link de un nodo a otro es interpretado como
un «voto» de ese nodo al otro. Esto me suena a «teoría», a método de extracción de
información que, aunque sea realizado por máquinas, se realiza en la base de una
conceptualización de la realidad con el fin de obtenerla correctamente.

Puede surgir una nueva ciencia en la era Petabyte, esto es, una ciencia que intenta
responder las preguntas a cómo los procesos de la inteligencia colectiva hicieron
posible, mediante las nuevas y enormes cantidades de datos que pueden
combinarse fácilmente por potentes algoritmos de forma fiable. Quizá sea una
ciencia «más suave», totalmente nueva, liberada al fin de la carga del rigor de los
«métodos cuantitativos» que hacen a los documentos científicos tan aburridos de
leer, que deja esta carga para los algoritmos y deja que las mentes se muevan
libremente entre los datos en el más creativo sentido. La ciencia puede convertirse
en un juego más barato desde el punto de vista de las inversiones para descubrir
nuevos hechos: pero, como filósofa, no creo que estos juegos intelectuales baratos
sean un desafío menor o que merezcan menos jugarse.
Lee Smolin
Para saber qué pensar sobre la hipótesis de Anderson de que el almacenamiento y
procesamiento informáticos de cantidades masivas de datos reemplazarán la
necesidad de formular hipótesis y teorías, se puede ver si tiene alguna relevancia en
la forma en que las supercomputadoras están siendo actualmente usadas en la
física contemporánea. Un ejemplo que me viene a la mente es el de la astronomía
de ondas gravitacionales, en la que una señal amplia al receptor hace imposible
observar las ondas gravitacionales a partir de lo que producen los detectores. En
vez de eso, los flujos de datos masivos creados por la LIGO, VIRGO y otras antenas
de ondas gravitacionales son escaneados por ordenadores sobre plantillas con
formas de onda creadas por los teóricos que modelan las posibles fuentes. Estas
fuentes, como la rotación espiral y la fusión de los agujeros negros y las estrellas de
neutrones, precisan por sí mismas una simulación en superordenadores para
producir las plantillas necesarias.

¿Cuál ha sido la experiencia tras varias décadas de trabajo? Mientras que las ondas
gravitacionales no han sido hasta ahora identificadas, los detectores están activos y
en funcionamiento, como los programas que generan las plantillas con las formas
de las ondas a partir de las fuentes simuladas por el superordenador. Alcanzar este
estadio ha requerido una gran cantidad de cómputos, pero que han sido guiados en
cada fase por los conocimientos teóricos y los enfoques analíticos. Las cuestiones
claves que asomaban fueron resueltas por teóricos que lograron comprender lo que
estaba yendo bien y mal en sus simulaciones, porque eran capaces de formular
hipótesis y probarlas con cálculos analíticos. Aunque no trabajo en este campo, he
tenido claro todos estos años en que he estado observando su desarrollo que el
progreso era gracias a los buenos físicos que hacían lo que los buenos físicos hacen
siempre, construir historias y dibujos intuitivos en sus mentes que les conducen a
hipótesis probables. El hecho de que las hipótesis se basaran en lo que estaba
sucediendo en sus simulaciones informáticas, y no en los datos que provenían de
las observaciones, no quita que se utilizase la misma clase de creatividad y
pensamiento intuitivo, como es tradicional en la ciencia no computacional.

Algo parecido sucede en la cosmología, en la que las simulaciones por ordenador de


la formación de la estructura son parte de un arsenal de herramientas, algunas
computacionales, otras analíticas y otras intuitivas, que siempre son puestas a
prueba y comprobadas unas con otras. Y también se da algo parecido en los
estudios numéricos de la física de hadrones, en la que hay una interacción de
resultados e ideas entre las simulaciones del superordenador y los enfoques
analíticos. También, los obstáculos claves que surgieron tuvieron que ver con
cuestiones de principios físicos; hasta qué punto las simetrías en la teoría están
rotas en los modelos númericos. Ha llevado mucho trabajo creativo y de
pensamiento físico intuitivo, para superar estos obstáculos, que nos ha llevado
recientemente a conciliar teoría y experimento.

Del resultado de observar el desarrollo de estos y otros campos numéricamente


intensivos, tengo claro que mientras la simulación numérica y la computación son
unas herramientas muy útiles, sólo son de ayuda cuando son utilizadas por los
buenos científicos para mejorar sus poderes de razonamiento creativo. Rara vez se
logra algo «volcando un problema a un ordenador», sino que a una simulación le
lleva años e incluso décadas de cuidadoso mantenimiento y desarrollo hasta llega al
punto en que cede a la ayuda externa, y siempre que se ha hecho así ha sido por el
trabajo de teoría creativa y fundamentada, como la que ha estado tradicionalmente
en el núcleo del progreso científico.

Joel Garreau
Quizá las cosas son diferentes en la física y la biología. Pero por mi experiencia al
estudiar la cultura, los valores y la sociedad, los datos demoran la realidad por
definición –son un pantallazo del pasado. Y cuando la realidad humana no se
alínea convenientemente con los modos establecidos de pensar, los datos pueden
retrasarse durante años, si no décadas.

Los datos son un artefacto de selección, lo que significa que reflejan una hipótesis
subyacente, ya que si no, no habrían sido recogidos. Por ejemplo, en mi trabajo
descubrí que no tenía datos a tiempo para «probar» mi hipótesis de que
Norteamérica estaba actuando como si consistiera en nueve civilizaciones o
economías separadas que rara vez son ligadas por las jurisdicciones políticas de los
países, estados o condados. Era igualmente problemático sacarme datos para
probar que lugares como Silicon Valley se estaban convirtiendo en una versión
moderna de la «ciudad», aunque sus millones de metros cuadrados de grandes
edificios estuvieran justo ante nuestros ojos. Hasta que aquellos modelos de las
«nueve naciones» o la «ciudad en las afueras» no empezaron a ser considerados
útiles por otros, la gente no comenzó a pasar por el gran problema de verificarlos
reuniendo datos de una forma que no conocía los límites anteriores. La vida no está
obligada a seguir los datos, y no es algo que haga con frecuencia.

Ahora los pensadores producen hipótesis con las que se puede trazar un mapa del
cambio cultural y social sobre la Ley de Moore. Será interesante ver el momento en
que los datos demuestren apoyar sus predicciones. Ray Kurzweil y los de la
Singularidad ven una curva exponencial que conduce finalmente a la perfección de
la humanidad análoga a la versión cristiana del «cielo». Los pesimistas como Billy
Joy, Francis Fukuyama, Susan Greenfield y Martin Rees ven una curva gemela que
conduce rápidamente a algo parecido al «infierno». Ambas hipótesis son creíbles.
Pero los datos se retrasan. Es difícil encontrar «pruebas» de que estemos llegando
a lo uno o a lo otro, aunque se basen en las bellas y tersas curvas
tecnodeterministas, de esas que rara vez han sido –si es que lo han sido– un objeto
importante en la historia de la humanidad. Sabe Dios cómo se podría demostrar, a
través de los datos, la llegada de la hipotesis «predominante» descrita por Jaron
Lanier y otros. Esa hipótesis se basa en la idea de que un aspecto importante de la
futura historia es que estamos cubriendo el incremento de nuestros retos mediante
las respuestas imaginativas, tercas, maledicentes y colectivas nutridas desde abajo
por los hombres, desviando los acontecimientos en direcciones impredecibles. En
una gráfica, el resultado –como mucha de la materia prima de la historia– se
mostraría probablemente tan organizado como un plato de espaguetis. Me
encantaría pensar que la ausencia de datos tras las hipótesis –mucho menos la
realidad– está a punto de cambiar. (¡Al fin! ¡Una bola de cristal!) Pero espero
impaciente una demostración.

Vous aimerez peut-être aussi