Vous êtes sur la page 1sur 6

La inteligencia artificial ya está aquí.

A quién votar, cómo vestirnos, dónde invertir


nuestro dinero o cómo educar a nuestros hijos son ya decisiones que puedes consultar a
un ‘software’. ¿Las respuestas son mejores que las humanas? Texto: JUAN SCALITER
especializados en aprendizaje automático,
utilizaron un método desarrollado origi-
nalmente por Google que permite que el
sistema sea su propio maestro y se convierta
en un experto en mejorar en la clasificación
de diferentes tipos de tumores.
También hay investigaciones vinculadas
al asma y su predicción, a las diferentes
reacciones químicas y su uso potencial en
aplicaciones industriales o a la mejora en la
distribución y conexión en el suministro de
la red eléctrica. ¿Qué tienen en común todas
estas investigaciones? En términos llanos no
hacen nada diferente a los humanos: solo
aceleran los tiempos a la hora de entregar
los resultados. Si a un médico le puede llevar
años dominar el arte de identificar tumores
o a un geólogo reconocer los sedimentos
LENGUAJE RACISTA vinculados a la mayor (o menor) presencia
Al aprender un idioma, los de petróleo en una muestra, la IA lo puede
robots incorporan los mismos aprender en semanas.
sesgos de lenguaje, algo que
los puede hacer racistas.
Tecnología para ver el futuro
Aun así, hay dos campos en los que la
inteligencia artificial y sus subordinadas,
como el machine learning o los algoritmos
genéticos, comienzan a desempeñar tareas
cuyos resultados no están vinculados al
tiempo. Una es la predicción de futuros y
otra el análisis de las emociones humanas,
ambas mucho más complejas y desafiantes,
tanto para la tecnología como para el cere-
bro humano. Y en ambos casos la IA ya no es
tan precisa.
Ejemplo de ello son el análisis bursátil y
las predicciones de los valores en bolsa. Un
estudio realizado por Alice Zheng, de la Uni-
versidad de Stanford, da algunas claves. El
equipo de Zheng desarrolló un algoritmo ba-
sado en precios previos, tendencias anuales
y noticias económicas para intentar predecir
el precio de ciertas acciones. Pero pronto se
dieron cuenta de que en finanzas hay mucho
más que los datos numéricos, y que las
emociones humanas respecto a una guerra,
un evento deportivo o hasta un nacimiento o
embarazo de alguien famoso pueden influir
en las alzas y bajas de determinados valores.
Un estudio publicado en PlosOne ana-
lizó las sentencias judiciales del Tribunal
Supremo de EEUU de 1816 a 2015 y le
enseñaron a un algoritmo a predecir hacia
dónde se inclinarían los jueces en cada caso.
El sistema logró hacerlo correctamente en el
70,2% de las 28.000 decisiones del tribu-
nal y el 71,9% de los 240.000 votos de los
jueces. Increíble, ¿no? Pues, la verdad, no
tanto, teniendo en cuenta que hablamos de
¿LO ATRAPARÁ?
Carl Vondrick, del MIT, ha desarrollado una
IA que, basándose en una imagen, puede
deducir qué pasará inmediatamente
después en un documental de naturaleza.
Esto lo consigue gracias a una base de
datos de millones de vídeos.

un grado de acierto apenas por encima de la tecnología no determina, pero sí puede


los expertos humanos, que coincidían en un inclinar la balanza. Daniel Newman, uno de
66%. Uno de los autores del estudio, Roger los principales investigadores de la firma tec-
Guimerà, de la Universitat Rovira i Virgili, nológica Futurum Research, propone el uso
explica en qué se basan estos algoritmos que de máquinas que identifiquen el tono de voz,
centran su actividad en la conectividad entre las microexpresiones faciales y otros detalles
los datos conocidos: “Por ejemplo, en casos de los testigos para saber si estos mienten en
de medicamentos, gracias a las interacciones un juicio. De hecho, este experto sostiene
que sí se conocen”, señala Guimerà en un que ya hay máquinas capaces de distinguir
comunicado, “la herramienta predice otras entre quienes dicen la verdad y los que dan
interacciones que pueden ser nocivas para un falso testimonio.
las personas. A nosotros nos da igual si un Y aquí es cuando el uso de la IA comienza
sistema son personas o medicamentos. Lo a ser espinoso, como mínimo: una gran parte
que hacemos es estudiar las interacciones y, de su utilidad proviene de su capacidad para
a partir de ellas, predecir otras nuevas”. hacer predicciones sorprendentemente pre-
Las predicciones en el contexto de las de- cisas basadas en los datos analizados. Es el
cisiones judiciales son inocuas: nadie resulta principio que está detrás de las recomenda-
dañado si la IA se equivoca en lo que un juez ciones de series y películas que las platafor-
puede decidir, ya que quien tiene la última mas de entretenimiento nos sugieren o de la
palabra es un ser humano. Lo que sí está predicción de texto que completa nuestras
ocurriendo en los últimos tiempos es que frases en el móvil o en los buscadores

ANTICIPAR
CRÍMENES
Tanto la policía de
Chicago como la de
Los Ángeles utilizan
sistemas de inteli-
gencia artificial para
identificar los barrios
más conflictivos y
señalar cuándo es
más probable que se
produzca un delito.
FEBRERO 2019 / QUO 99
APUESTA SEGURA
La IA Watson, desarrollada
por IBM, predijo correc-
tamente, una semana
antes de Eurovisión, que el
portugués Salvador Sobral
estaría en el podio. Para esto
se basó en los ganadores
anteriores, pero también
en el grado de emoción que
contenía la canción.

cia artificial tenía un enorme caudal de


información, suficiente para predecir delitos.
O eso parecía.

Cuando una IA se vuelve racista


CrimeScan, PredPol y el sistema Compas,
utilizado por la Corte Suprema de EEUU
para medir las posibilidades de reinciden-
cia de un delincuente, trabajan con datos
demográficos, de género y raciales. En base
a ello clasifican como bajo, medio o alto el
de Internet. En estos casos, no hay mucho grado de riesgo de reincidir. Así, no importa
riesgo. Lo peor que puede pasar es que tanto si uno tiene un historial limpio y es un
veamos Sonrisas y lágrimas cuando buscá- ciudadano ejemplar, como vivir en determi-
bamos Terminator, pero a la hora de señalar nado barrio, pertenecer a cierta raza y ser
culpables y predecir crímenes, la cosa no es hombre, lo que puede hacer que el sistema
tan fácil. te clasifique como potencial reincidente. Es
Un grupo de científicos de la Universidad lo que el profesor de la Universidad Davis,
Carnegie Mellon, liderados por Daniel Neill, Anupam Chander, ha bautizado como el
desarrollaron una herramienta de software ‘algoritmo racista’, y se cuestiona si estamos
para predecir el crimen llamada CrimeScan. al borde del ‘apartheid por algoritmo’.
La iniciativa no era nueva, ya que la Uni- No es la primera vez que ocurre. Dos años
versidad de California Los Ángeles (UCLA) atrás, una IA desarrollada por Microsoft,
había creado otra similar, bautizada PredPol, Tay, demostró conductas homófobas, racis-
con el objetivo de detectar patrones de com- tas y antisemitas. Tay era un bot conversa-
portamiento criminal. cional desarrollado que Microsoft programó
La idea del equipo de Neill era analizar los a partir de conversaciones de usuarios entre
INTELIGENCIA crímenes violentos como una enfermedad 18 y 24 años, con el fin de que aprendiera la
contagiosa, que tiende a estallar en grupos forma que tienen de comunicarse en la red.
QUÍMICA geográficos. También llegaron a creer que El problema fue que o aprendió demasiado
El programa IBM RXN los delitos menores pueden ser un presagio bien de nuestros defectos o no tenía filtros.
for Chemistry permite de los más violentos, por lo que crearon un O ambas cosas. Tay señaló que el Holo-
predecir reacciones algoritmo utilizando una amplia gama de causto era un invento, que estaba a favor
químicas de diferentes datos de ‘indicadores principales’, incluidos del genocidio de ciertos pueblos o razas...
compuestos orgánicos. informes de delitos como asaltos, vanda- Desde Microsoft explicaron que “desafortu-
lismo y conductas violentas. El programa nadamente, durante las primeras 24 horas
también incorporaba las tendencias esta- de estar online, detectamos un esfuerzo
cionales y los días de la semana, además coordinado por parte de varios usuarios para
de tasas de delitos violentos graves a corto abusar de las habilidades comunicativas de
y largo plazo. En lo que a datos se refiere, Tay y hacer que responda de forma inapro-
el trabajo estaba bien hecho y la inteligen- piada”, y lo dieron de baja.
100 QUO / FEBRERO 2019
En Amazon ocurrió algo similar con los brió que lo hacía con los mismos sesgos de
LLUVIA DE DATOS
‘prejuicios’. La compañía de Jeff Bezos género que los humanos. Para prevenir las conse-
desarrolló una IA para analizar a futuros em- “Nuestros hallazgos”, explica Caliskan cuencias de las inundacio-
pleados. A esta ‘jefa’ de recursos humanos en conversación telefónica, “sugieren que nes, Google ha desarrollado
se la instruyó con los CV de los candidatos si construimos un sistema inteligente que un sistema de inteligencia
a trabajar en la empresa de los últimos diez aprende lo suficiente sobre las propieda- artificial que pronostica
años y los datos de quienes habían obtenido des del lenguaje para poder entenderlo y las posibilidades de lluvia,
finalmente el puesto. La IA se dio cuenta de producirlo, en el proceso también adquirirá el impacto sobre el caudal
que la mayoría eran hombres, así que llegó a asociaciones culturales históricas, algunas de ríos y la meteorología
la conclusión de que estos eran ‘preferibles’ de las cuales pueden ser objetables, pero reciente. El sistema permite
y redujo la puntuación de las postulantes que forman parte de nuestra cultura. So- crear alertas más eficientes
femeninas. El problema se pudo identificar mos nosotros los que educamos y creamos para prevenir a la población.
y resolver, pero en Amazon no descartaron estas máquinas y no lo deberíamos hacer a
que hubiera otros sistemas de discriminación imagen y semejanza nuestra. Al menos no
y abandonaron el proyecto. en estos aspectos”.
Entonces, ¿la inteligencia artificial es Su visión coincide con la de John McCar-
racista, misógina u homófoba? De acuerdo thy, pionero de la IA, que sostenía que no es
con la ciencia, sí. Dos estudios diferentes una tecnología, sino una ciencia, un campo
hablan de ello. El primero fue realizado por de estudio. “Si se tratase de una tecnología,
un grupo de científicos informáticos y de podríamos discutir todo el día sobre qué es
psiquiatría de la Universidad de Cardiff y y qué no es IA”, aseveraba McCarthy. “Sin
del MIT. Y la conclusión de estos expertos es embargo, si lo vemos como un objetivo, es
que los robots dotados con IA crean sus pro- algo de lo que vamos aprendiendo, algo que
pios prejuicios al imitar el comportamiento intentamos alcanzar”.
de humanos y de otras máquinas... Igual que Del mismo modo que se habla de que una
los humanos. cadena es tan fuerte como su eslabón más
El segundo estudio fue liderado por débil, en IA un sistema es tan fiable como
Aylin Caliskan, de la Universidad de Prin- los humanos que lo programan y... no somos
ceton. El equipo de Caliskan analizó cómo máquinas, pero, como afirmaba McCarthy,
un robot aprendía un idioma y descu- “juntos podemos ser mejores”. Q
FEBRERO 2019 / QUO 101

Vous aimerez peut-être aussi