Vous êtes sur la page 1sur 2

LOS ALGORITMOS OCULTOS QUE

FUNCIONAN COMO ARMAS DE


DESTRUCCIN MATEMTICA
Sin que nos diramos mucha cuenta, parte de la vida moderna
se nos fue de las manos.
Redaccin BBC Mundo| 1 noviembre 2016

Las matemticas son, para muchos, una ciencia hermosa. Pero algunos algoritmos --vitales para
decidir cosas que nos afectan directamente (como la cesin de un prstamo o la obtencin de
un trabajo)-- se basan en estadsticas falsas o sesgadas que fomentan la desigualdad y la
discriminacin en el mundo.
Al menos, as lo asegura Cathy O'Neil.
La exprofesora del prestigioso Barnard College de la Universidad de Columbia, en EEUU,
quien trabaj como analista de datos en Wall Street, dej el mundo acadmico y financiero
para convertirse en uno de los miembros ms activos del movimiento Ocuppy Wall Street
(OWS), que denunci los excesos del sistema financiero a partir de 2011.
Cinco aos despus de que naciera aquel movimiento intelectual, O'Neil acaba de publicar su
libro, "Weapons of Math Destruction" (Armas de destruccin matemtica), en el que describe
cmo los algoritmos gobiernan nuestras vidas (y tienden a desfavorecer a los ms
desfavorecidos).
"Vivimos en la era de los algoritmos", escribe la matemtica. "Cada vez en mayor medida, las
decisiones que afectan nuestras vidas --a qu escuela ir, si podemos o no obtener un prstamo o
cunto pagamos por nuestro seguro sanitario-- no estn tomadas por humanos, sino por
modelos matemticos".
En teora, explica la especialista, esto debera conducir a una mayor equidad, de forma que
todo el mundo fuera juzgado bajo las mismas reglas y se eliminara el sesgo. Pero, segn O'Neil,
lo que ocurre es exactamente todo lo contrario.

EL LADO OSCURO DEL BIG DATA


Los algoritmos funcionan a modo de "recetas" creadas por computadoras para analizar grandes
cantidades de datos.
Un algoritmo puede recomendarte una pelcula o protegerte de un virus informtico, pero eso
no es todo. Hay ciertos algoritmos que O'Neil define como "opacos, desregulados e
irrefutables". Pero lo ms preocupante, asegura, es que refuerzan la discriminacin.
La primera caracterstica de estos algoritmos, le cuenta O'Neil al Servicio Mundial de la BBC,
es que "toman decisiones muy importantes en la vida de las personas". Por ejemplo, si un
estudiante pobre en EE.UU. trata de pedir un prstamo, el sistema lo rechazar por ser
demasiado "arriesgado" (en virtud de su raza o vecindario) y ser aislado de un sistema
educativo que podra sacarle de la pobreza, quedando atrapado en un crculo vicioso.
Este es tan slo un ejemplo de cmo esos algoritmos respaldan a los ms afortunados y castigan
a los ms oprimidos, creando un "cctel txico para la democracia", explica O'Neil. Es el lado
oscuro del Big Data.
Pero, adems, la acadmica dice que "(esos algortimos) son, en cierto sentido, opacos: la gente
no comprende cmo son computarizados. Y, a veces, son secretos".
"Una de las cosas que ms me preocupa es que estas puntuaciones --los algoritmos nos avalan
y puntan-- no son visibles para nosotros", explica.
"Por ejemplo, cuando llamamos al servicio al cliente (de una empresa) a veces nos puntan
segn nuestro nmero de telfono y el perfil que tienen registrado de nosotros. Y deciden si
somos un cliente de alto o de bajo valor. Si somos de valor reducido, puede que nos hagan
esperar ms tiempo".
De acuerdo con la matemtica, esos modelos ocultos manejan nuestras vidas desde que
empezamos la escuela primaria hasta que nos jubilamos.
Los modelos estn presentes en infinitos aspectos de nuestra vida personal y
profesional: controlan resultados acadmicos de estudiantes y alumnos, clasifican currculos
vitae, conceden o deniegan becas, evalan a trabajadores, determinan votantes, establecen
penas de libertad condicional y vigilan nuestra salud.
Y todos ellos, dice O'Neil, esconden bucles de retroalimentacin perjudiciales. Pero qu
quiere decir eso?

COMPRENDIENDO EL ALGORITMO
Simplemente, no describen la realidad tal y como es, sino que la modifican, expandiendo o
limitando nuestras oportunidades en la vida.
"Estos algoritmos son destructivos y debilitan su propio objetivo original, como la mejora del
sistema educativo, por ejemplo", dice O'Neil.
"Uno de mis ejemplos favoritos es el modelo de puntuacin de valor agregado del profesor, y
est muy extendido en Estados Unidos. Tiene que ver con el esfuerzo para librarse de los
malos profesores".
"Los resultados de los alumnos estn informatizados, y los maestros ganan puntos si sus
estudiantes obtienen mejores resultados de lo esperado (y viceversa). El verdadero problema es
que nadie entiende (este sistema) realmente, lo cual estara bien si funcionara a la perfeccin.
Pero no es el caso", advierte la exanalista.
Lo que ocurre, asegura, es que tienen "mucho ruido estadstico" y son "inconsistentes". De
hecho, algunos profesores han sido despedidos por fallas en esta tecnologa, seala.
O'Neil dice que las personas encargadas de la modelacin (y fabricacin) de esos algoritmos
deberan asumir una mayor responsabilidad sobre cmo se estn usando estos modelos
matemticos.
Pero, al final, est en nuestras manos informarnos ms sobre ello, hacernos las preguntas
adecuadas y comprender mejor cmo funcionan los modelos matemticos que rigen nuestras
vidas.
"Es muy difcil luchar contra sistemas de puntuacin que ni siquiera sabes que existen. Por eso,
una de las cosas que reivindico en mi libro es que la gente los rebata".
"Hay muchas formas de adelantarnos al sistema. Por ejemplo, si hago una bsqueda en internet
sobre un problema de salud, siempre lo hago desde una ventana de incgnito", dice O'Neil.
La clave, advierte, es "asegurarse de que las personas (y los algoritmos) que recopilan
informacin sobre ti en internet no obtienen 'malas noticias'".

(en: http://www.bbc.com/mundo/noticias-37837377?ocid=socialflow_facebook)