Vous êtes sur la page 1sur 2

tica en la inteligencia artificial

Basado en lo plasmado en el artculo Beyond Asimov: The Three Laws of


Responsible Robotics, escrito por los investigadores R. Murphy y D. Woods.
Ambos autores, trabajan en el diseo e implementacin de sistemas cognitivos
integrados, tarea de naturaleza multidisciplinar, donde tanto personas de
diferente formacin acadmica como elementos tecnolgicos (algunos de ellos
con alto nivel de autonoma como los robots) trabajan conjuntamente para
alcanzar un fin comn. En dicho trabajo, temas como la tica y la moral, la
confianza o los lmites del rendimiento saltan a la palestra y abren un rico
espacio de discusin.
Tomando como punto inicial las literarias Tres Leyes de la Robtica de Asimov,
basadas en una moralidad funcional, estos autores proponen tres leyes
alternativas que pueden aplicarse a las capacidades y funciones que tienen los
robots hoy en da; leyes que hacen bastante hincapi en la responsabilidad
social y legal que tiene el ser humano sobre el comportamiento del robot.
Pero antes, recordemos brevemente los enunciados que resuman las famosas
leyes de Asimov:
I.
II.
III.

Un robot no puede hacer dao a un ser humano o, por inaccin, permitir


que un ser humano sufra dao.
Un robot debe obedecer las rdenes dadas por los seres humanos,
excepto si estas rdenes entrasen en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia en la medida en que esta
proteccin no entre en conflicto con la Primera o la Segunda Ley.

Segn los autores del artculo, estas leyes asumen que los robots tienen
capacidades y conocimientos suficientes como para tomar decisiones de orden
moral. Este hecho est an lejos de producirse y ni siquiera tenemos garantas
de que se vaya a conseguir en el futuro. De hecho, los autores ponen en duda
el objetivo de construir mquinas que participen significativamente en
contextos conversacionales totalmente abiertos, sobre todo en aplicaciones
reales. Queremos realmente robots morales? Le interesa a la robtica militar,
grandes financiadores del desarrollo de la robtica, progresar en estos
planteamientos?
Para salvar esta inadecuacin entre el contexto actual y los robots ficticios de
Asimov, los autores del artculo proponen tres leyes alternativas orientadas a
regular equipos de personas y robots que estn a cargo de una misma tarea, a
diferencia del marco planteado por Asimov, que se centraba solamente en
regular el comportamiento del robot:
I.

II.

Un ser humano no debe poner un robot en funcionamiento sin que el


equipo de trabajo hombre-robot cumpla los ms altos estndares de
profesionales y legales en seguridad y tica (equiparables a los de un
equipo de personas).
Un robot debe responder apropiadamente, segn su papel en el equipo.

III.

Un robot debe tener la suficiente autonoma para proteger su propia


existencia, siempre que dicha autonoma permita la transferencia de
control a otros miembros del equipo de manera fluida y segn la primera
y la segunda ley.

Como se puede observar de su anlisis, estas tres nuevas leyes afirman


implcitamente que los diseadores, fabricantes y usuarios finales son los
responsables de cualquier dao o falta provocada por los robots, y descargan a
la mquina de cualquier tipo de responsabilidad social. En efecto, parece que
esta es la situacin ms razonable teniendo en cuenta el nivel de desarrollo
cognitivo en que se encuentran los robots hoy en da, sobre todo en robots
industriales, pero se sostienen estas leyes que acabamos de mencionar en
robots sociales? hasta qu punto la sociedad est interesada, o necesita que
los robots tengan capacidades que les permitan decidir por s mismos y tomar
responsabilidad de sus actos?
http://www.estamoscreandovida.com/category/etica-y-moral-en-la-inteligenciaartificial/

Vous aimerez peut-être aussi