Vous êtes sur la page 1sur 4

Colegio Teresiano Padre Enrique Nacimiento

Departamento de Lenguaje
Profesor(a): mori Corvaln Guerra
TALLER DE LENGUA CASTELLANA
Leyes de la robtica de Isaac Asimov
Nombre 1:
Nombre 2:
Curso: III ____
Puntaje ideal: puntos

Apellido 1:
Apellido 2:
Fecha:
Puntaje obtenido:

Calificacin:

Lee el siguiente texto y responde las preguntas a continuacin. Cuida tu letra,


ortografa y redaccin.
Las leyes de Asimov no sirven para controlar a los robots asesinos
Estos autmatas funcionaran por designios humanos, por los que son las leyes de la
sociedad las que deben intervenir
En 1942 el escritor de ciencia ficcin Isaac Asimov public un cuento titulado Crculo vicioso
en el que presentaba las tres leyes que gobiernan el comportamiento de los robots. Las tres
leyes de la robtica son las siguientes:
1. Un robot no puede hacer dao a un ser humano o, por inaccin, permitir que un ser
humano sufra dao.
2. Un robot debe obedecer las rdenes dadas por los seres humanos, excepto si estas
rdenes entrasen en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta proteccin no entre
en conflicto con la Primera o la Segunda Ley.
Posteriormente introdujo una cuarta ley, o ley cero de la robtica, que estaba por encima de
las dems:
0. Un robot no puede hacer dao a la humanidad o, por inaccin, permitir que la humanidad
sufra dao.
Desde entonces, las leyes de la robtica de Asimov se han convertido en una parte clave de
la cultura de la ciencia ficcin, que poco a poco se ha convertido en cultura de consumo
general.
En los ltimos aos, los robotistas han hecho grandes avances en las tecnologas que nos
acercan al tipo de robots avanzados que Asimov imagin. Cada vez hay ms robots y
humanos trabajando juntos en fbricas, conduciendo coches, volando aeronaves e incluso
echando una mano en casa.
Y as surge una pregunta interesante: Necesitamos una serie de leyes como las de Asimov
para gobernar el comportamiento de los robots segn vayan siendo ms avanzados?
Ahora tenemos algo parecido a una respuesta de la mano de Ulrike Barthelmess y Ulrich
Furbach de la Universidad de Coblenza (Alemania). Han revisado la historia de los robots en
la sociedad y defienden que el miedo que tenemos a su potencial para destruir a los
humanos es infundado. Y afirman por lo tanto que las leyes de Asimov no son necesarias.
La palabra robot proviene del checo, de la palabra "robota", que significa trabajo forzado y
que apareci por primera vez en una obra del autor checo Karel Capek. Despus de esto, la
versin adaptada al ingls de la palabra se extendi rpidamente junto con la idea de que
estas mquinas podran destruir a sus creadores con facilidad, un tema recurrente en la
ciencia ficcin desde entonces.
Pero Barthelmess y Furbach defienden que este miedo a las mquinas est enraizado mucho
ms profundamente en nuestra cultura. Aunque es cierto que las historias de ciencia ficcin
suelen presentar tramas en las que los robots destruyen a sus creadores, esta idea tiene una
larga historia en la literatura.
Por ejemplo en el Frankenstein de Mary Shelley, donde un monstruo formado por distintas

partes de cuerpos humanos se rebela contra Frankenstein, su creador, porque este se niega
a crear una pareja para l.
Existe tambin una narracin juda del siglo VXI sobre el Golem, en una de cuyas versiones
un rabino construye una criatura de arcilla para proteger a la comunidad y promete
desactivarlo despus del Sabbath. Pero al rabino se le olvida y el golem se convierte en un
monstruo que hay que destruir.
Barthelmess y Furbach afirman que el tono religioso subyacente en ambas historias implica
que est prohibido que los humanos acten como Dios. Y que cualquier intento por hacerlo
siempre ser castigado por el creador.
Existen episodios parecidos en la mitologa griega en la que los humanos que se muestran
arrogantes hacia los dioses tambin reciben un castigo, como Prometeo y Niobe. Por eso las
historias de este tipo forman parte de nuestra cultura desde hace miles de aos. Es de este
miedo tan enraizado del que los autores de ciencia ficcin se valen para crear historias sobre
los robots.
Evidentemente existen conflictos reales entre humanos y mquinas. Durante la revolucin
industrial, por ejemplo, hubo muchsimo miedo a las mquinas y su capacidad manifiesta de
cambiar el mundo con una profunda influencia sobre muchsima gente.
Barthelmess y Furbach sealan que en la Inglaterra del siglo XVIII, la gente puso en marcha
un movimiento para destruir los telares que fue tan grave que el parlamento decret que la
destruccin de maquinaria era una ofensa capital. Los luditas se enfrentaron al ejrcito
britnico por estos temas incluso. "Haba una especie de tecnofobia que dio lugar a luchas
contra las mquinas", explican.
Est claro que es posible que haya enfrentamientos parecidos con la nueva generacin de
robots que se van a hacer cargo de las tareas repetitivas de las que se encargan
trabajadores humanos en fbricas en todo el mundo, especialmente en Asia.
Sin embargo, la actitud hacia los robots en Asia es muy distinta. Pases como Japn estn a la
cabeza del mundo en el desarrollo de robots para la automatizacin de las fbricas, y como
asistentes humanos, en parte debido al envejecimiento de la poblacin en Japn y los
consabidos problemas sanitarios que traer en un futuro no muy lejano.
Esa actitud se encarna en Astro Boy, un robot de ficcin nombrado representante japons
para los viajes seguros al extranjero por el ministro de Asuntos Exteriores en 2007.
Por estos motivos Barthelmess y Furbach defienden que lo que nos da miedo de los robots no
es la posibilidad de que se hagan con el control y nos destruyan, sino la posibilidad de que
otros humanos los usen para destruir nuestro modo de vida en formas que no podemos
controlar.
En concreto sealan que muchos robots estn diseados para protegernos. Por ejemplo, los
vehculos y aviones automatizados se disean para conducir y volar con ms seguridad de la
que son capaces los humanos. As que estaremos ms seguros usndolos que no.
Una importante excepcin es el nmero cada vez mayor de robots diseados
especficamente para matar humanos. Estados Unidos, en concreto, est usando drones para
llevar a cabo matanzas dirigidas en pases extranjeros. La legalidad, por no hablar de la
moralidad de estas acciones se debate furiosamente.
Pero Barthelmess y Furbach dan por sentado que en ltima instancia los responsables de
estos asesinatos siguen siendo humanos y que es la ley internacional, y no las leyes de
Asimov, la que debera encargarse de las posibles implicaciones, o debera adaptarse para
hacerlo.
Acaban su exposicin planteando la posibilidad de convergencia entre humanos y robots en
un futuro prximo. La idea es que los humanos incorporaremos distintas tecnologas en
nuestros propios cuerpos, como memoria extra o capacidad de procesado, y acabaremos
fusionndonos con los robots. En ese punto ser la ley ordinaria quien tendr que gestionar
el comportamiento y las acciones de personas normales, y las leyes de Asimov quedarn
obsoletas.
The Physics arXiv Blog

1. Cul es la esencia de las leyes de Asimov? Para qu se hicieron? (2 puntos)


_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________

2. Por qu crees que necesit crear una cuarta ley que estuviera por sobre las
otras? (3 puntos)
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________

3. Qu afirman los autores Barthelmess y Furbach sobre la necesidad de las Leyes


de la robtica? Por qu? (2 puntos)
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________

4. Qu argumentos y/o ejemplos usan Barthelmess y Furbach para demostrar que


la idea de que los robots destruyan a sus creadores tiene una larga historia en la
literatura? (3 puntos)
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________

5. Segn el texto Qu es la tecnofobia? (2 puntos)


_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________

6. Segn los autores mencionados en el texto Qu es lo que realmente tememos


con respecto a los robots? (2 puntos)
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________

7. Crees en la posibilidad de convergencia entre seres humanos y robots como se


plantea al final del texto? Sera bueno? (3 puntos)
_____________________________________________________________________________________
_____________________________________________________________________________________

_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________

TODO POR JESS