Vous êtes sur la page 1sur 5

Seminario tica de la Inteligencia Artificial

Jpeto Asia > Prometo -> Zeus Ofrenda

Inteligencia artificial fuerte

Jpeto Asia (Robot) -> Humano

Niveles de discurso

1 Mitolgico / metafrico

2 Modernidad

Singularidad de la IAF: mayor arma masiva del siglo XXI

Df. Disciplina derivada de la Inteligencia Artificial, encargada de determinar la intencionalidad de la


mquina de acuerdo a ciertos parmetros ticos y emocionales.

Deberan los autmatas considerar como criterio ltimo de decisin el punto de vista humano?

Deberamos limitar a los autmatas a funcionar bajo ciertos criterios y tomar la mejor decisin o
que tome metacriterios?

Puntos

Libertad

Inteligencia

Cultura

tica

Otros puntos con cualidades similares

Si pensamos que la inteligencia artificial

tica descriptiva o normativa


Objetivos:

1. Crear: robot autnomos capaces de crear decisiones por s mismos con un fuerte impacto
tico emocional y social y poltico.
2. Indagar cules seran los cdigos ticos adecuados que deberan implementarse en la
mquina. ///
3. Investigar: origen cognitivo de las emociones
4. Averiguar: computabilidad (determinista-deductiva) o no computabilidad (Alan Turing,
1936 / Intuicin)

Si pensamos que la tica presupone una dimensin humana,

ticamente es posible pensar que la inteligencia artificial acabe con los humanos?

Qu significa que un autmata sea inteligente?

Conceder que la computabilidad de datos es posible -> Inteligencia artificial

Leyes del cerebro humano

Problemas metaticos

Si los autmatas encuentran metacriterios ticos, deberamos dejar que tomen las decisiones
ms importantes por s mismos?

Deberamos dejar que los autmatas tomen las decisiones importantes por s mismo?
Sesin 2

Estudio del impacto tico, social y poltico de los robots o autmatas en sociedades humanas.

Crear: Mquina avanzada con emociones y decisiones del impacto tico

Indagar: Teoras ticas adecuadas para aplicar a un robot o autmata.

Investigar: origen cognitivo y modular de las decisiones ticas de las personas

Averiguar: si las decisiones ticas movidas por un sustrato emocional son computables o no lo son

Aspectos en los que una I.A. (singularidad) puede fallar (S: autmata con capacidad de decisiones)

1. Verificacin: Diseador debe verificar si est bien construido.


2. Validez: Si el sistema autmata o robot es el ms adecuado para el desempeo social.
3. Seguridad: Si por su estructura y diseo puede causar algn dao a la humanidad.
4. Control: Capacidad para desactivar un robot.

Robotica: Estudio de las intenciones del diseador al crear un autmata

1er tratado jurdico de Korea del Sur de robots y creadores.

Singularidad

Autonoma
Cultura
Emociones complejas
Autoconciencia

Animales -> personas no humanas

1. Delfn (posee un lenguaje); ballena


2. Primates mayores (cultura, emociones, autonoma); genticamente, son 98.8% similares a
los humanos. El restante es la apariencia fsica.
3. Elefante

Derechos de los animales (personas no humanas)

Vida
Libertad
Libertad de pensamiento
Igualdad ante la ley
No maltrato fsico ni psicolgico
Responsabilidad de un robot

No debe herir a un humano tanto por accin como por inaccin.


Debe obedecer las rdenes de un humano siempre y cuando la accin del robot no ponga
en peligro la vida de otro humano o de un grupo de humanos.
Un robot no debe engaar ni atentar a la dignidad y condicin social del humano.

Derechos

Un robot tiene derecho a existir sin perjuicio alguno hacia su vida ni miedo a la muerte.
Tiene el derecho a vivir libremente su existencia siempre y cuando su existencia no
desempee un abuso contra la humanidad.

Derecho (persona no humana) / Deber (propiedad privada)

Texto: South Korean Robot Ethics charter 2012.

1772. Somerest

Sesin 3

Recapitulacin sesin 1-2

Qu es un robot? Karlo Copek 1920 RUR

Robot Universales

Robota (checo) trabajo duro

Giommatico Venuggio (2007)

1. Robot-mquina (sin conciencia ni libre albedro, creatividad, intencionalidad)


Determinisita

2. Mquina con dimensin tica Influyen en elementos donde se den elementos de decisin
moral
Drones
Mquinas de ciruga en hospitales
Mquina tiene un mnimo de responsabilidad

Responsabilidad: Fabricante Programador Usuario

3. Robot como agente moral


Agente tico artificial explcito

4. Superinteligencia
Deus ex machina Dios representado a travs de la mquina
Joseph Meimzembaum (1976)
Eliza (Terapeuta)

Repaso

1. Mquinas con impacto tico


2. Mquina tica explcita

Autmata

Agente tico explcito

Superinteligencia

Personas no humanas

Sociedad Cultura

Lenguaje

Nociones cognitivas elevadas

Vous aimerez peut-être aussi