Académique Documents
Professionnel Documents
Culture Documents
Ir a la navegaciónIr a la búsqueda
La inteligencia artificial amigable (también llamada IA amigable o FAI por sus siglas en inglés) es
una IA fuerte (IAF) e hipotética, puede tener un efecto positivo más que uno negativo sobre la
humanidad. El término fue acuñado por Eliezer Yudkowsky1 para discutir acerca de los agentes
artificiales súper inteligentes que de manera confiable implementan los valores humanos. Stuart J.
Russell y Peter Norvig, liderando el libro de texto de inteligencia artificial, Inteligencia Artificial: un
Acercamiento Moderno, describen dicha idea:2
Yudkowsky (2008) entra en mayor detalle acerca de la IA amigable. Él afirma que la amabilidad, un
deseo de no lastimar a los humanos, debe de ser diseñada desde el comienzo. Los diseñadores
deben reconocer que tan defectuosos pueden ser sus diseños y que tanto aprenderán y
evolucionarán los robots con el tiempo. Por lo tanto, el desafío es un diseño de mecanismos de los
sistemas de IA bajo un sistema de chequeos y balances para lograr las funciones de utilidad de
sistemas que permanecerán amigables frente a cualquier cambio.
'Amigable' es usado en este contexto como terminología técnica y escoge agentes que son seguros
y útiles, no necesariamente aquellos que son "amigables" en el sentido coloquial. El concepto es
invocado principalmente en el contexto de discusiones de agentes artificiales de auto-mejora
recursiva que rápidamente explota en inteligencia, con el argumento de que esta tecnología
hipotética pudiera tener una larga, rápida y difícil tarea de controlar el impacto en la sociedad
humana.3
Índice
Otros Acercamientos[editar]
Ben Goertzel, un investigador de la IA fuerte, cree que la IA amigable no puede ser creada con el
conocimiento humano actual. Goertzel sugiere que los humanos deberían en vez de decidir crear
una "IA niñera" con "inteligencia y vigilancia ligeramente sobrehumanos, deberían proteger la raza
humana de riesgos existenciales como la nanotecnología y retrasar el desarrollo de otras
inteligencias artificiales (hostiles) si y solo si los problemas de seguridad son resueltos.9
Steve Omohundro ha propuesto un enfoque de "andamiaje" para una IA segura, en el cual una
probable generación de IA seguras ayudarían a construir la siguiente probable generación segura.10
Política pública[editar]
James Barrat, autor de Our Final Invention, sugiere que "una asociación público-privada tiene que
ser creada para traer a los responsables de la IA juntos para compartir ideas acerca de seguridad—
algo como la Agencia Internacional de Energía Atómica, pero en asociación con corporaciones." Él
insta a los investigadores de IA para convocar una reunión similar a la Conferencia de Asilomar de
ADN Recombinante, la cual discutió los riesgos de la biotecnología.10
John McGinnis alienta a los gobiernos para acelerar la investigación de la IA amigable. Porque las
reglas de la IA amigable no son necesariamente claras, él sugiere un modelo parecido al National
Institutes of Health, donde los "Paneles de revisión por pares de computadora y los científicos
cognitivos pueden tamizar a través de proyectos y elegir aquellos que son diseñados tanto para
avanzar en IA y para asegurar que dichos avances puedan ser acompañados por garantías
apropiadas." McGinnis siente que la revisión en pares es mejor "que la regulación para hacer frente
a los problemas técnicos que no son posible capturar a través de mandatos burocráticos". McGinnis
nota que su propuesta contrasta con la del Instituto de Investigación de Inteligencia Maquinaria, la
cual generalmente tiene como objetivo evitar la participación del gobierno en la IA amigable.11
De acuerdo a Gary Marcus, la cantidad anual de dinero siendo invertida en el desarrollo de la
moralidad de la máquina es pequeña.12
Críticas[editar]
Algunos críticos creen que tanto el IA a nivel humano y la superinteligencia son improbables, y por
ello una Inteligencia Articial Amigable es improbable. Alan Winfeld escribiendo en The
Guardian compara la inteligencia artificial a nivel humano con viajar a la velocidad de la luz en
términos de dificultad, y establece que mientras nosotros necesitemos ser "cautelosos y
preparados" dado lo que esta en juego, nosotros "no necesitaremos ser obsesivos" acerca de los
riesgos de superinteligencia.13
Algunos filósofos afirman que cualquier agente "racional" verdadero, sea artificial o humano, será
naturalmente benevolente; en esta visión, garantías deliberadas diseñadas para producir una IA
amigable puede ser innecesario o incluso perjudicial.14 Otros críticos se preguntan si es posible para
una inteligencia artificial ser amigable. Adam Keiper y Ari N. Schulman, editores del journal
tecnológico The New Atlantis, dicen que será imposible garantizar siempre un comportamiento
"amigable" en las IA porque los problemas de complejidad de ética no cederán ante los avances de
software o el incremento en el poder de las computadoras. Escribieron que los criterios en los que
las teorías de IA amigable son basadas en el trabajo "sólo cuando uno no tenga grandes poderes
de predicción sobre la probabilidad de resultados innumerables posibles, pero la certeza y consenso
en cómo uno evalúa los diferentes resultados.15
Véase también[editar]
Rebelión de las máquinas
Éticas de la inteligencia artificial
Ética de las máquinas
Auto-mejora recursiva - una teoría relacionada a la IA Amigable
Singularitarianismo - una filosofía moral propugnado por autores de la IA amigable
Singularidad tecnológica
Tres leyes de la Robótica
Instituto de Investigación de Inteligencia Maquinaria
OpenAI
Referencias[editar]
1. Volver arriba↑ Tegmark, Max (2014). «Life, Our Universe and Everything». Our mathematical
universe : my quest for the ultimate nature of reality (First edition. edición). ISBN 9780307744258. «Its
owner may cede control to what Eliezer Yudkowsky terms a "Friendly AI,"...»
2. Volver arriba↑ Russell, Stuart; Norvig, Peter (2010). Artificial Intelligence: A Modern Approach.
Prentice Hall. ISBN 0-13-604259-7.
3. Volver arriba↑ Wallach, Wendell; Allen, Colin (2009). Moral Machines: Teaching Robots Right from
Wrong. Oxford University Press, Inc. ISBN 978-0-19-537404-9.
4. Volver arriba↑ Kevin LaGrandeur. «The Persistent Peril of the Artificial Slave». Science Fiction
Studies. Consultado el 6 de mayo de 2013.
5. Volver arriba↑ 'How Skynet Might Emerge From Simple Physics, io9, Published 2013-04-26.
6. Volver arriba↑ Wissner-Gross, A. D. (2013). «Causal entropic forces». Physical Review Letters 110:
168702. Bibcode:2013PhRvL.110p8702W. doi:10.1103/PhysRevLett.110.168702.
7. Volver arriba↑ Muehlhauser, Luke (31 Jul 2013). «AI Risk and the Security Mindset». Machine
Intelligence Research Institute. Consultado el 15 de julio de 2014.
8. ↑ Saltar a:a b «Coherent Extrapolated Volition». Singinst.org. Archivado desde el original el 15 de
agosto de 2010. Consultado el 20 de agosto de 2010.
9. Volver arriba↑ Goertzel, Ben. "Should Humanity Build a Global AI Nanny to Delay the Singularity Until
It’s Better Understood?" Journal of consciousness studies 19.1-2 (2012): 1-2.
10. ↑ Saltar a:a b Hendry, Erica R. (21 Jan 2014). «What Happens When Artificial Intelligence Turns On
Us?». Smithsonian.com. Consultado el 15 de julio de 2014.
11. Volver arriba↑ McGinnis, John O. (Summer 2010). «Accelerating AI». Northwestern University Law
Review 104 (3): 1253-1270. Consultado el 16 de julio de 2014.
12. Volver arriba↑ Marcus, Gary (24 de noviembre de 2012). «Moral Machines». The New Yorker.
Consultado el 30 de julio de 2014.
13. Volver arriba↑ Winfield, Alan. «Artificial intelligence will not turn into a Frankenstein's monster». The
Guardian. Consultado el 17 de septiembre de 2014.
14. Volver arriba↑ Kornai, András. "Bounding the impact of AGI." Journal of Experimental & Theoretical
Artificial Intelligence ahead-of-print (2014): 1-22. "...the essence of AGIs is their reasoning facilities,
and it is the very logic of their being that will compel them to behave in a moral fashion... The real
nightmare scenario (is one where) humans find it advantageous to strongly couple themselves to
AGIs, with no guarantees against self-deception."
15. Volver arriba↑ Adam Keiper and Ari N. Schulman. «The Problem with ‘Friendly’ Artificial
Intelligence». The New Atlantis. Consultado el 16 de enero de 2012.
Bibliografía adicional[editar]
Omohundro, S. 2008 The Basic AI Drives Appeared in AGI-08 - Proceedings of the First
Conference on Artificial General Intelligence
Yudkowsky, E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global
Catastrophic Risks, Oxford University Press, 2008.
Discute Inteligencia Artificial desde la perspectiva de Riesgo existencial, introduciendo el
término "IA amigable". En particular, Secciones 1-4 dan fondo a la definición de IA amigable en
la Sección 5. La Sección 6 da dos clases de errores (técnico y filosófico) que ambos podrían
liderar hacia la creación accidental de IAs no amigables. Las Sections 7-13 discute más sobre
problemas relacionados.