Científicos piden pausar experimentos con Inteligencia Artificial por seis meses
Mediante una carta abierta publicada en Future of Life Institute advierten riesgos profundos para la sociedad y la humanidad y denuncian que no hay planificación ni gestión
Empresarios del sector tecnológico, expertos y políticos han solicitado en una carta que se suspendan durante seis meses los experimentos con Inteligencia Artificial porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.
“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, dice la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute.
Los primeros 10 firmantes que aparecen en la carta son Yoshua Bengio, fundador de Mila; Stuart Russell, director del Center for Intelligent Systems; Elon Musk, CEO of SpaceX, Tesla y Twitter; Steve Wozniak, cofundador de Apple; el historiador Yuval Noah Harari; Andrew Yang, fundador de Venture for America; Connor Leahy, CEO de Conjecture; Jaan Tallinn, cofundador de Skype; Evan Sharp, cofundador de Pinterest y Chris Larsen, cofundador de Ripple.
Aseguran que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de forma fiable a estas mentes digitales que conforman la Inteligencia Artificial.
“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan en la carta.
Señalan que “tales decisiones no deben delegarse en líderes tecnológicos no electos”.
Piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA y que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.
“Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, dice el comunicado.
Piden la intervención de los gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.
Lo que dice Future of Life Institute
Future of Life Institute señala que hoy en día, la Inteligencia Artificial se conoce correctamente como IA estrecha (o IA débil) , ya que está diseñada para realizar una tarea limitada (por ejemplo, solo reconocimiento facial o solo búsquedas en Internet o solo conducir un automóvil).
“Sin embargo, el objetivo a largo plazo de muchos investigadores es crear una IA general (AGI o IA fuerte) . Si bien la IA estrecha puede superar a los humanos en cualquier tarea específica, como jugar al ajedrez o resolver ecuaciones, la IA fuerte superaría a los humanos en casi todas las tareas cognitivas”, señala.
El instituto alerta que a largo plazo, una pregunta importante es qué sucederá si la búsqueda de una IA fuerte tiene éxito y un sistema de IA se vuelve mejor que los humanos en todas las tareas cognitivas.
“Al inventar nuevas tecnologías revolucionarias, tal superinteligencia podría ayudarnos a erradicar la guerra, la enfermedad y la pobreza, por lo que la creación de una IA fuerte podría ser el evento más grande en la historia de la humanidad. Sin embargo, algunos expertos han expresado su preocupación de que también podría ser el último, a menos que aprendamos a alinear los objetivos de la IA con los nuestros antes de que se vuelva superinteligente”, alertó.
En Future of Life Institute reconocen el potencial de un sistema de inteligencia artificial para causar un gran daño de manera intencional o no.