Elon Musk y cientos de expertos piden detener experimentos gigantes de inteligencia artificial

Los expertos aseguran que nadie, ni siquiera sus creadores, puede predecir o controlar estos sistemas.
El magnate Elon Musk, en una fotografía de archivo.()
29 mar 2023 , 09:55
EFE y Redacción

Un grupo de empresarios del sector tecnológico, expertos y políticos, entre ellos Elon Musk, solicitaron en una carta que se suspendan durante seis meses los experimentos "gigantes" con inteligencia artificial (IA) porque consideran que "pueden plantear profundos riesgos para la sociedad y la humanidad".

La carta, publicada por la organización sin fines de lucro Future of Life Institute, señala que los laboratorios de IA están actualmente atrapados en una "carrera fuera de control" para desarrollar e implementar sistemas de aprendizaje automático "que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable".

"La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados", dice la carta abierta.

Lea también: "Adiós humanos": Así lucen las primeras modelos creadas por Inteligencia Artifical que aparecen en VOGUE

Además de Musk, los firmantes de esta solicitud incluyen al cofundador de Apple, Steve Wozniak; el autor Yuval Noah Harari; el cofundador de Skype, Jaan Tallinn, el político Andrew Yang y varios investigadores de IA conocidos, incluidos Stuart Russell, Yoshua Bengio, Gary Marcus y Emad Mostaque.

Los firmantes mencionan los peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas.

"¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?", se preguntan, antes de concluir: "Tales decisiones no deben delegarse en líderes tecnológicos no electos".

En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.

Asimismo, señalan que los sistemas potentes de inteligencia artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.

Le puede interesar: Una presentadora creada por Inteligencia Artificial da las noticias 24/7: ¿dónde y cómo funciona?

"Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4", dice el comunicado, que pide la intervención de los gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.

El laboratorio OpenAI, creador de este sistema, define el GPT-4 como su "último hito en el esfuerzo para ampliar el aprendizaje profundo". Este nuevo sistema acepta la recepción tanto de textos e imágenes, y produce texto.

Sin embargo, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales aunque "muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales".

ChatGPT: qué es, cómo funciona y para qué sirve

La carta abierta propone que durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes "desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados ​​por expertos externos independientes".

Finalmente, piden que la investigación y el desarrollo de la IA se reenfoque en hacer que "los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales".

TAG RELACIONADOS