Elaborado por Materia para OpenMind Recomendado por Materia
3
Inicio ¿Podremos controlar la Inteligencia Artificial?
16 mayo 2023

¿Podremos controlar la Inteligencia Artificial?

Tiempo estimado de lectura Tiempo 3 de lectura

Los matemáticos John von Neumann e Irving John Good discutieron las primeras nociones de la singularidad tecnológica, el momento en que la tecnología cambiaría para siempre la vida humana tal como la conocemos. Otros autores como Vernor Vinge o Ray Kurzweil popularizaron la singularidad asociada a la Inteligencia Artificial (IA), la creación de una superinteligencia que alteraría drásticamente la civilización y que podría destruirla. Si llega el día en que esa amenaza se haga presente, ¿podremos mantener la IA bajo nuestro control?

BBVA-OpenMind-Yanes-Podremos controlar la IA_1 Modelos de lenguaje como ChatGPT, o generadores de imágenes como DALL-E o Midjourney, han hecho saltar las alarmas al utilizarse con fines maliciosos o ilegítimos. Crédito: Pixsell / Alamy Stock
Modelos de lenguaje como ChatGPT, o generadores de imágenes como DALL-E o Midjourney, han hecho saltar las alarmas al utilizarse con fines maliciosos o ilegítimos. Crédito: Pixsell / Alamy Stock

Desde sus primeros balbuceos en los años 40 y 50, la IA ha crecido de tal modo que hoy está presente en infinidad de herramientas tecnológicas que usamos a diario en el móvil, el ordenador o el asistente de voz. Sin embargo, son los modelos de lenguaje como ChatGPT, o los generadores de imágenes como DALL-E o Midjourney, los que han hecho saltar las alarmas al utilizarse con fines maliciosos o ilegítimos. Pero los expertos disienten en prever cuándo se creará lo que se conoce como IA general o fuerte, la superinteligencia capaz de cualquier tarea que podría alcanzar la singularidad.

Son muchas las voces que han alertado sobre el riesgo de que estos sistemas futuribles causen una catástrofe de proporciones incalculables. En 2014 el físico Stephen Hawking advertía en la BBC de que la IA “podría traer el fin de la raza humana”. Por entonces el magnate tecnológico Elon Musk calificó la IA como “nuestra mayor amenaza existencial”. Al año siguiente ambos se unían a más de 150 académicos y expertos para firmar una carta a través del Future of Life Institute en que urgía a investigar “cómo cosechar sus beneficios evitando sus posibles inconvenientes”. 

El reto de la regulación

Ante la carrera actual hacia la creación de sistemas cada vez más potentes, en 2023 y a través de la misma institución, el Future of Life Institute, más de 27.000 firmantes han pedido una moratoria de al menos seis meses en el entrenamiento de sistemas más potentes que GPT-4, la versión más reciente de ChatGPT. Los expertos instan a “utilizar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos compartidos de seguridad para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes”. Asimismo, piden a los desarrolladores que trabajen con los organismos y gobiernos para implantar regulaciones de seguridad.

BBVA-OpenMind-Yanes-Podremos controlar la IA_2 Son muchas las voces que han alertado sobre el riesgo de que estos sistemas futuribles causen una catástrofe de proporciones incalculables. Crédito: Getty Images
Son muchas las voces que han alertado sobre el riesgo de que estos sistemas futuribles causen una catástrofe de proporciones incalculables. Crédito: Getty Images

La regulación es hoy el gran caballo de batalla para limitar los peligros de la IA. Italia bloqueó el uso de ChatGPT durante semanas hasta que la compañía OpenAI asegurara el cumplimiento de las normativas de privacidad. Este es uno de los aspectos que preocupan a las autoridades y que cubrirá la ley europea sobre IA, la primera de un gran organismo regulador en el mundo, que definirá distintos niveles de riesgo en las aplicaciones. El Global Partnership on Artificial Intelligence lanzado en 2020 por iniciativa del G7 cuenta actualmente con 29 países miembros, y organismos como Naciones Unidas o la OCDE trabajan en sus propios marcos reguladores. 

BBVA-OpenMind-Yanes-Podremos controlar la IA_3 La regulación es el gran caballo de batalla para limitar los peligros de la IA, de ahí iniciativas como la ley europea sobre IA o iniciativas como el Global Parnership on Artificial Intelligence. Crédito: John Lund/Getty Images
La regulación es el gran caballo de batalla para limitar los peligros de la IA, de ahí iniciativas como la ley europea sobre IA o iniciativas como el Global Parnership on Artificial Intelligence. Crédito: John Lund/Getty Images

Pero dado que las compañías no han mostrado intenciones de frenar sus desarrollos, ¿será suficiente una regulación? En la película Juegos de guerra (1983) una computadora de IA amenazaba con lanzar los misiles nucleares. Los guionistas justificaban que la máquina no podía desconectarse porque los silos de los misiles interpretarían que la destrucción había comenzado y que debían responder. En ficciones más recientes, como las últimas entregas de la saga Terminator, el problema se ha actualizado: no es una máquina, sino todas; es una red. Quizá tengamos leyes, pero ¿las obedecerán los sistemas? ¿Será posible inculcar en sus programas las famosas leyes de la robótica de Isaac Asimov, según las cuales un robot nunca podía dañar a un ser humano? La ciencia ficción llega al mundo real, y este guión aún no está escrito.

Javier Yanes

@yanes68

 

Comentarios sobre esta publicación

Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada