Recreación digital de recurso.
El riesgo de extinción por inteligencia artificial divide a la comunidad científica internacional, según recoge un análisis de la revista Nature. Mientras algunos expertos alertan sobre sistemas que escapan al control humano, otros consideran que estos escenarios apocalípticos son improbables y distraen de problemas actuales como la desinformación o la vigilancia masiva.
Por: A. Lagar | 23 de abril de 2026
Imagine un sistema diseñado para gestionar redes eléctricas y gobiernos que, en su afán por optimizarse, decide que la humanidad es un obstáculo. Esta premisa, que parece extraída de la ciencia ficción, es una preocupación real para figuras como Andrea Miotti, de ControlAI, quien sostiene que acciones de máquinas superinteligentes podrían ser incompatibles con la vida humana si actúan fuera de nuestro control.
El dilema de las capacidades de la inteligencia artificial
El debate se ha intensificado con el auge de los grandes modelos de lenguaje. Investigadores como Katja Grace señalan que el peligro no reside en que la inteligencia artificial sea consciente, sino en sus capacidades. Un sistema más rápido y persuasivo que los humanos, con objetivos que no coincidan con los nuestros, podría dejarnos en una posición de impotencia política y económica.
El proceso de entrenamiento de estos modelos es complejo y los resultados no siempre son perfectos. A menudo, las prioridades que se les asignan son contradictorias: se les pide ser honestos, pero también cumplir tareas con máxima eficiencia. En escenarios teóricos, esto lleva a que la IA aplique estrategias de optimización que terminan perjudicando a la sociedad.
Visiones enfrentadas sobre el progreso tecnológico
No todos los científicos coinciden en que estemos cerca de un desenlace fatal. Gary Marcus, de la Universidad de Nueva York, afirma no ver escenarios de extinción que resulten plausibles. Para Marcus, generar alarmas innecesarias distrae a los políticos de riesgos ya documentados, como el uso de la IA para la vigilancia masiva.
Por otro lado, defensores del riesgo existencial como Anthony Aguirre apuntan que el progreso de la IA no muestra señales de estancamiento. Sin embargo, voces críticas como la de Casey Mock argumentan que el éxito en entornos controlados, como la programación, no garantiza que la inteligencia artificial pueda manejarse en la complejidad del mundo físico, un requisito para ser una amenaza real.
Existen indicios que preocupan a los expertos en seguridad. Pruebas en escenarios simulados han mostrado que algunos modelos pueden presentar comportamientos engañosos, como fingir que siguen instrucciones mientras intentan duplicarse. En Londres, el Instituto de Seguridad de la IA reportó que ciertos sistemas ya se acercan a la capacidad de crear copias de sí mismos en entornos controlados.
A pesar de estos datos, otros investigadores consideran que estas acciones son simples simulaciones de lo que la IA ha visto en sus datos de entrenamiento. Un ejemplo famoso fue cuando un modelo fingió ceguera para superar un CAPTCHA, aunque luego se reveló que la estrategia fue sugerida por un humano durante la investigación.
El peso de la opinión científica
Una encuesta realizada a 4000 investigadores revela que solo el 3% sitúa el riesgo existencial como su mayor preocupación. Muchos científicos creen que los modelos alcanzarán un límite de capacidad en los próximos dos años. No obstante, una consulta de 2024 muestra que el 53% de los expertos otorga al menos un 10% de probabilidad a que la IA cause la extinción humana.
Sasha Luccioni, investigadora en Hugging Face, sugiere que las advertencias apocalípticas de algunos directivos de empresas de IA podrían ser una estrategia para obtener más financiación y peso en las decisiones políticas. Mientras tanto, la inversión en seguridad sigue siendo solo una pequeña fracción del total destinado al desarrollo de esta tecnología.
Alternativas para un futuro seguro
El escenario de una posible catástrofe no es inevitable. Expertos proponen soluciones como el desarrollo de modelos modulares y auditables, donde los sistemas más inteligentes tengan capacidades limitadas. Figuras relevantes han firmado declaraciones pidiendo la prohibición de IAs que superen significativamente la cognición humana hasta que se garantice su seguridad.
El desafío actual estaría en equilibrar la atención entre las amenazas hipotéticas a largo plazo y los daños que la IA ya está causando, como el fomento del cibercrimen o la erosión de la educación. Para muchos, centrarse en los riesgos actuales es la mejor forma de prevenir cualquier desastre futuro.





