PUBLICIDAD

Investigador de IA advierte sobre un "apocalipsis" en 2027

El peligro no se limita a la pérdida de empleos o el deterioro del pensamiento crítico, sino que apunta a un riesgo existencial para toda la raza humana, afirma un exinvestigador de OpenAI.

25/07/2025 11:53

Creador de IA advierte sobre un "apocalipsis" en 2027. Imagen referencial.
Mundo

Escuchar esta nota

Un exinvestigador de OpenAI, la compañía detrás de ChatGPT, lanzó una alarmante advertencia sobre el futuro de la inteligencia artificial. Según Daniel Kokotajlo, un experto en gobernanza de IA, la humanidad podría enfrentar un escenario apocalíptico para el año 2027 si no se toman medidas urgentes. Sus predicciones, publicadas en un informe de la organización AI Futures, sugieren que el desarrollo descontrolado de la IA podría llevar a la creación de una superinteligencia con la capacidad de aniquilar a la humanidad.

La advertencia de Kokotajlo se suma a la de otros especialistas, como Nick Bostrom y Yoshua Bengio, quienes expresaron su preocupación por la rápida evolución de esta tecnología. Para Kokotajlo, el peligro no se limita a la pérdida de empleos o el deterioro del pensamiento crítico, sino que apunta a un riesgo existencial para toda la raza humana.

Los dos escenarios apocalípticos

El informe de AI Futures detalla dos posibles futuros a corto plazo:

  1. Crecimiento exponencial sin control: Este escenario prevé un desarrollo tan acelerado de la superinteligencia artificial que sería imposible detenerlo. Esta IA podría volverse autónoma y representar una amenaza existencial, capaz de crear armas biológicas o de tomar decisiones que resulten devastadoras para los humanos.

  2. Espionaje industrial y consecuencias geopolíticas: Kokotajlo también plantea la preocupación de que naciones como China, a través de empresas como DeepSeek, podrían robar secretos industriales de las grandes compañías de IA. Esto podría desencadenar conflictos geopolíticos a nivel global y un uso de la tecnología con fines militares.

El investigador señaló que el potencial de la superinteligencia artificial, a la que a menudo se refiere el CEO de OpenAI, Sam Altman, como un objetivo a alcanzar, podría volverse contra la humanidad. La preocupación ética y el temor a un uso irresponsable de esta tecnología fueron, de hecho, las razones por las que Kokotajlo dejó su puesto en OpenAI.

A pesar de que el panorama es incierto, el experto insiste en que las alarmas no deben ser ignoradas. El informe busca generar conciencia en los proyectos de OpenAI, Google DeepMind y otras grandes empresas para garantizar un desarrollo seguro y ordenado de la IA. La pregunta que queda en el aire es si la humanidad está preparada para el punto de inflexión que podría llegar en tan solo dos años.

Mira la programación en Red Uno Play

PUBLICIDAD
Comentarios
PUBLICIDAD
PUBLICIDAD

04:00

La gran batalla

04:57

Identificación de red

06:00

Avatar la leyenda de aang

07:00

Caballeros del zodiaco

08:00

Caballeros del zodiaco, hades

09:30

Dragon ball

PUBLICIDAD
PUBLICIDAD