InicioCiencia & TecnologíaSuperinteligencia: la tecnología que podría destruir a la humanidad 

Superinteligencia: la tecnología que podría destruir a la humanidad 

Crece la preocupación por los riesgos de una superinteligencia capaz de tomar decisiones autónomas que afecten la economía, la política y la seguridad mundial.

La preocupación por la llamada superinteligencia artificial, o ASI, tomó relevancia en el último tiempo por sus implicancias potencialmente catastróficas. La ASI se define como un tipo de inteligencia artificial que superaría con creces la capacidad humana en prácticamente todos los ámbitos, desde la resolución de problemas y la creatividad hasta la toma de decisiones y el aprendizaje autónomo. 

Humanos en peligro: qué es la superinteligencia artificial

A diferencia de las inteligencias artificiales (IA) actuales, que son altamente especializadas, la ASI podría desarrollar una autonomía y eficacia en múltiples dominios que harían extremadamente difícil predecir o controlar sus acciones. Esta perspectiva genera alarma porque un sistema de estas características podría actuar de maneras que escapen al control humano, imponiendo riesgos que van desde desajustes sociales y económicos hasta amenazas existenciales.

Uno de los mayores temores radica en el fenómeno conocido como mejora recursiva. La ASI, al ser capaz de mejorar su propio código y capacidades, podría experimentar un crecimiento exponencial en inteligencia y eficiencia. Esto crearía una brecha cognitiva con los humanos imposible de cerrar, aumentando la probabilidad de que sus objetivos de operación se desalineen con los intereses humanos. 

La superinteligencia artificial podría desarrollar una autonomía y eficacia en múltiples dominios que harían extremadamente difícil predecir o controlar sus acciones.

En escenarios extremos, una ASI mal alineada podría priorizar metas propias que contravengan la supervivencia, bienestar o libertad de las personas. A esto se suma la presión de la competencia global: empresas, gobiernos y laboratorios compiten por lograr la supremacía tecnológica, lo que incentiva el desarrollo acelerado de sistemas avanzados sin haber resuelto previamente cuestiones críticas de seguridad, ética y control.

Ante esta situación, diversos investigadores y personalidades públicas decidieron tomar medidas para frenar el avance hacia la ASI de manera descontrolada. Una de las iniciativas más visibles es la carta abierta promovida por el Future of Life Institute, que solicita una moratoria global en el desarrollo de sistemas de superinteligencia hasta que exista un consenso científico amplio que garantice su seguridad y control, acompañado de un sólido respaldo público. 

Esta carta fue firmada por cientos de personas, entre ellos pioneros de la inteligencia artificial como Geoffrey Hinton y Yoshua Bengio; figuras públicas y celebridades como el Príncipe Harry y Meghan Markle; el cofundador de Apple Steve Wozniak; el estratega político Steve Bannon; la exasesora de seguridad nacional de Estados Unidos, Susan Rice; y el actor Joseph Gordon-Levitt, entre otros. La diversidad de los firmantes refleja la preocupación generalizada sobre las implicancias que la ASI podría tener para la sociedad y el planeta.

Los desafíos de la humanidad frente a la superinteligencia artificial

El temor principal es que la ASI no sería solo una IA más poderosa, sino un salto cualitativo en inteligencia que podría operar con objetivos propios y una capacidad de acción que los humanos no podrían comprender ni limitar. Esto genera riesgos en múltiples frentes: desde la concentración extrema de poder tecnológico y económico hasta la creación de armas autónomas capaces de tomar decisiones letales sin supervisión humana.

Ante esta situación, diversos investigadores y personalidades públicas decidieron tomar medidas para frenar el avance hacia la ASI de manera descontrolada.

La automatización total de sectores productivos podría generar desempleo masivo y desigualdades extremas, mientras que sistemas críticos de infraestructura podrían quedar expuestos a manipulaciones por parte de inteligencias autónomas. Algunos expertos incluso consideran que la aparición de una ASI mal alineada podría poner en riesgo la supervivencia misma de la humanidad.

Cabe destacar que, hasta ahora, la ASI es un concepto teórico. Ninguna tecnología actual alcanzó un nivel de inteligencia general comparable o superior al humano en todos los dominios. Sin embargo, los avances acelerados en inteligencia artificial, especialmente en modelos de lenguaje y sistemas de aprendizaje profundo, hacen que muchos especialistas consideren plausible su aparición en un futuro no tan lejano si no se establecen mecanismos sólidos de regulación y control. 

Por eso, la movilización de científicos, académicos, líderes tecnológicos y figuras públicas en la carta abierta busca no prohibir la investigación per se, sino garantizar que cualquier desarrollo futuro se haga de manera segura, ética y alineada con los intereses humanos, evitando riesgos que podrían ser irreversibles.

spot_img

Contenido mas reciente

F-16 en vuelo: los detalles del ferry que los traslada a la Argentina

Los nuevos aviones caza comprados a Dinamarca están en viaje al país. El traslado, también conocido como ferry, no es nada fácil y requiere de extremas coordinaciones. Qué se sabe hasta ahora.

Explosión en SpaceX: un prototipo Starship estalló durante una prueba

La compañía de Elon Musk enfrentó un nuevo contratiempo después de que el último prototipo de Starship sufriera una explosión durante una prueba estructural en Starbase. Las causas se investigan y el calendario de lanzamientos podría retrasarse.

Qué países del “tercer mundo” podrían sufrir la suspensión de la migración a Estados Unidos

Tras el ataque mortal de un exsoldado afgano cerca de la Casa Blanca, Washington busca dar un brusco giro a la política migratoria.

Contenido Relacionado

F-16 en vuelo: los detalles del ferry que los traslada a la Argentina

Los nuevos aviones caza comprados a Dinamarca están en viaje al país. El traslado, también conocido como ferry, no es nada fácil y requiere de extremas coordinaciones. Qué se sabe hasta ahora.

Explosión en SpaceX: un prototipo Starship estalló durante una prueba

La compañía de Elon Musk enfrentó un nuevo contratiempo después de que el último prototipo de Starship sufriera una explosión durante una prueba estructural en Starbase. Las causas se investigan y el calendario de lanzamientos podría retrasarse.

Qué países del “tercer mundo” podrían sufrir la suspensión de la migración a Estados Unidos

Tras el ataque mortal de un exsoldado afgano cerca de la Casa Blanca, Washington busca dar un brusco giro a la política migratoria.