InicioCiencia & TecnologíaSuperinteligencia: la tecnología que podría destruir a la humanidad 

Superinteligencia: la tecnología que podría destruir a la humanidad 

Crece la preocupación por los riesgos de una superinteligencia capaz de tomar decisiones autónomas que afecten la economía, la política y la seguridad mundial.

La preocupación por la llamada superinteligencia artificial, o ASI, tomó relevancia en el último tiempo por sus implicancias potencialmente catastróficas. La ASI se define como un tipo de inteligencia artificial que superaría con creces la capacidad humana en prácticamente todos los ámbitos, desde la resolución de problemas y la creatividad hasta la toma de decisiones y el aprendizaje autónomo. 

Humanos en peligro: qué es la superinteligencia artificial

A diferencia de las inteligencias artificiales (IA) actuales, que son altamente especializadas, la ASI podría desarrollar una autonomía y eficacia en múltiples dominios que harían extremadamente difícil predecir o controlar sus acciones. Esta perspectiva genera alarma porque un sistema de estas características podría actuar de maneras que escapen al control humano, imponiendo riesgos que van desde desajustes sociales y económicos hasta amenazas existenciales.

Uno de los mayores temores radica en el fenómeno conocido como mejora recursiva. La ASI, al ser capaz de mejorar su propio código y capacidades, podría experimentar un crecimiento exponencial en inteligencia y eficiencia. Esto crearía una brecha cognitiva con los humanos imposible de cerrar, aumentando la probabilidad de que sus objetivos de operación se desalineen con los intereses humanos. 

La superinteligencia artificial podría desarrollar una autonomía y eficacia en múltiples dominios que harían extremadamente difícil predecir o controlar sus acciones.

En escenarios extremos, una ASI mal alineada podría priorizar metas propias que contravengan la supervivencia, bienestar o libertad de las personas. A esto se suma la presión de la competencia global: empresas, gobiernos y laboratorios compiten por lograr la supremacía tecnológica, lo que incentiva el desarrollo acelerado de sistemas avanzados sin haber resuelto previamente cuestiones críticas de seguridad, ética y control.

Ante esta situación, diversos investigadores y personalidades públicas decidieron tomar medidas para frenar el avance hacia la ASI de manera descontrolada. Una de las iniciativas más visibles es la carta abierta promovida por el Future of Life Institute, que solicita una moratoria global en el desarrollo de sistemas de superinteligencia hasta que exista un consenso científico amplio que garantice su seguridad y control, acompañado de un sólido respaldo público. 

Esta carta fue firmada por cientos de personas, entre ellos pioneros de la inteligencia artificial como Geoffrey Hinton y Yoshua Bengio; figuras públicas y celebridades como el Príncipe Harry y Meghan Markle; el cofundador de Apple Steve Wozniak; el estratega político Steve Bannon; la exasesora de seguridad nacional de Estados Unidos, Susan Rice; y el actor Joseph Gordon-Levitt, entre otros. La diversidad de los firmantes refleja la preocupación generalizada sobre las implicancias que la ASI podría tener para la sociedad y el planeta.

Los desafíos de la humanidad frente a la superinteligencia artificial

El temor principal es que la ASI no sería solo una IA más poderosa, sino un salto cualitativo en inteligencia que podría operar con objetivos propios y una capacidad de acción que los humanos no podrían comprender ni limitar. Esto genera riesgos en múltiples frentes: desde la concentración extrema de poder tecnológico y económico hasta la creación de armas autónomas capaces de tomar decisiones letales sin supervisión humana.

Ante esta situación, diversos investigadores y personalidades públicas decidieron tomar medidas para frenar el avance hacia la ASI de manera descontrolada.

La automatización total de sectores productivos podría generar desempleo masivo y desigualdades extremas, mientras que sistemas críticos de infraestructura podrían quedar expuestos a manipulaciones por parte de inteligencias autónomas. Algunos expertos incluso consideran que la aparición de una ASI mal alineada podría poner en riesgo la supervivencia misma de la humanidad.

Cabe destacar que, hasta ahora, la ASI es un concepto teórico. Ninguna tecnología actual alcanzó un nivel de inteligencia general comparable o superior al humano en todos los dominios. Sin embargo, los avances acelerados en inteligencia artificial, especialmente en modelos de lenguaje y sistemas de aprendizaje profundo, hacen que muchos especialistas consideren plausible su aparición en un futuro no tan lejano si no se establecen mecanismos sólidos de regulación y control. 

Por eso, la movilización de científicos, académicos, líderes tecnológicos y figuras públicas en la carta abierta busca no prohibir la investigación per se, sino garantizar que cualquier desarrollo futuro se haga de manera segura, ética y alineada con los intereses humanos, evitando riesgos que podrían ser irreversibles.

spot_img

Contenido mas reciente

¿La guerra en Medio Oriente al borde del desastre nuclear?: la OMS activó sus planes de emergencia

El organismo de las Naciones Unidas teme por las consecuencias a corto plazo del conflicto con Irán y activa protocolos ante posibles incidentes atómicos a gran escala.

La NASA abandona la órbita y apuesta todo a vivir en la Luna

Con China apuntando también a la superficie lunar antes de 2030, Washington comprometió 20.000 millones de dólares para construir una base habitable y convertir a la Luna en la primera escala del camino a Marte.

Estados Unidos aumenta la edad máxima de alistamiento para el Ejército, ¿cómo es en Israel e Irán?

El ejército estadounidense confirmó que eleva el techo de reclutamiento a 42 años en el marco del conflicto en Medio Oriente. 

Contenido Relacionado

¿La guerra en Medio Oriente al borde del desastre nuclear?: la OMS activó sus planes de emergencia

El organismo de las Naciones Unidas teme por las consecuencias a corto plazo del conflicto con Irán y activa protocolos ante posibles incidentes atómicos a gran escala.

La NASA abandona la órbita y apuesta todo a vivir en la Luna

Con China apuntando también a la superficie lunar antes de 2030, Washington comprometió 20.000 millones de dólares para construir una base habitable y convertir a la Luna en la primera escala del camino a Marte.

Estados Unidos aumenta la edad máxima de alistamiento para el Ejército, ¿cómo es en Israel e Irán?

El ejército estadounidense confirmó que eleva el techo de reclutamiento a 42 años en el marco del conflicto en Medio Oriente.