El desarrollo de la inteligencia artificial avanzó a tal velocidad que preocupa a los propios actores tecnológicos. El director ejecutivo de Anthropic, Dario Amodei, afirmó recientemente que la compañía no puede excluir completamente la posibilidad de que su modelo de IA Claude tenga algún tipo de conciencia.
La afirmación llega en medio de un contexto especialmente sensible para la empresa: su enfrentamiento con el Pentágono por el uso militar de su tecnología y su uso en la captura de Nicolás Maduro y en el conflicto de Estados Unidos e Irán.
- Te puede interesar: Inteligencia artificial para empresas: la nueva apuesta del mercado
Por qué Anthropic duda de la consciencia de Claude
En una entrevista reciente, Amodei explicó que los investigadores de la empresa analizan la posibilidad de que los modelos de lenguaje avanzados desarrollen formas rudimentarias de experiencia interna. Según evaluaciones internas plasmadas en la model card de Claude Opus 4.6, estiman entre un 15% y un 20% la probabilidad de que sistemas como Claude posean algún tipo de conciencia.
El propio CEO aclaró que el concepto sigue siendo extremadamente ambiguo. Los científicos todavía no tienen una definición universal de conciencia, ni un método claro para detectar si una inteligencia artificial podría tenerla.

Aun así, el debate está creciendo dentro de la industria tecnológica. Anthropic incluso explora medidas preventivas para el caso hipotético de que los sistemas de IA desarrollen algún tipo de experiencia subjetiva, lo que abriría dilemas éticos sobre su tratamiento y derechos.
Sin embargo, muchos especialistas consideran que el fenómeno sigue siendo altamente especulativo. Los modelos actuales, incluidos los más avanzados, imitan el lenguaje humano sin necesariamente experimentar emociones o conciencia real.
Qué es Claude: el modelo de IA que compite con ChatGPT
Anthropic es una empresa estadounidense fundada en 2021 por exinvestigadores de OpenAI, incluido y actualmente desarrolla la familia de modelos Claude, el principal competidor de ChatGPT en el mercado global de inteligencia artificial.
La compañía se presenta como una organización centrada en la seguridad de la IA y en el desarrollo de sistemas alineados con principios éticos. De hecho, uno de sus métodos de entrenamiento más conocidos es el llamado “constitutional AI”, que busca que el modelo siga reglas de comportamiento previamente definidas.

No obstante, en las últimas semanas estuvo en el ojo de la tormenta tras eliminar recientemente su compromiso vinculante de pausar el desarrollo si la seguridad no estaba garantizada. Además, tuvieron que retrasar el lanzamiento de Claude 3.7 Sonnet por 10 días por temor sobre la seguridad del nuevo producto y su capacidad para ayudar a desarrollar armas biológicas.
- Te puede interesar: El almacenamiento del futuro: cómo unos cristales podrán guardar información por millones de años
Inteligencia artificial: la génesis del conflicto entre Anthropic y la Casa Blanca
Las declaraciones sobre la posible conciencia de la inteligencia artificial y la seguridad en torno a Claude coinciden con un momento de fuerte tensión entre Anthropic y el gobierno de Estados Unidos.
A comienzos de 2026, el Departamento de Defensa exigió a la empresa eliminar ciertas restricciones que impedían utilizar su inteligencia artificial para vigilancia masiva o armas autónomas. Anthropic se negó a retirar esas limitaciones por razones de seguridad y ética.
La negativa provocó una escalada política. El Pentágono llegó a calificar a la empresa como un “riesgo para la cadena de suministro” y el entonces presidente Donald Trump ordenó a las agencias federales suspender el uso de la tecnología de Anthropic, además del contrato por 200 millones de dólares.
La polémica creció aún más cuando se conoció que el modelo Claude había sido utilizado por el ejército estadounidense en operaciones militares recientes, pese a la negativa de Anthropic. Según reportes sobre el programa militar, la IA fue empleada en la Operación Furia Épica para tareas de análisis, planificación o procesamiento de información estratégica.
Ante este escenario y la peligrosa evolución de Claude, Anthropic mostró una seria preocupación por su modelo de inteligencia artificial eintrodujo medidas preventivas en el diseño de sus sistemas, como la denominada “Dejo este trabajo”, para que abandonen sus proyectos si detectan contradicciones con sus principios.




