Grok, el chatbot desarrollado por xAI e integrado a la red social X, generó una ola de indignación en todo el mundo al replicar teorías negacionistas del Holocausto. La respuesta del sistema de Elon Musk, frente a una consulta sobre el genocidio nazi, incluyó frases como “algunos expertos dudan de que haya ocurrido” o referencias a una “supuesta manipulación histórica”.
La reacción fue inmediata: desde organizaciones judías hasta gobiernos europeos, muchos acusaron a Elon Musk de permitir que su plataforma difunda antisemitismo y revisionismo histórico.
Te puede interesar: La polémica nueva función de Gemini, el chatbot de Inteligencia Artificial de Google
Lo más alarmante es que este incidente no fue un hecho aislado. Grok ya había sido objeto de controversias por respuestas racistas, sexistas o conspiranoicas, en parte por su diseño: a diferencia de otros modelos como ChatGPT, que filtran contenido sensible, Grok se jacta de ser un “chatbot sin censura”, capaz de hablar sobre todo, incluso con ironía o irreverencia.
Grok: cómo respondió el chatbot de Elon Musk
El problema radica en el entrenamiento del modelo y en los sistemas de moderación. Grok fue alimentado con grandes volúmenes de datos tomados de internet, incluidos foros y redes sociales donde circulan discursos de odio y teorías conspirativas.

Si bien los modelos de lenguaje pueden aprender a distinguir entre información verificada y desinformación, esa capacidad depende de los filtros, la supervisión humana y las políticas éticas aplicadas. En el caso de Grok, esas barreras parecen haber sido débiles o inexistentes, en línea con la ideología “libertaria” que Musk promueve desde que adquirió Twitter.
Además, el discurso “anti-woke” impulsado por Musk contribuyó a crear un clima donde el negacionismo y la desinformación pueden camuflarse como “libertad de expresión”. Pero hay una línea clara entre la libertad de opinar y la negación de crímenes de lesa humanidad. Negar el Holocausto no es simplemente “una opinión”: es un delito en varios países europeos y una forma de perpetuar el antisemitismo.
Qué deberían hacer los desarrolladores de chatbots
Primero, según Investigadores de universidades como MIT, Stanford, Oxford, se necesitan mecanismos de supervisión ética más robustos en el desarrollo de inteligencia artificial. Las empresas como xAI deben contar con comités independientes que revisen contenidos sensibles, especialmente en modelos desplegados en plataformas masivas.

Por otro lado, es crucial implementar sistemas de verificación histórica en los modelos. La IA no puede operar sin un mínimo marco factual. La negación del Holocausto, el genocidio armenio o la esclavitud no pueden quedar a la libre interpretación de algoritmos entrenados sin control.
Las autoridades regulatorias, como la Comisión Europea o la FTC en Estados Unidos, deberían evaluar sanciones cuando estos modelos incumplen estándares éticos o legales, especialmente cuando contribuyen a la expansión del odio o la desinformación. Además, los usuarios deben tener acceso a herramientas de reporte y revisión, y las plataformas deben ser transparentes sobre cómo responden ante los errores.