Un informe de The Wall Street Journal aseguró que el Departamento de Defensa de Estados Unidos habría incorporado el modelo de IA Claude, desarrollado por Anthropic, en la operación militar que culminó con la captura de Nicolás Maduro el 3 de enero en Caracas.
La supuesta integración, realizada a través de plataformas vinculadas a Palantir Technologies, no fue confirmada oficialmente ni por el Pentágono ni por la empresa tecnológica, pero desató cuestionamientos sobre el uso de IA en acciones bélicas y sobre un contrato que podría alcanzar los 200 millones de dólares.
Embed - https://publish.x.com/oembed?url=https://x.com/WSJ/status/2022443070864728396?s=20&partner=&hide_thread=false
Cómo se habría utilizado la IA en la misión
Según el reporte, Claude fue empleado dentro de entornos clasificados para procesar información estratégica en tiempo real. Fuentes citadas por medios estadounidenses indicaron que el modelo podría haber sido utilizado para analizar imágenes satelitales, sintetizar grandes volúmenes de datos operativos y asistir en la toma de decisiones durante la fase activa del operativo.
La herramienta también habría facilitado la coordinación entre comandos militares desplegados en Caracas y autoridades en Washington. Sin embargo, el Pentágono evitó precisar el rol específico del sistema, al tratarse de información sensible.
La operación y el traslado a Estados Unidos
La intervención, ordenada por la administración de Donald Trump a comienzos de enero de 2026, derivó en el traslado de Maduro y su esposa, Cilia Flores, a territorio estadounidense, donde enfrentarían cargos por presunto narcotráfico regional.
De acuerdo con fuentes oficiales estadounidenses, no se registraron bajas propias durante la redada. En contraste, autoridades de Venezuela y Cuba denunciaron que el enfrentamiento dejó decenas de muertos entre fuerzas de seguridad locales.
Fricciones con Anthropic
La revelación generó tensiones entre el gobierno estadounidense y Anthropic, que mantiene políticas internas que prohíben el uso de sus modelos para facilitar acciones violentas, desarrollar armamento o realizar vigilancia masiva.
Tras conocerse el informe, la compañía reiteró que cualquier implementación de Claude debe ajustarse a sus Políticas de Uso. Desde sectores del gobierno estadounidense trascendió que podrían revisarse acuerdos contractuales si esas restricciones limitan aplicaciones militares.
IA y guerra: un precedente en debate
De confirmarse el alcance del uso de Claude, el caso marcaría uno de los primeros antecedentes públicos de integración de un modelo comercial de inteligencia artificial en una operación militar clasificada.
El episodio reavivó el debate sobre los límites éticos y legales de la IA en conflictos armados, en un contexto en el que el Pentágono busca acelerar su adopción mientras las empresas tecnológicas intentan imponer salvaguardas.