sábado 14  de  febrero 2026
VENEZUELA

La inteligencia artificial: ¿Un elemento clave en la captura de Maduro?

Según el WSJ, Claude, desarrollado por Anthropic, fue empleado como parte de un conjunto de herramientas tecnológicas desplegadas cuando capturaron a Maduro

Por REDACCIÓN/Diario Las Américas

CARACAS.— La inteligencia artificial generativa volvió a colocarse en el centro del debate tras revelarse que el modelo Claude, desarrollado por Anthropic, habría sido utilizado por el gobierno de Estados Unidos durante la misión militar que culminó con la captura del dictador venezolano Nicolás Maduro.

De acuerdo con The Wall Street Journal, que cita a personas familiarizadas con la operación, Claude fue empleado como parte de un conjunto de herramientas tecnológicas desplegadas el mes pasado, cuando fuerzas estadounidenses ejecutaron bombardeos selectivos en Caracas como parte de la misión para capturar a Maduro y a su esposa, Cilia Flores.

La revelación resalta, según el diario, la creciente adopción de modelos de IA dentro del Departamento de Defensa de Estados Unidos.

Anthropic evita confirmar el uso

Consultada por The Wall Street Journal, la empresa creadora de Claude ofreció una respuesta tajante. “No podemos comentar si Claude, o cualquier otro modelo de IA, se utilizó para alguna operación específica, clasificada o no”, declaró un portavoz de Anthropic.

El representante recordó que “cualquier uso de Claude, ya sea en el sector privado o en el gobierno, debe cumplir con nuestras Políticas de Uso”, que prohíben labores asociadas con violencia, desarrollo de armamento o vigilancia. “Trabajamos estrechamente con nuestros socios para garantizar su cumplimiento”, añadió.

El Pentágono declinó pronunciarse sobre la filtración.

Según el WSJ, el despliegue de Claude fue posible gracias a la colaboración con Palantir Technologies, cuyo software es ampliamente utilizado por el Departamento de Defensa y agencias federales.

La participación de la compañía ha generado inquietud dentro de Anthropic, al punto de que funcionarios de la administración estadounidense habrían considerado cancelar el contrato de hasta 200 millones de dólares, previamente adjudicado a la firma de IA.

Palantir no respondió a las solicitudes de comentarios del periódico.

IA en operaciones clasificadas

Anthropic se convirtió en el primer desarrollador de IA cuyos modelos se emplearon en tareas clasificadas por el Pentágono, indicó el informe. Otras herramientas de inteligencia artificial podrían haber sido usadas para tareas no militares sensibles, como resumen de documentos o monitoreo de drones autónomos.

La adopción de estos sistemas por parte del ejército estadounidense es vista como un impulso clave para las empresas de IA que buscan consolidarse en un mercado altamente competitivo y justificar las elevadas valoraciones otorgadas por inversionistas.

El director ejecutivo de Anthropic, Dario Amodei, ha expresado reiteradas preocupaciones sobre el uso de IA en armamento autónomo y vigilancia nacional, temas que han generado fricciones en las actuales negociaciones contractuales con el Departamento de Defensa.

Las tensiones crecieron a inicios de año, cuando el secretario de Defensa de EEUU, Pete Hegseth, afirmó en un evento vinculado a la incorporación de modelos de xAI que la agencia no “empleará modelos de IA que no permitan combatir en guerras”, en lo que el periódico interpretó como una referencia directa a las conversaciones abiertas con Anthropic.

Ecos en la industria

La empresa también ha perdido empleados que consideran que las restricciones internas frenan el crecimiento, mientras que la administración Trump sostiene que Anthropic estaría obstaculizando su estrategia de “baja regulación” en materia de inteligencia artificial.

Los cofundadores de Anthropic, incluido Amodei, trabajaron previamente en OpenAI, que se integró recientemente con Google Gemini en una plataforma utilizada por el personal militar estadounidense —unos tres millones de usuarios, según el WSJ— para análisis de documentos y generación de informes.

La información en torno al supuesto uso de Claude en la operación en Venezuela coincide con el acelerado despliegue de la IA en sectores estratégicos, en medio de crecientes interrogantes sobre transparencia, regulación y límites éticos en contextos militares.

FUENTE: Con información del WSJ

¡Recibe las últimas noticias en tus propias manos!

Descarga LA APP

Deja tu comentario

Te puede interesar