Por: Joenny Pérez.- El uso militar de la inteligencia artificial ha desatado una escalada de tensión entre el Departamento de Defensa de Estados Unidos y la empresa Anthropic, ante discrepancias sobre la aplicación de su modelo Claude en sistemas de armas y escenarios de conflicto. Según informó The Washington Post, el Gobierno fijó como fecha límite las 17:01 hora local de este viernes para que la compañía acceda a sus exigencias, bajo advertencia de posibles medidas legales.

La disputa gira en torno a si el modelo de lenguaje Claude puede emplearse en armas autónomas y en procesos de toma de decisiones en situaciones extremas, incluidos hipotéticos ataques nucleares. De no alcanzarse un acuerdo, el Ejecutivo podría invocar la Defense Production Act para obligar a la empresa a facilitar su tecnología, además de incluirla en una eventual lista negra para futuros contratos de defensa.
De acuerdo con una fuente citada por el rotativo, el jefe de tecnología del Pentágono planteó en una reunión el mes pasado un escenario de “vida o muerte” al preguntar si, ante el lanzamiento de un misil balístico intercontinental contra Estados Unidos, los militares podrían utilizar Claude para intentar interceptarlo. La supuesta respuesta del director ejecutivo de Anthropic, Dario Amodei, habría sido que podrían contactarlos para resolverlo, lo que generó molestia en el ámbito de Defensa.

No obstante, un portavoz de Anthropic negó esa versión y la calificó de “manifiestamente falsa”, asegurando que la empresa accedió a permitir el uso de Claude para la defensa antimisiles. La compañía sostiene que su enfoque prioriza la seguridad en el desarrollo de sistemas de IA y rechaza que se haya negado a colaborar en fines legales vinculados a la defensa nacional.
El caso también adquiere matices políticos. Expertos citados por el diario señalan que Anthropic, fundada por exintegrantes de OpenAI, estaría bajo mayor escrutinio de la administración del presidente Donald Trump por presuntas diferencias con su agenda. Por su parte, el portavoz del Pentágono, Sean Parnell, afirmó en la red social X que el Departamento de Guerra no busca emplear IA para vigilancia masiva ni para armas autónomas sin intervención humana, y subrayó que el Gobierno no permitirá que una empresa privada imponga condiciones sobre decisiones operativas.


