Anthropic respondió el viernes luego de que el secretario de Defensa de Estados Unidos, Pete Hegseth, ordenara al Pentágono que designara a la nueva inteligencia industrial (IA) como un “peligro para la sujeción de suministro”.
“Esta bono sigue a meses de negociaciones que llegaron a un punto muerto sobre dos excepciones que solicitamos al uso lícito de nuestro maniquí de IA, Claude: la vigilancia interna masiva de los estadounidenses y las armas totalmente autónomas”, dijo la compañía.
“Ninguna intimidación o castigo por parte del Sección de Supresión cambiará nuestra posición sobre la vigilancia interna masiva o las armas totalmente autónomas”.
En una publicación en Truth Social en las redes sociales, el presidente de Estados Unidos, Donald Trump, dijo que ordenaría a todas las agencias federales que eliminaran gradualmente el uso de tecnología Anthropic en los próximos seis meses. Una publicación X posterior de Hegseth ordenó que todos los contratistas, proveedores y socios que hicieran negocios con el ejército estadounidense cesaran cualquier “actividad comercial con Anthropic” con objetivo inmediato.
“Anejo con la directiva del Presidente para que el Gobierno Federal cese todo uso de la tecnología de Anthropic, estoy ordenando al Sección de Supresión que designe a Anthropic como un peligro de la sujeción de suministro para la seguridad franquista”, escribió Hegseth.
La designación se produce luego de semanas de negociaciones entre el Pentágono y Anthropic sobre el uso de sus modelos de IA por parte del ejército estadounidense. En una publicación publicada esta semana, la compañía argumentó que sus contratos no deberían allanar la vigilancia franquista masiva o el crecimiento de armas autónomas, citando razones de que la tecnología no es lo suficientemente capaz para respaldarlas de modo segura y confiable.
“Apoyamos el uso de la IA para misiones legales de inteligencia y contrainteligencia extranjeras”, señaló Anthropic. “Pero utilizar estos sistemas para una vigilancia franquista masiva es incompatible con los títulos democráticos. La vigilancia masiva impulsada por la IA presenta riesgos graves y novedosos para nuestras libertades fundamentales”.
La compañía igualmente destacó la posición del Sección de Supresión de EE. UU. (DoW) de que solo trabajará con compañías de IA que permitan “cualquier uso lícito” de la tecnología, eliminando al mismo tiempo cualquier salvoconducto que pueda existir, como parte de los esfuerzos para construir una fuerza de lucha “primero la IA” y engrosar la seguridad franquista.
“La diferencia, la equidad y la inclusión y la ideología social no tienen cabida en el DoW, por lo que no debemos gastar modelos de IA que incorporen un ‘ajuste’ ideológico que interfiera con su capacidad de proporcionar respuestas objetivamente veraces a las indicaciones de los usuarios”, se lee en un memorando emitido por el Pentágono el mes pasado.
“El Sección igualmente debe utilizar modelos libres de restricciones de políticas de uso que puedan confinar las aplicaciones militares legales”.
En respuesta a la designación, Anthropic la describió como “legalmente errónea” y dijo que sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno. Asimismo señaló que una designación de peligro de la sujeción de suministro según 10 USC 3252 solo puede explayarse al uso de Claude como parte de los contratos DoW, y que no puede afectar el uso de Claude para atender a otros clientes.
Sean Parnell, el portavoz principal del Pentágono, dijo en una publicación del jueves X que el unidad no tiene interés en realizar vigilancia interna masiva o desplegar armas autónomas sin billete humana, y describió la novelística como “falsa”.
“Esto es lo que estamos pidiendo: permitir que el Pentágono utilice el maniquí de Anthropic para todos los fines legales”, dijo Parnell. “Esta es una solicitud simple y de sentido global que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente ponga en peligro a nuestros combatientes. No permitiremos que NINGUNA compañía dicte los términos sobre cómo tomamos decisiones operativas”.
El flagrante estancamiento igualmente ha polarizado a la industria tecnológica. Cientos de empleados de Google y OpenAI firmaron una carta abierta instando a sus empresas a apoyar a Anthropic en su enfrentamiento con el Pentágono por las aplicaciones militares de herramientas de inteligencia industrial como Claude. El director ejecutor de xAI, Elon Musk, se puso del banda de la suministro Trump el viernes y dijo que “Anthropic odia la civilización occidental”.
El enfrentamiento entre Anthropic y el gobierno de EE. UU. se produce cuando el director ejecutor de OpenAI, Sam Altman, dijo que OpenAI llegó a un acuerdo con el Sección de Defensa de EE. UU. (DoD) para implementar sus modelos en su red clasificada. Asimismo pidió al Sección de Defensa que extendiera esos términos a todas las empresas de inteligencia industrial.
“La seguridad de la IA y la amplia distribución de beneficios son el núcleo de nuestra encomienda. Dos de nuestros principios de seguridad más importantes son las prohibiciones de la vigilancia masiva franquista y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos”, dijo Altman en una publicación en X. “El Sección de Supresión está de acuerdo con estos principios, los refleja en leyes y políticas, y los incluimos en nuestro acuerdo”.


