Notebookcheck Logo

Anthropic rechaza el impulso del Pentágono para abrir la IA de Claude a los sistemas de armas no tripuladas o al uso de vigilancia masiva

El dron UAS Textron Aerosonde Mk. 4.7.
ⓘ Textron Systems
El dron UAS Textron Aerosonde Mk. 4.7.
Es probable que Anthropic siga siendo la empresa líder en IA cuando se trate de la seguridad y la responsabilidad social de sus modelos. A pesar de todas las repercusiones potenciales, ha rechazado la petición del Pentágono de eliminar las barreras contra el uso militar y la vigilancia inherentes a su agente de IA Claude.

El gigante de la inteligencia artificial Anthropic dejará pasar el plazo del 27 de febrero fijado por el Pentágono para despojar a su modelo Claude de todas las garantías para su uso militar.

Según el director general de Anthropic, Dario Amodei, la empresa de IA no puede abrir Claude para el funcionamiento de sistemas de armamento no tripulados o para la vigilancia masiva de ciudadanos estadounidenses con la "conciencia tranquila" porque no es lo suficientemente seguro ni fiable como para cumplir ese propósito.

Claude, de Anthropic, es a la vez uno de los principales agentes de IA que existen y el más orientado a la seguridad, con guardarraíles incorporados contra el uso malintencionado de sus herramientas de IA. El Departamento de Guerra estadounidense (DoW), sin embargo, exige que los modelos de IA que adquiere estén desprovistos de cualquier restricción que no sea su propio y turbio "uso lícito":

La diversidad, la equidad y la inclusión y la ideología social no tienen cabida en el DoW, por lo que no debemos emplear modelos de IA que incorporen un "ajuste" ideológico que interfiera con su capacidad de proporcionar respuestas objetivamente veraces a las indicaciones de los usuarios

El Departamento también debe utilizar modelos libres de restricciones de política de uso que puedan limitar las aplicaciones militares lícitas. Por lo tanto, ordeno al CDAO que establezca puntos de referencia para la objetividad de los modelos como criterio principal de adquisición en un plazo de 90 días, y ordeno al Subsecretario de Guerra para Adquisiciones y Sostenimiento que incorpore el lenguaje estándar de "cualquier uso lícito" en cualquier contrato del DoW a través del cual se adquieran servicios de IA en un plazo de 180 días.

El Pentágono ha amenazado ahora a Anthropic con repercusiones nefastas que van más allá de un impacto en su balance. Aparte de poner en peligro el actual contrato con un techo de 200 millones de dólares para suministrar herramientas de IA al Pentágono, Anthropic se arriesga a que se le designe como un riesgo para la cadena de suministro o a que se le pida que elimine las barreras de Claude para uso militar en virtud de la ley de los años 50 diseñada para obligar a las empresas estadounidenses a cumplirla durante la Guerra de Corea por motivos de seguridad nacional.

La designación de riesgo para la cadena de suministro suele reservarse a empresas con conexiones potenciales con actores estatales maliciosos como la china Huawei o la rusa Kaspersky, por lo que incluir a Anthropic en esa lista podría asestar un duro golpe a su potencial de ganancias. A pesar del riesgo de convertirse en un paria de la IA para la actual administración de la Casa Blanca, Amodei insiste en que los actuales"sistemas de IA de vanguardia simplemente no son lo suficientemente fiables como para alimentar armas totalmente autónomas", mientras que"el uso de estos sistemas para la vigilancia doméstica masiva es incompatible con los valores democráticos."

El Claude de Anthropic fue el modelo al que se recurrió cuando el gobierno quiso utilizar por primera vez herramientas de IA para cribar información clasificada y fue de ayuda cuando se planificó la redada que capturó al hombre fuerte venezolano Maduro, por lo que Darío Amodei dijo que espera que el Pentágono reconsidere su postura sobre los dos escenarios de línea roja que seguirá restringiendo en sus modelos de IA.

Fuente(s)

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2026 02 > Anthropic rechaza el impulso del Pentágono para abrir la IA de Claude a los sistemas de armas no tripuladas o al uso de vigilancia masiva
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)