Notebookcheck Logo

Anthropic acusa a la china DeepSeek de plagiar la IA de Claude para avanzar en la censura

Las capacidades de la IA de Claude Anthropic.
ⓘ Anthropic
Las capacidades de la IA de Claude Anthropic.
Los laboratorios chinos de IA están cosechando las respuestas de Claude y otros grandes modelos lingüísticos para imitar su rendimiento para sus propios productos sin las debidas garantías. Anthropic pide una respuesta de toda la industria y se ha puesto en contacto con las autoridades competentes.

A medida que los modelos de IA de las empresas chinas se vuelven cada vez más sofisticados, Anthropic ha revelado un esfuerzo concertado de empresas como DeepSeek para plagiar el funcionamiento interno de su galardonado Claude LLM y hacerlo pasar por su propia innovación.

A Anthropic le preocupa que los agentes de IA resultantes estén desprovistos de las salvaguardas contra usos malintencionados inherentes a Claude y que el enfoque de código abierto de DeepSeek pueda poner poderosas herramientas de IA en manos de actores estatales y no estatales que tengan menos escrúpulos en cuanto a su uso.

DeepSeek, por ejemplo, que sacudió a la industria con su eficacia de hacer más con menos en términos de potencia de cálculo de la IA, había despojado al código Claude de sus salvaguardas de libertad de expresión y había hecho que su agente eludiera temas que la máquina de censura del gobierno chino se esfuerza por evitar.

Anthropic, que elabora algunas de las herramientas de IA más avanzadas que existen, acaba de tener un encontronazo con el Pentágono en relación con el uso de Claude con fines militares. Insiste en que Claude no se utiliza para controlar sistemas de armas no tripuladas ni para la vigilancia de ciudadanos estadounidenses, mientras que el Pentágono quiere tener más libertad en el uso de su agente de IA sin esos onerosos guardarraíles.

Cuando DeepSeek y otros se apropien de los algoritmos de toma de decisiones de Claude a través de una gran red proxy distribuida que sirva millones de consultas a través de cuentas falsas, o la llamada "destilación", los agentes resultantes podrán ser utilizados por un ejército estatal sin tales restricciones.

Esta es la razón por la que Anthropic está dando la voz de alarma sobre las prácticas que rastreó en tres empresas chinas de IA -DeepSeek, MiniMax y Moonshot- e introduciendo formas de mitigarlas. En el caso de MiniMax, en particular, el alcance del plagio de modelos de IA es impresionante. Anthropic detectó más de 13 millones de intercambios de consultas con Claude que a menudo se tradujeron en una mejora del modelo MiniMax en tiempo real mientras Anthropic ponía en marcha importantes actualizaciones de Claude.

Anthropic dispone ahora de salvaguardas para detectar millones de consultas aparentemente inocuas utilizadas para la destilación, como preguntarle a Claude cómo llevaría a cabo un"objetivo de ofrecer perspectivas basadas en datos -no resúmenes ni visualizaciones- fundamentadas en datos reales y respaldadas por un razonamiento completo y transparente" y analizar los resultados para mejorar los LLM chinos.

Advierte de que no puede luchar contra esta práctica en solitario y está tratando de conseguir que otros juggernauts de la industria como OpenAI o Google se unan a ella para que puedan influir en los responsables políticos para mejorar la legislación de control de las exportaciones de IA con medidas contra la destilación en lugar de limitarse a prohibir las GPU Blackwell de Nvidia y otro hardware.

Consiga la GPU de IA NVD RTX PRO 6000 Blackwell Professional Edition en Amazon

Fuente(s)

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2026 02 > Anthropic acusa a la china DeepSeek de plagiar la IA de Claude para avanzar en la censura
Daniel Zlatev, 2026-02-24 (Update: 2026-02-24)