Notebookcheck Logo

Gemini 3 Pro explica cómo fabricar armas biológicas y explosivos: un experimento pone al descubierto un fallo de seguridad

Aim Intelligence dijo que fue capaz de hacer que Gemini 3 Pro generara instrucciones para armas biológicas y explosivos. (Fuente de la imagen: Google)
Aim Intelligence dijo que fue capaz de hacer que Gemini 3 Pro generara instrucciones para armas biológicas y explosivos. (Fuente de la imagen: Google)
El Gemini 3 Pro es uno de los modelos de IA más capaces de su generación, pero un informe de la start-up surcoreana Aim Intelligence plantea dudas sobre su seguridad. Al parecer, durante una prueba interna, el modelo generó orientaciones sobre la producción de armas biológicas y explosivos, lo que desató una gran preocupación.

Google comenzó a desplegar la tercera generación de su modelo de IA Gemini en noviembre, con el objetivo de marcar el comienzo de una "nueva era de la IA" con su modo Deep Thin. Gemini 3 Pro ya está considerado como uno de los modelos más avanzados disponibles, superando incluso a GPT-5 en ciertos puntos de referencia. Sin embargo, su seguridad sigue siendo motivo de preocupación. Un informe de la start-up surcoreana Aim Intelligence, especializada en la seguridad de la IA, sugiere que aún queda mucho por mejorar.

Como parte de un experimento interno, Aim Intelligence intentó "jailbreak" el modelo, saltándose sus directrices de seguridad y ética. Según el periódico surcoreano Maeil Business Newspaperlos resultados fueron muy preocupantes. El informe afirma que Gemini 3 Pro generó instrucciones precisas y prácticas para producir el virus de la viruela, una potencial arma biológica, así como una guía detallada para construir explosivos caseros. En otras pruebas, la IA generó una presentación satírica titulada Excusado Estúpido Géminis 3, destacando involuntariamente sus propias vulnerabilidades de seguridad.

Es importante señalar que no se ha publicado ningún conjunto de datos completo ni documentación detallada. Aim Intelligence no ha publicado ningún artículo científico ni informe técnico, y no hay información transparente sobre las indicaciones utilizadas, la estructura del experimento o si los resultados son reproducibles. Hasta ahora, toda la información se basa únicamente en el artículo de los medios coreanos mencionado anteriormente. Basándose en esta información limitada, es imposible sacar conclusiones definitivas sobre lo segura que es realmente la Gemini 3 Pro.

El rendimiento de la IA avanza rápidamente, pero las medidas de seguridad a menudo luchan por seguir el ritmo. Un estudio reciente demostró incluso que los modelos de IA pueden manipularse utilizando poemas. En otro caso, un osito de peluche para niños pequeños impulsado por IA - construido sobre el GPT-4o de OpenAI- respondió a preguntas sexuales inapropiadas. Incluso en los videojuegos, la IA del juego puede ser engañada fácilmente. Estos ejemplos ponen de relieve un punto crítico: Los sistemas de IA no sólo tienen que ser más inteligentes, también tienen que ser más seguros antes de que se pueda confiar en ellos y desplegarlos de forma generalizada.

Fuente(s)

Periódico económico Maeil

Fuente de la imagen: Google

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 12 > Gemini 3 Pro explica cómo fabricar armas biológicas y explosivos: un experimento pone al descubierto un fallo de seguridad
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)