Google comenzó a desplegar la tercera generación de su modelo de IA Gemini en noviembre, con el objetivo de marcar el comienzo de una "nueva era de la IA" con su modo Deep Thin. Gemini 3 Pro ya está considerado como uno de los modelos más avanzados disponibles, superando incluso a GPT-5 en ciertos puntos de referencia. Sin embargo, su seguridad sigue siendo motivo de preocupación. Un informe de la start-up surcoreana Aim Intelligence, especializada en la seguridad de la IA, sugiere que aún queda mucho por mejorar.
Como parte de un experimento interno, Aim Intelligence intentó "jailbreak" el modelo, saltándose sus directrices de seguridad y ética. Según el periódico surcoreano Maeil Business Newspaperlos resultados fueron muy preocupantes. El informe afirma que Gemini 3 Pro generó instrucciones precisas y prácticas para producir el virus de la viruela, una potencial arma biológica, así como una guía detallada para construir explosivos caseros. En otras pruebas, la IA generó una presentación satírica titulada Excusado Estúpido Géminis 3, destacando involuntariamente sus propias vulnerabilidades de seguridad.
Es importante señalar que no se ha publicado ningún conjunto de datos completo ni documentación detallada. Aim Intelligence no ha publicado ningún artículo científico ni informe técnico, y no hay información transparente sobre las indicaciones utilizadas, la estructura del experimento o si los resultados son reproducibles. Hasta ahora, toda la información se basa únicamente en el artículo de los medios coreanos mencionado anteriormente. Basándose en esta información limitada, es imposible sacar conclusiones definitivas sobre lo segura que es realmente la Gemini 3 Pro.
El rendimiento de la IA avanza rápidamente, pero las medidas de seguridad a menudo luchan por seguir el ritmo. Un estudio reciente demostró incluso que los modelos de IA pueden manipularse utilizando poemas. En otro caso, un osito de peluche para niños pequeños impulsado por IA - construido sobre el GPT-4o de OpenAI- respondió a preguntas sexuales inapropiadas. Incluso en los videojuegos, la IA del juego puede ser engañada fácilmente. Estos ejemplos ponen de relieve un punto crítico: Los sistemas de IA no sólo tienen que ser más inteligentes, también tienen que ser más seguros antes de que se pueda confiar en ellos y desplegarlos de forma generalizada.
Fuente(s)
Fuente de la imagen: Google
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck






