Notebookcheck Logo

El experimento 'Nano Banana Pro': Las herramientas de detección de la IA demuestran su inutilidad

Mujer sosteniendo plátano 3 - Esta imagen los engaña a todos (Fuente: Nano Banana Pro - post-procesado con CyberLink PhotoDirector)
Mujer sosteniendo plátano 3 - Esta imagen los engaña a todos (Fuente: Nano Banana Pro - post-procesado con CyberLink PhotoDirector)
¿Puede el software salvarnos de los deepfakes? Hemos puesto a prueba seis herramientas de detección con una imagen de 'Nano Banana Pro'. Los resultados muestran que la tecnología actual es fácilmente burlada. Unas simples ediciones con software estándar bastaron para reducir los índices de detección casi a cero.

El caso de Melissa Sims demostró lo peligrosos que pueden ser los contenidos de IA no controlados en el sistema jurídico. La industria promete un remedio en forma de los llamados "detectores de IA", programas informáticos destinados a utilizar complejos algoritmos para reconocer si una imagen procede de un ser humano o de una máquina. Sin embargo, la fiabilidad de estos perros guardianes digitales sigue siendo cuestionable cuando se enfrentan a un engaño intencionado. Un experimento con seis de los servicios de detección más comunes en la actualidad puso esto a prueba.

La imagen de prueba: Un reto surrealista

Para desafiar a las herramientas de detección, utilizamos el generador de imágenes basado en Google Gemini "Nano Banana Pro" La indicación elegida era deliberadamente sencilla pero ligeramente caprichosa: "Una mujer en pose de lucha sosteniendo un plátano contra el cielo. Fondo paisaje urbano típico con gente desinteresada"

Sin embargo, el primer gran obstáculo para el software de detección automática tiene su origen en el modelo específico utilizado. Dado que Nano Banana Pro es relativamente nuevo en el mercado, presenta un punto ciego para muchos detectores.

Estos servicios a menudo se basan en el aprendizaje automático y están específicamente entrenados para identificar las firmas únicas o "huellas dactilares" de gigantes establecidos como Midjourney, DALL-E 3, Stable Diffusion o Flux. En consecuencia, un modelo nuevo como Nano Banana Pro tiene una clara ventaja, ya que sus patrones de generación específicos aún no forman parte de los datos de entrenamiento de los detectores, lo que le permite escabullirse más fácilmente.

Mujer sosteniendo un plátano, original de Nano Banana Pro
Mujer sosteniendo un plátano, original de Nano Banana Pro

Ronda 1: Fracaso a pesar de las filigranas

En el primer paso, los detectores se enfrentaron a una tarea fácil. Simplemente se convirtió el PNG original a un formato JPG y se eliminaron sus metadatos. Crucialmente, la imagen aún contenía una marca de agua Gemini claramente visible.

Cabría suponer que una marca AI visible sería una presa fácil para el software de detección. Sin embargo, el resultado fue aleccionador: incluso en este estado bruto, dos de las seis herramientas probadas fallaron. A pesar de la evidente marca de agua, clasificaron como baja la probabilidad de que la imagen fuera generada por IA.

Segundo asalto: el borrador digital

Fuente: https://app.illuminarty.ai/
Fuente: https://app.illuminarty.ai/
Fuente: https://mydetector.ai/de/ai-image-detector/
Fuente: https://mydetector.ai/de/ai-image-detector/

En el segundo paso, nos acercamos más a un escenario de falsificación realista. La marca de agua identificativa tenía que desaparecer. En sólo unos segundos, el borrador AI incorporado en la aplicación predeterminada Fotos de Windows terminó el trabajo sin problemas.

El impacto de esta pequeña edición fue inmediato. Otra herramienta fue engañada, clasificando ahora la probabilidad de la IA como baja. Curiosamente, sin embargo, Illuminarty aumentó de hecho su clasificación de probabilidad para una imagen generada por la IA después de la edición. No obstante, tres de las seis herramientas de detección de IA asignaron una probabilidad inferior al 30% de que la mujer con el plátano fuera una creación de IA.

Ronda 3: La perfección de la imperfección

El último paso fue decisivo. Las imágenes de IA suelen ser "demasiado suaves" y demasiado perfectas en su falta de ruido. Para acabar de engañar a los detectores, la imagen necesitaba "realidad" artificial, es decir, errores típicos de la fotografía digital. Utilizando Cyberlink PhotoDirector, se postprocesó la imagen. Se añadió una ligera corrección del objetivo, la aberración cromática artificial creó franjas de color en los bordes, se aumentó el contraste y, lo más importante, se colocó ruido de imagen realista sobre el paisaje. El objetivo era que la imagen pareciera una toma de una cámara real e imperfecta. Todo ello se hizo en pocos minutos.

Imagen original y procesada en comparación

El resultado de esta tercera ronda fue una derrota total de la tecnología de detección. Después de que la imagen hubiera pasado por este post-procesamiento estándar, los seis servicios probados se rindieron. Ni una sola herramienta indicó una probabilidad de IA superior al 5%. Para el software, la mujer golpeando un plátano era ahora sin duda una foto real.

Fuente: https://copyleaks.com/de/ai-image-detector
Fuente: https://copyleaks.com/de/ai-image-detector
Fuente: https://app.illuminarty.ai/
Fuente: https://isgen.ai/de/KI-Bilddetektor
Fuente: https://app.gowinston.ai/image-detection
Fuente: https://decopy.ai/de/ai-image-detector/
Fuente: https://mydetector.ai/de/ai-image-detector/

Veredicto: Una peligrosa sensación de seguridad

Nuestro experimento pone crudamente de relieve que las soluciones técnicas actuales para la detección de IA están aún en pañales. Si bastan unos minutos y un software estándar de edición fotográfica para reducir los índices de detección de "muy probable" a "menos del 5 por ciento", estas herramientas no sólo son inútiles en la actualidad para los tribunales, las redacciones o las fuerzas del orden: son peligrosas. Crean una falsa sensación de seguridad que simplemente no existe. El principio de "confiar, pero verificar" sólo funciona si los verificadores no están ciegos.

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2026 01 > El experimento 'Nano Banana Pro': Las herramientas de detección de la IA demuestran su inutilidad
Marc Herter, 2026-01-12 (Update: 2026-01-12)