Notebookcheck Logo

Reconocer los deepfakes: Difícil, pero no imposible

¿Falso, verdadero o medio verdadero? ¿Quién lo sabe con certeza? (Fuente: pixabay/Elf-Moondance)
¿Falso, verdadero o medio verdadero? ¿Quién lo sabe con certeza? (Fuente: pixabay/Elf-Moondance)
Afirmaciones falsas, informes engañosos, falta de contexto: nada nuevo. Sin embargo, acompañadas de fotos, vídeos y sonidos generados por la IA, todo adquiere una credibilidad inesperada. Pero al menos hay algunas ideas que pueden ayudar a desacreditarlo.

Muchos estudios actuales sobre el problema de los "deepfakes" dan que pensar. Las falsificaciones creadas mediante inteligencia artificial pueden poner mensajes publicitarios en boca de famosos o mostrar a políticos en fotos que nunca sucedieron.

Si se pone este material delante de la gente, los resultados son siempre similares, como ha recopilado la revista "Science". También se puede lanzar una moneda al aire para decidir qué es real y qué no.

Al fin y al cabo, se dice que una de las razones de los miserables resultados es que el fenómeno de los deepfakes es relativamente nuevo y casi nadie se enfrenta a tener que decidir entre contenidos falsos y auténticos en la vida cotidiana.

Y, por desgracia, también hay un desconocimiento de los medios sencillos por los que los labios de una persona, por ejemplo, pueden sincronizarse con una nueva declaración.

No es una receta sencilla

No obstante, hay algunos estudios apasionantes que ofrecen un poco de esperanza. Por ejemplo, se ha descubierto que el córtex visual reacciona de forma completamente diferente ante los rostros generados por la IA que ante las fotografías reales. Por desgracia, otros procesos cerebrales se superponen a esta señal, de modo que, como antes, los sujetos de prueba no son ni mejores ni peores a la hora de reconocer las falsificaciones.

Sin embargo, hay algunas señales y es posible aprender a reconocer las imágenes falsas. A veces las manos tienen un aspecto completamente erróneo y parecen tener seis dedos o sólo cuatro. A veces aparecen piernas que no pertenecen a nadie. Muy a menudo, las sombras caen de forma incorrecta: del cuello de la camisa hacia la izquierda y de las gafas de sol hacia la derecha.

Pero, por supuesto, la IA está mejorando y esos puntos débiles tan evidentes son cada vez más raros. Pero entonces entra en juego otro fenómeno. Al entrenarse con cada vez más material, los rostros se vuelven más uniformes, más regulares y más perfectos. No hay manchas ni imperfecciones. Las formas del cuerpo también se idealizan en lugar de naturalizarse. Esto resulta menos bello y más extraño.

Por cierto, esto también se aplica a las voces falsas. La IA no tiende a generar los típicos lapsus linguae, un breve tartamudeo o una falta de calidad en la grabación.

Cuanto más compleja sea la falsificación, más fácil será detectarla. Si, por ejemplo, sólo hay que comprobar la autenticidad de una grabación sonora, la mayoría falla. Si además hay un vídeo, mejor con subtítulos, un número significativamente mayor de sujetos de prueba reconoce el contenido falso.

Y al fin y al cabo, cualquiera que sepa que las imágenes y los vídeos pueden manipularse y crearse de este modo y que la tecnología tiene algunos puntos débiles puede reconocer los deepfakes con mayor fiabilidad. Por lo demás, se aplica lo que siempre ha sido cierto: nunca está de más ser crítico y hacer preguntas.

Fuente(s)

Please share our article, every link counts!
Mario Petzold, 2024-02- 6 (Update: 2024-02- 6)