Los investigadores advierten de que los enjambres de IA crean una opinión pública falsa

Imagine un mundo en el que un gran grupo de personas puede hablar sobre un tema concreto, haciendo que sea tendencia en Internet. O un mundo en el que estas personas puedan forzar la mano de figuras públicas o incluso difundir información errónea. Ahora imagine un mundo en el que las "personas" sean en realidad perfiles impulsados por IA que actúen al unísono imitando voces humanas únicas.
Este peligro es el que nos advierten ahora científicos de un gran número de instituciones de todo el mundo en una reciente publicación en la revista Science.
Un equipo internacional de investigación ha detallado cómo la fusión de grandes modelos lingüísticos (LLM) con sistemas multiagente permite la creación de enjambres de IA maliciosos. A diferencia de los bots copy-paste tradicionales, fácilmente identificables, estos enjambres avanzados consisten en personas controladas por la IA que mantienen identidades persistentes, memoria y objetivos coordinados. Pueden adaptar dinámicamente su tono y contenido en función de la participación humana, operando con una supervisión mínima a través de múltiples plataformas.
La principal amenaza que plantean estas redes es la fabricación de "consenso sintético" Al inundar los espacios digitales con charlas fabricadas pero muy convincentes, estos enjambres crean la falsa ilusión de que un punto de vista específico es aceptado universalmente. Los investigadores señalan que este fenómeno pone en peligro los cimientos del discurso democrático, ya que un único actor malintencionado puede hacerse pasar por miles de voces independientes.
Esta influencia persistente va más allá de cambiar opiniones temporales; puede alterar fundamentalmente el lenguaje, los símbolos y la identidad cultural de una comunidad. Además, esta salida coordinada amenaza con contaminar los datos de entrenamiento de los modelos habituales de inteligencia artificial, extendiendo la manipulación a las plataformas de IA establecidas.
Para contrarrestar esta amenaza en evolución, los expertos sostienen que la moderación tradicional de contenidos post por post ya no es eficaz. Los mecanismos de defensa deben pivotar hacia la identificación de la coordinación estadísticamente improbable y el rastreo del origen de los contenidos. Los investigadores también destacan la necesidad de aplicar las ciencias del comportamiento para estudiar las acciones colectivas de los agentes de IA cuando interactúan en grandes grupos. Las soluciones propuestas incluyen el despliegue de métodos de verificación que preserven la privacidad, el intercambio de pruebas a través de un Observatorio distribuido de la influencia de la IA y la limitación de los incentivos financieros que impulsan la participación no auténtica.
Fuente(s)
Ciencia vía Tech Xplore
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck

