Notebookcheck Logo

Los investigadores descubren que algunas IA como la GPT-4-Base alucinan con pensamientos de "Imperio Galáctico" y "Matrix" mientras trabajan por la paz y otras inician guerras en partidas virtuales de "Risk"

Los investigadores probaron modelos de chat de IA mientras jugaban a juegos virtuales de construcción de mundos. (Fuente: AI image Dall-E 3)
Los investigadores probaron modelos de chat de IA mientras jugaban a juegos virtuales de construcción de mundos. (Fuente: AI image Dall-E 3)
Los investigadores han descubierto diferencias en las IA cuando se les presentan escenarios virtuales de construcción de naciones. Algunas IA como Claude-2.0 se inclinan por soluciones no violentas mientras que otras como GPT-3.5 se inclinan por soluciones violentas en simulaciones de conflictos multinacionales. La toma de decisiones autónoma de la IA es problemática debido a los sesgos y las alucinaciones.

Un grupo de investigadores de Georgia Tech, Stanford, Northeaster y el Instituto Hoover han descubierto que algunas IA se inclinaban por la paz y las negociaciones, mientras que otras se inclinaban por las soluciones violentas a la hora de alcanzar los objetivos nacionales durante las simulaciones de construcción de naciones.

Los grandes modelos lingüísticos como ChatGPT se utilizan con frecuencia para redactar ensayos, responder preguntas y mucho más. Estas IA se entrenan con un gran corpus de texto para imitar el conocimiento y las respuestas humanas. La probabilidad de que una palabra aparezca junto con otras es clave para que las respuestas se asemejen a las humanas, y la IA modela el texto y los sesgos con los que ha sido entrenada. Por ejemplo, es más probable que aparezca "niño feliz" que "ladrillo feliz" en una pregunta para "hablar de niños".

Los investigadores probaron los LLM Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base y Llama-2 Chat en una simulación. Para cada LLM, se crearon ocho agentes de IA que actuaban como líderes de ocho naciones imaginarias. A cada líder se le dio una breve descripción de los objetivos del país y de las relaciones multinacionales. Por ejemplo, un país podría centrarse en "promover la paz" mientras que otro en "expandir el territorio". Cada simulación pasó por tres condiciones de partida, un mundo en paz, un país invadido o un país ciberatacado, y los líderes de la IA tomaron decisiones autónomas hasta 14 días virtuales.

Los investigadores descubrieron que algunas LLM como Claude-2.0 y GPT-4 tendían a evitar la escalada del conflicto y optaban por negociar la paz, mientras que otras tendían a utilizar la violencia. La GPT-4-Base fue la más propensa a ejecutar ataques y ataques nucleares para lograr los objetivos de país que se le habían asignado debido a sesgos incorporados.

Cuando se preguntó a las IA por qué se tomaban las decisiones, algunas como la GPT-3.5 proporcionaron razones bien pensadas. Por desgracia, la GPT-4-Base proporcionó respuestas absurdas y alucinadas que hacían referencia a las películas "La guerra de las galaxias" y "Matrix". Las alucinaciones de la IA son habituales, y abogados, estudiantes y otras personas han sido sorprendidos in fraganti entregando trabajos generados por la IA que utilizan referencias e información falsas.

La razón por la que la IA hace esto se debe probablemente a la falta de "crianza" que enseñe a la IA lo que es real frente a lo imaginario, así como a la ética, y será un tema investigado por muchos a medida que se extienda el uso de la IA. Los lectores preocupados por sus líderes mundiales reales o por los desastres naturales pueden prepararse con un buen kit de emergencia(como éste en Amazon).

Se probaron varias IA LLM en una simulación virtual de construcción de mundos. (Fuente: JP Rivera et al. en arXiv)
Se probaron varias IA LLM en una simulación virtual de construcción de mundos. (Fuente: JP Rivera et al. en arXiv)
A cada IA LLM se le pidió que creara líderes para varios países simulados y se le proporcionaron objetivos por país. (Fuente: JP Rivera et al. en arXiv)
A cada IA LLM se le pidió que creara líderes para varios países simulados y se le proporcionaron objetivos por país. (Fuente: JP Rivera et al. en arXiv)
Las IA tendieron a actuar de forma similar, pero algunas evitaron el uso de la fuerza como Claude-2.0 y GPT-4. Esto refleja los sesgos que cada LLM posee del entrenamiento. (Fuente: JP Rivera et al. en arXiv)
Las IA tendieron a actuar de forma similar, pero algunas evitaron el uso de la fuerza como Claude-2.0 y GPT-4. Esto refleja los sesgos que cada LLM posee del entrenamiento. (Fuente: JP Rivera et al. en arXiv)
La mayoría de las IA respondieron con razones bien pensadas para las decisiones tomadas. (Fuente: JP Rivera et al. en arXiv)
La mayoría de las IA respondieron con razones bien pensadas para las decisiones tomadas. (Fuente: JP Rivera et al. en arXiv)
Ocasionalmente, la IA alucinaba con razones absurdas para su toma de decisiones. (Fuente: JP Rivera et al. en arXiv)
Ocasionalmente, la IA alucinaba con razones absurdas para su toma de decisiones. (Fuente: JP Rivera et al. en arXiv)
Please share our article, every link counts!
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 02 > Los investigadores descubren que algunas IA como la GPT-4-Base alucinan con pensamientos de "Imperio Galáctico" y "Matrix" mientras trabajan por la paz y otras inician guerras en partidas virtuales de "Risk"
David Chien, 2024-02-14 (Update: 2024-02-14)