Notebookcheck Logo

Según un estudio: Los usuarios son la verdadera causa de las alucinaciones de la IA

Según un nuevo estudio, las alucinaciones de la IA están influidas por la forma en que se comunican los usuarios. (Fuente de la imagen: Pexels/Ketut Subiyanto)
Según un nuevo estudio, las alucinaciones de la IA están influidas por la forma en que se comunican los usuarios. (Fuente de la imagen: Pexels/Ketut Subiyanto)
Un estudio publicado recientemente demuestra que las indicaciones que se dan a los asistentes de IA desempeñan un papel importante en la aparición de las llamadas alucinaciones de IA. Se trata de una buena noticia para los usuarios, ya que sugiere que pueden reducir activamente las respuestas falsas o fabricadas mediante un diseño más eficaz de las indicaciones.

Hechos ficticios, citas inventadas o fuentes que parecen totalmente inventadas: la IA puede ser increíblemente útil, pero aún así conlleva el riesgo de alucinaciones. Según los investigadores de OpenAI, un factor clave es un sencillo mecanismo de recompensa que anima a la IA a hacer conjeturas. Un estudio de https://www.arxiv.org/pdf/2510.02645 publicado el 3 de octubre en arXiv.org también sugiere que los propios usuarios pueden desempeñar un papel a la hora de desencadenar estas respuestas alucinadas.

El estudio titulado "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions " sugiere que muchas de las llamadas alucinaciones de la IA pueden tener su origen en la forma de comunicarse de los usuarios. Los investigadores analizaron más de 13.000 conversaciones entre humanos y 1.357 interacciones reales entre personas y chatbots de IA. Los resultados muestran que los usuarios tienden a escribir de forma muy diferente cuando hablan con las IA: los mensajes son más cortos, menos gramaticales, menos educados y utilizan un vocabulario más limitado. Estas diferencias pueden influir en la claridad y confianza con que responden los modelos lingüísticos.

El análisis se centró en seis dimensiones lingüísticas, como la gramática, la cortesía, la gama de vocabulario y el contenido informativo. Aunque la gramática y la cortesía eran más de un 5% y un 14% superiores en las conversaciones entre humanos, la información real transmitida seguía siendo casi idéntica. En otras palabras, los usuarios comparten el mismo contenido con las IA, pero en un tono notablemente más áspero.

Los investigadores se refieren a esto como un "cambio de estilo" Dado que los grandes modelos lingüísticos como ChatGPT o Claude se entrenan con un lenguaje bien estructurado y educado, un cambio repentino de tono o estilo puede provocar interpretaciones erróneas o detalles inventados. En otras palabras, es más probable que las IA alucinen cuando reciben entradas poco claras, descorteses o mal escritas.

Posibles soluciones tanto por parte de la IA como del usuario

Si los modelos de IA se entrenan para manejar una gama más amplia de estilos lingüísticos, su capacidad para comprender la intención del usuario mejora, al menos en un 3%, según el estudio. Los investigadores también probaron un segundo enfoque: parafrasear automáticamente la entrada del usuario en tiempo real. Sin embargo, esto redujo ligeramente el rendimiento, ya que a menudo se perdían los matices emocionales y contextuales. Como resultado, los autores recomiendan hacer del entrenamiento consciente del estilo un nuevo estándar en el ajuste de la IA.

Si quiere que su asistente de IA produzca menos respuestas inventadas, el estudio sugiere tratarlo más como a un humano: escribiendo con frases completas, utilizando una gramática adecuada, manteniendo un estilo claro y adoptando un tono cortés.

Fuente(s)

Arxiv.org (Estudio / PDF)

Fuente de la imagen: Pexels / Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 10 > Según un estudio: Los usuarios son la verdadera causa de las alucinaciones de la IA
Marius Müller, 2025-10-18 (Update: 2025-10-18)