Notebookcheck Logo

Un estudio demuestra que los chatbots de IA proporcionan información menos precisa a los usuarios vulnerables

Una imagen decorativa que muestra el acrónimo
ⓘ Igor Omilaev via Unsplash
Una imagen decorativa que muestra el acrónimo "AI"
Un estudio reciente del Centro de Comunicación Constructiva del MIT revela que los principales modelos lingüísticos de gran tamaño ofrecen respuestas menos precisas, y a veces condescendientes, a los usuarios con un menor dominio del inglés, una educación menos formal y de origen no estadounidense.

Los grandes modelos lingüísticos han sido ampliamente defendidos como herramientas revolucionarias capaces de democratizar el acceso global a la información. Sin embargo, una nueva investigación del Centro para la Comunicación Constructiva del Instituto Tecnológico de Massachusetts indica que estos sistemas de inteligencia artificial rinden sistemáticamente por debajo de sus posibilidades para los grupos demográficos vulnerables que más podrían beneficiarse de ellos.

Presentado en la Conferencia sobre Inteligencia Artificial de la AAAI, el estudio investigó los chatbots más avanzados, incluidos el GPT-4 de OpenAI, el Claude 3 Opus de Anthropic y el Llama 3 de Meta. Los investigadores probaron los modelos utilizando los conjuntos de datos TruthfulQA y SciQ para medir la precisión de los hechos y la veracidad, al tiempo que añadían biografías de usuarios que variaban según el nivel educativo, el dominio del inglés y el país de origen. Los resultados demostraron un descenso significativo de la precisión en el caso de los usuarios con menor educación formal o menor dominio del inglés. Estos efectos negativos se agravaron gravemente para los usuarios que se encontraban en la intersección de ambas categorías.

La investigación también puso de manifiesto disparidades alarmantes en la forma en que los modelos gestionaban las consultas. Claude 3 Opus, por ejemplo, se negó a responder a casi el 11% de las preguntas de los usuarios con menor nivel educativo y que no eran hablantes nativos de inglés, en comparación con sólo el 3,6% de los usuarios de control. En muchas de estas negativas, el modelo respondió con un lenguaje condescendiente, paternalista o burlón, imitando en ocasiones un inglés entrecortado. Los modelos también ocultaron información objetiva sobre temas como la energía nuclear y los acontecimientos históricos específicamente a los usuarios con menos formación procedentes de países como Irán o Rusia, a pesar de responder correctamente a las mismas preguntas para otros perfiles demográficos.

Los investigadores advierten de que, a medida que las funciones de personalización se hacen cada vez más comunes, estos sesgos sociocognitivos inherentes corren el riesgo de exacerbar las desigualdades existentes en materia de información al difundir silenciosamente comportamientos nocivos e información errónea a quienes están menos preparados para identificarlos.

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2026 02 > Un estudio demuestra que los chatbots de IA proporcionan información menos precisa a los usuarios vulnerables
Chibuike Okpara, 2026-02-24 (Update: 2026-02-24)