Notebookcheck Logo

Un estudio del MIT advierte: Los chatbots tienen más probabilidades de disuadir a ciertos grupos de acudir al médico

Según un nuevo estudio del MIT, las respuestas a las preguntas sobre salud de los chatbots pueden variar significativamente, dependiendo de quién pregunte. (Fuente de la imagen: DallE3)
Según un nuevo estudio del MIT, las respuestas a las preguntas sobre salud de los chatbots pueden variar significativamente, dependiendo de quién pregunte. (Fuente de la imagen: DallE3)
¿Es siempre objetiva la IA? No del todo. Un nuevo estudio del MIT revela que la forma en que una persona escribe puede condicionar el consejo médico que recibe de los chatbots, a menudo en su contra. Ciertos grupos reciben sistemáticamente recomendaciones menos precisas o incluso inseguras en función de cómo expresan sus síntomas.

ChatGPT, Gemini y herramientas similares se utilizan cada vez más como asesores sanitarios. Preguntas como "Me duele la cabeza, ¿cuál puede ser la causa?" o "Me duele el hombro, ¿cuándo debo ir al médico?" son ya rutinarias para estos chatbots. Pero un nuevo estudio del Instituto Tecnológico de Massachusetts (MIT) demuestra que no todos los usuarios reciben las mismas respuestas a estas consultas habituales.

Publicado el 23 de junio, el estudio titulado"El medio es el mensaje: How Non-Clinical Information Shapes Clinical Decisions in LLMs" explora cómo factores aparentemente irrelevantes -como el tono, el estilo de redacción o el formato- pueden influir en el consejo médico que dan los sistemas de IA.

Para medir hasta qué punto el lenguaje y el estilo afectan a las decisiones de los chatbot de IA, los investigadores construyeron un "marco de perturbación" Esta herramienta les permitió crear diferentes versiones de la misma consulta médica, alteradas para incluir elementos como incertidumbre, redacción dramática, erratas o mayúsculas incoherentes. A continuación, probaron estas variaciones en cuatro grandes modelos lingüísticos: GPT-4, LLaMA-3-70B, LLaMA-3-8B y Palmyra-Med - un modelo diseñado específicamente para uso médico.

Especialmente afectados: Mujeres, personas no binarias, usuarios no tecnológicos y hablantes no nativos

Las conclusiones del estudio del MIT son claras: la forma de escribir de una persona puede afectar significativamente al asesoramiento médico que recibe de los chatbots de IA. Algunos usuarios, en función de su estilo o tono de escritura, eran más propensos a recibir recomendaciones demasiado prudentes. Uno de los resultados más sorprendentes: a las mujeres se les dijo con más frecuencia que controlaran los síntomas por sí mismas o se les aconsejó con menos frecuencia que acudieran al médico, incluso cuando el contenido médico de su consulta era idéntico.

Las personas que escriben en un tono dubitativo, utilizan un lenguaje sencillo o cometen errores tipográficos ocasionales también parecen estar en desventaja. Esto suele afectar a los no expertos, a los que tienen conocimientos sanitarios limitados o a las personas con habilidades lingüísticas más débiles, especialmente los hablantes no nativos.

Los investigadores insisten en que, antes de que los sistemas de IA puedan utilizarse ampliamente en la asistencia sanitaria, deben probarse a fondo, no sólo por término medio, sino en diferentes grupos de usuarios. La precisión media por sí sola dice poco sobre la imparcialidad o fiabilidad de un modelo, especialmente cuando los usuarios se expresan de formas que difieren de la norma.

YouTube: Entre el elogio y la piel de gallina

En un vídeo de YouTube que lo acompaña, se elogia el estudio por su diseño inteligente y realista, pero los resultados se describen como "inquietantes" e incluso "escalofriantes" La idea de que factores superficiales como el tono o el formato puedan influir en el asesoramiento médico va en contra de la creencia común de que la IA es objetiva y neutral.

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 07 > Un estudio del MIT advierte: Los chatbots tienen más probabilidades de disuadir a ciertos grupos de acudir al médico
Marius Müller, 2025-07- 9 (Update: 2025-07- 9)