Un estudio del MIT advierte: Los chatbots tienen más probabilidades de disuadir a ciertos grupos de acudir al médico

ChatGPT, Gemini y herramientas similares se utilizan cada vez más como asesores sanitarios. Preguntas como "Me duele la cabeza, ¿cuál puede ser la causa?" o "Me duele el hombro, ¿cuándo debo ir al médico?" son ya rutinarias para estos chatbots. Pero un nuevo estudio del Instituto Tecnológico de Massachusetts (MIT) demuestra que no todos los usuarios reciben las mismas respuestas a estas consultas habituales.
Publicado el 23 de junio, el estudio titulado"El medio es el mensaje: How Non-Clinical Information Shapes Clinical Decisions in LLMs" explora cómo factores aparentemente irrelevantes -como el tono, el estilo de redacción o el formato- pueden influir en el consejo médico que dan los sistemas de IA.
Para medir hasta qué punto el lenguaje y el estilo afectan a las decisiones de los chatbot de IA, los investigadores construyeron un "marco de perturbación" Esta herramienta les permitió crear diferentes versiones de la misma consulta médica, alteradas para incluir elementos como incertidumbre, redacción dramática, erratas o mayúsculas incoherentes. A continuación, probaron estas variaciones en cuatro grandes modelos lingüísticos: GPT-4, LLaMA-3-70B, LLaMA-3-8B y Palmyra-Med - un modelo diseñado específicamente para uso médico.
Especialmente afectados: Mujeres, personas no binarias, usuarios no tecnológicos y hablantes no nativos
Las conclusiones del estudio del MIT son claras: la forma de escribir de una persona puede afectar significativamente al asesoramiento médico que recibe de los chatbots de IA. Algunos usuarios, en función de su estilo o tono de escritura, eran más propensos a recibir recomendaciones demasiado prudentes. Uno de los resultados más sorprendentes: a las mujeres se les dijo con más frecuencia que controlaran los síntomas por sí mismas o se les aconsejó con menos frecuencia que acudieran al médico, incluso cuando el contenido médico de su consulta era idéntico.
Las personas que escriben en un tono dubitativo, utilizan un lenguaje sencillo o cometen errores tipográficos ocasionales también parecen estar en desventaja. Esto suele afectar a los no expertos, a los que tienen conocimientos sanitarios limitados o a las personas con habilidades lingüísticas más débiles, especialmente los hablantes no nativos.
Los investigadores insisten en que, antes de que los sistemas de IA puedan utilizarse ampliamente en la asistencia sanitaria, deben probarse a fondo, no sólo por término medio, sino en diferentes grupos de usuarios. La precisión media por sí sola dice poco sobre la imparcialidad o fiabilidad de un modelo, especialmente cuando los usuarios se expresan de formas que difieren de la norma.
YouTube: Entre el elogio y la piel de gallina
En un vídeo de YouTube que lo acompaña, se elogia el estudio por su diseño inteligente y realista, pero los resultados se describen como "inquietantes" e incluso "escalofriantes" La idea de que factores superficiales como el tono o el formato puedan influir en el asesoramiento médico va en contra de la creencia común de que la IA es objetiva y neutral.
Fuente(s)
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck