Notebookcheck Logo

La protección de datos, a examen: Un estudio evalúa y clasifica los modelos de IA en función de la privacidad de los usuarios

La protección de datos puesta a prueba: ¿Qué modelos de IA respetan más sus datos? (Fuente de la imagen: GPT-image-1)
La protección de datos puesta a prueba: ¿Qué modelos de IA respetan más sus datos? (Fuente de la imagen: GPT-image-1)
Un estudio reciente de Incogni ha evaluado nueve de las principales plataformas de IA en función de sus prácticas de privacidad. La clasificación muestra que Le Chat de Mistral AI, ChatGPT de OpenAI y Grok de xAI son las más fiables, mientras que Meta AI, Gemini y Copilot de Microsoft son las menos fiables.

El uso de la inteligencia artificial (IA) en la vida cotidiana es cada vez mayor, y con él la importancia de la protección de datos. Los analistas de protección de datos de Incogni han evaluado recientemente nueve grandes modelos de lenguaje (LLM) para determinar qué plataformas respetan más la privacidad de los usuarios. El estudio evalúa los modelos de IA en función de once criterios divididos en tres categorías principales: recopilación de datos para el entrenamiento, transparencia y uso e intercambio de datos.

Mejores clasificaciones

Le Chat de Mistral AI encabeza la clasificación. Según Incogni, el modelo recopila comparativamente pocos datos de los usuarios y ofrece un enfoque muy eficiente de los datos, tanto durante la fase de formación como en el funcionamiento en directo. Le sigue de cerca ChatGPT de OpenAI, que gana puntos sobre todo por su transparencia. Los usuarios pueden especificar en su cuenta si sus chats pueden utilizarse para seguir desarrollando el modelo, y si se desactiva el historial, se impide su almacenamiento. Grok de xAI ocupa el tercer lugar, impresionando también por sus prácticas transparentes de protección de datos.

Los últimos de la clasificación

Al final de la clasificación se encuentran Meta AI, Gemini de Google y Copilot de Microsoft. Según Incogni, estas plataformas recopilan gran cantidad de datos sin ofrecer a los usuarios opciones claras de exclusión. DeepSeek, un modelo chino, también obtiene malos resultados. Estos proveedores no ofrecen opciones claras para excluir los datos de los usuarios del entrenamiento.

Metodología

Los analistas de Incogni evaluaron las plataformas basándose en once criterios divididos en tres categorías: recopilación de datos para la formación, transparencia y uso e intercambio de datos. La categoría "uso e intercambio de datos" representó el 50% de la calificación global, mientras que "transparencia" supuso el 30% y "datos para la formación" el 20%. Sólo cuatro de las nueve herramientas probadas permiten a los usuarios excluir activamente sus datos de la formación.

Conclusión

El estudio muestra que la protección de datos aún no es una norma en todo el mundo de la IA. Por lo tanto, los usuarios deben familiarizarse activamente con las políticas de privacidad de los proveedores, especialmente cuando se trata de contenido sensible, información confidencial de clientes o datos personales. Quienes valoren la protección de datos encontrarán opciones razonables en Le Chat, ChatGPT o Grok. Sin embargo, los LLM verdaderamente eficaces en materia de datos seguirán siendo la excepción en 2025

La protección de datos puesta a prueba: ¿Qué modelos de IA respetan más sus datos? (Fuente de la imagen: GPT-image-1)
La protección de datos puesta a prueba: ¿Qué modelos de IA respetan más sus datos? (Fuente de la imagen: GPT-image-1)

Fuente(s)

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 09 > La protección de datos, a examen: Un estudio evalúa y clasifica los modelos de IA en función de la privacidad de los usuarios
Ulrich Mathey, 2025-09-26 (Update: 2025-09-26)