
De los datos al delirio: Cómo se producen realmente las alucinaciones de la IA
Darryl Linington (traducido por Ninh Duy) Publicado 🇺🇸 🇫🇷 ...
¿Qué es una alucinación? En términos de IA, al menos
Así que, éste es el asunto. Usted le pregunta algo a su chatbot. Le da una respuesta que suena inteligente, utiliza todas las palabras correctas, incluso incluye una cita o dos. Luego lo busca y es pura ficción.
Bienvenido al maravilloso mundo de las alucinaciones de la IA.
Esto no es un error. No es culpa suya. Y no, la IA no está "intentando mentir" Sólo está... haciendo aquello para lo que fue diseñada: encadenar palabras que estadísticamente parece que pertenecen una al lado de la otra. Eso es todo.
No es "pensar" Está haciendo el loco.
Estos modelos lingüísticos - ChatGPT, Claude, Géminis, todos ellos - no entienden de hechos. No saben nada. Han leído miles de millones de palabras y ahora juegan a este interminable juego de autocompletar. Eso es realmente todo lo que hacen.
Entonces, ¿qué ocurre cuando hay una laguna en lo que han "visto" durante el entrenamiento? Adivinan. A veces alocadamente. Pero siempre con confianza.
He aquí cómo ocurre realmente el lío bajo el capó
Los grandes modelos lingüísticos (LLM) se entrenan con cantidades asombrosas de texto: piense en libros, sitios web, diatribas de Reddit, revistas académicas, todo mezclado en una batidora. El modelo no "recuerda" esta información como lo hacemos nosotros. En su lugar, aprende patrones: qué palabras tienden a seguir a otras palabras, qué conceptos aparecen juntos con frecuencia, qué estructuras de frases parecen "correctas", etc.
Cuando usted escribe una indicación, el modelo empieza a predecir, un token (fragmento de una palabra) cada vez. No planifica un párrafo ni comprueba si lo que está diciendo se ajusta a la realidad. Intenta encadenar una respuesta estadísticamente probable... sin conciencia, sin comprobación, sin conciencia.
Ahora bien, si los datos de entrenamiento no cubrían adecuadamente su pregunta -o sí lo hacían, pero el modelo no acaba de "recordarla"- las cosas se ponen delicadas. Puede que empiece a inferir la respuesta basándose en cosas que suenan parecido. Piense que es como el autocompletado con esteroides, sólo que inventando conexiones.
¿Un ejemplo? Si le pregunta por un caso judicial que le suena familiar, el modelo podría mezclar detalles de casos similares que vio durante el entrenamiento. De repente, obtendrá una sentencia Frankenstein de un juez que no existe sobre una ley que nunca se aprobó.
¿El problema? No sabe que está equivocado. No fue construido para saber. Fue construido para adivinar.
Algunas formas comunes en que esto se sale de madre:
- No hay suficientes datos sobre el tema → la IA rellena los espacios en blanco con tonterías.
- Le hace una pregunta vaga o complicada → inventa una respuesta que suene limpia para parecer útil.
- Quiere parecer inteligente → así que imita la forma de escribir de la gente inteligente, aunque se lo esté inventando todo.
- Ha visto un millón de citas → así que formatea las falsas maravillosamente.
Esto no es hipotético - la gente se ha quemado
Probablemente ya haya visto esto en acción. Pero si no, aquí está lo que parece:
- Estudios académicos falsos: Parecen reales. Tiene autores, un título, una revista. No existe.
- Casos judiciales imaginarios: Abogados reales los han presentado en archivos. A los jueces... no les ha entusiasmado.
- Consejos médicos inventados: El bot podría decirle que la col rizada interactúa con el ibuprofeno. No lo hace. (Probablemente.)
Y sí, la gente se cree estas cosas. Porque suena bien. Ésa es la trampa.
Puede incluso gaslight usted
Y aquí viene lo realmente sorprendente: si usted se opone.. Pregúntele: "¿Está seguro?" La IA podría redoblar la apuesta. Reformule la mentira. Suavícela. Cita otra fuente falsa. No está siendo maliciosa, literalmente simplemente no sabe hacerlo mejor. Piensa: "¿Quieres una versión mejor de esa última alucinación? No diga más"
Bienvenido al desfile de la luz de gas, ahora con citas.
Qué se está haciendo al respecto (además de lamentarse)
Para ser justos, los desarrolladores están intentando arreglarlo. Nadie quiere que su herramienta sea conocida por soltar mentiras con toda confianza. Esto es lo que está en juego:
1. Human-in-the-loop training (RLHF)
Básicamente: personas reales dan su opinión sobre las respuestas de la IA, puntuándolas como si fueran malas críticas de Yelp. Ayuda, más o menos.
2. Dejar que la IA "busque cosas" (RAG)
En lugar de basarse sólo en la memoria, algunos modelos ahora extraen datos en directo de Wikipedia o de bases de conocimientos. Es como dar al becario acceso a Internet en lugar de dejarle adivinar.
3. Complementos de comprobación de hechos
Algunas plataformas incorporan comprobadores de hechos o se niegan a responder si la IA no está segura. Se trata de algo nuevo y todavía un poco impreciso.
4. Preguntas más inteligentes = menos BS
Si hace una pregunta clara y específica, es menos probable que la IA improvise. Ejemplo: "Deme cinco fuentes revisadas por expertos sobre los beneficios de la fruta del dragón" es mejor que "¿Es sana la fruta del dragón?"
5. Filtros de confianza
Algunas IAs dirán ahora "No estoy seguro de eso" en lugar de inventarse algo. Lo cual, sinceramente, es un alivio.
Por qué esto no es sólo una rareza divertida
Estas cosas importan. Una alucinación en una conversación casual es lo que sea. ¿Pero en un tribunal? ¿En una redacción? ¿En un hospital? Es un lío.
Imagínese a un estudiante marcado por plagio porque la IA se inventó una fuente. O a un paciente recibiendo un mal consejo. O una decisión empresarial tomada basándose en un dato estadístico que el robot sacó de la nada.
Estos modelos se están incorporando a los motores de búsqueda y a las herramientas empresariales. El riesgo ya está aquí.
Palabras finales
Mire, la IA es increíble. Puede ayudarle a generar ideas, resumir, reescribir, traducir... lo que quiera. Pero nunca olvide que no sabe lo que dice. Sólo quiere sonar convincente.
Si no se fiaría de un desconocido de conversación suave en un bar que "leyó algo una vez", tampoco confíe ciegamente en su chatbot.
Utilícelo. Pero compruébelo todo. Siempre.
Porque cuando se equivoque, no dudará. Simplemente aparecerá un emoji riéndose y seguirá hablando.
Fuente(s)
Investigación y experiencia propias
Fuente de la imagen: Valeria Nikitina - Unsplash
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck