Notebookcheck Logo

SEAL muestra cómo la IA puede pensar y evolucionar continuamente

SEAL es una nueva capa de aprendizaje para modelos lingüísticos que se mejora continuamente a sí misma con sus propias "autoediciones". (Fuente de la imagen: DallE3)
SEAL es una nueva capa de aprendizaje para modelos lingüísticos que se mejora continuamente a sí misma con sus propias "autoediciones". (Fuente de la imagen: DallE3)
Los investigadores del MIT han desarrollado un marco que permite a los modelos lingüísticos existentes comportarse más como entidades pensantes, capaces de un desarrollo continuo e independiente. Sin embargo, el enfoque aún se enfrenta a varias limitaciones.

La inteligencia artificial es cada vez más versátil: genera imágenes, escribe poesía y construye aplicaciones. Sin embargo, sigue existiendo una limitación clave: los sistemas actuales tienen dificultades para evolucionar realmente más allá de su programación inicial. Ahí es exactamente donde entra en juego un nuevo concepto del Instituto Tecnológico de Massachusetts (MIT). Denominado SEAL, o Self-Adapting Language Models (modelos lingüísticos autoadaptables), este marco permite que los grandes modelos lingüísticos se comporten más como seres que aprenden. SEAL les permite procesar nueva información, generar sus propias percepciones y actualizar sus conocimientos en tiempo real, sin depender de conjuntos de datos externos ni de una amplia intervención de los desarrolladores. El trabajo de investigación se publicó el 12 de junio en arXiv.

Aprendizaje continuo sin intervención del desarrollador

"Especialmente en las empresas, no basta con recuperar datos: los sistemas deben ser capaces de adaptarse continuamente", afirma Jyothish Pari, estudiante de doctorado del MIT. SEAL está diseñado para hacer exactamente eso, mediante un proceso continuo de dos pasos. En primer lugar, la IA resume la nueva información, genera ejemplos relevantes y ajusta su configuración interna. Estos cambios se denominan "autoediciones"

A continuación, el sistema pone inmediatamente a prueba sus autoediciones: se somete a un breve reentrenamiento con los nuevos ajustes y se evalúa para ver si sus respuestas mejoran realmente. SEAL sólo conserva los cambios si los resultados muestran una clara mejora del rendimiento. Las pruebas comparativas confirman la eficacia de este método: en un cuestionario de preguntas y respuestas sin texto de apoyo, la precisión del modelo Qwen 2.5-7B pasa del 33,5% al 47%. En los acertijos ARC más desafiantes -tareas basadas en la lógica del Corpus de Abstracción y Razonamiento- el rendimiento sube incluso al 72,5%, más del triple de la puntuación original del modelo.

Gracias a este ciclo, SEAL se comporta casi como una entidad pensante: cada vez que surgen nuevos hechos o preguntas, el modelo "reflexiona" sobre lo que importa, genera sus propios ejemplos y ajusta su configuración para aplicar mejor lo que ha aprendido. Como este proceso se ejecuta continuamente, la IA siempre está aprendiendo. Ya no depende del ajuste fino de un desarrollador independiente, sino que utiliza los textos entrantes como material de entrenamiento, generando sus propios datos sobre la marcha.

SEAL abre varias posibilidades a la vez. En el futuro, los chatbots podrían adaptarse de forma natural a las preferencias personales de los usuarios sin necesidad de enviar datos sensibles a servidores externos. Las herramientas de desarrollo e investigación también podrían evolucionar de forma más independiente, ajustándose a los cambiantes requisitos de los proyectos sin tener que volver a formarse cada vez. E incluso si los datos de texto disponibles públicamente llegaran a escasear, SEAL podría generar su propio material de entrenamiento mediante ejemplos creados por él mismo, lo que ofrecería una forma inteligente de sortear la posible escasez de datos.

Gran potencial, pero no sin obstáculos

Aunque SEAL es muy prometedor para avanzar en el desarrollo de la IA, los investigadores señalan tres retos principales:

  • En primer lugar, está la cuestión del olvido catastrófico: a medida que el modelo integra continuamente nuevas autoediciones, su capacidad para realizar tareas anteriores disminuye gradualmente. El estudio ya muestra los primeros indicios de este efecto.
  • En segundo lugar, el coste computacional es considerable, ya que cada autoedición requiere un breve paso de ajuste. Según el estudio, un ciclo completo tarda entre 30 y 45 segundos, lo que aumenta significativamente el coste operativo de ejecutar modelos grandes.
  • En tercer lugar, verificar la precisión de las autoediciones sigue siendo un reto. Las pruebas de rendimiento evalúan principalmente lo convincente que suena una respuesta, más que si es realmente correcta. Los usuarios en Reddit ya han expresado su preocupación por la posibilidad de que el sistema acepte como mejoras autoediciones que suenen plausibles pero incorrectas, y que luego interiorice estos errores de forma permanente.

Fuente(s)

Please share our article, every link counts!
Mail Logo
Marius Müller, 2025-06-26 (Update: 2025-06-27)