Notebookcheck Logo

Los últimos modelos de IA de código abierto de DeepSeek aterrizan para desafiar a GPT-5 y Gemini 3.0 Pro

DeepSeek, cuyo logotipo aparece en la imagen, vuelve con dos nuevos modelos de IA de código abierto. (Imagen cortesía de DeepSeek)
DeepSeek, cuyo logotipo aparece en la imagen, vuelve con dos nuevos modelos de IA de código abierto. (Imagen cortesía de DeepSeek)
DeepSeek está de vuelta con nuevos modelos de IA de código abierto: DeepSeek V3.2 y V3.2-Speciale. Se dice que desafían tanto a OpenAI como a las creaciones de Google. Esto es lo que se sabe de ellos hasta la fecha.

Tras arrasar mundo y hacer caer las bolsas estadounidenses en enero de 2025, DeepSeek ha anunciado ahora dos nuevos modelos de IA de código abierto: DeepSeek V3.2 y DeepSeek V3.2-Speciale.

El lanzamiento marca una continuación de la estrategia diferenciada de la empresa en la carrera armamentística de la IA. Mientras OpenAI y Google han invertido miles de millones de dólares en computación para entrenar sus modelos de frontera, priorizando a toda costa las ganancias de rendimiento, DeepSeek ha tomado un camino diferente. Su anterior modelo R1 destacó por conseguir un rendimiento a la altura de GPT 4o y Gemini 2.5 Pro mediante ingeniosas técnicas de refuerzo, a pesar de haber sido entrenado en chips menos avanzados.

Supera al GPT-5 e iguala al Gemini 3 Pro de Google

El DeepSeek-V3.2 estándar se posiciona como un "conductor diario" equilibrado, que armoniza la eficacia con un rendimiento agéntico que, según la empresa, es comparable al GPT-5. También es el primer modelo de DeepSeek que integra el pensamiento directamente en el uso de las herramientas, permitiéndose este último tanto en el modo de pensamiento como en el de no pensamiento.

Sin embargo, es la variante de alta computación DeepSeek V3.2-Speciale la que acaparará los titulares. DeepSeek afirma que el modelo Speciale supera al GPT-5 y rivaliza con el Gemini 3.0 Pro de Google en capacidades de razonamiento puro. Incluso consiguió la medalla de oro en la Olimpiada Internacional de Matemáticas (IMO) de 2025 y en la Olimpiada Internacional de Informática (IOI). Y para demostrar que no se trata sólo de palabrería de marketing, DeepSeek afirma que ha hecho públicas sus presentaciones finales para estas competiciones para su verificación por parte de la comunidad.

DeepSeek atribuye el aumento del rendimiento a "DeepSeek Sparse Attention" (DSA), un mecanismo diseñado para reducir la complejidad computacional en escenarios de contexto largo, y a un marco de aprendizaje por refuerzo escalable.

Quizá lo más interesante para los desarrolladores sea el enfoque en los agentes. DeepSeek ha construido un "conducto de síntesis de tareas de agentes a gran escala" para entrenar el modelo con más de 85.000 instrucciones complejas. El resultado es un modelo que puede integrar procesos de "pensamiento" directamente en escenarios de uso de herramientas.

Disponibilidad

DeepSeek V3.2 ya está disponible en la web, las aplicaciones móviles y la API. Mientras tanto, la V3.2 Speciale es actualmente sólo API y viene con un punto final estrictamente temporal que expira el 15 de diciembre de 2025. Además, Speciale es un motor de razonamiento puro y no admite la llamada a herramientas. Si está interesado en ejecutar estos modelos localmente, la empresa tiene instrucciones detalladas para ello aquí.

Los nuevos modelos de IA de DeepSeek, en particular la V3.2 Speciale, superan a la GPT-5 en varias pruebas comparativas. (Imagen cortesía de DeepSeek)
Los nuevos modelos de IA de DeepSeek, en particular la V3.2 Speciale, superan a la GPT-5 en varias pruebas comparativas. (Imagen cortesía de DeepSeek)

Fuente(s)

DeepSeek, HuggingFace (1), (2)

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 12 > Los últimos modelos de IA de código abierto de DeepSeek aterrizan para desafiar a GPT-5 y Gemini 3.0 Pro
Kishan Vyas, 2025-12- 3 (Update: 2025-12- 3)