Notebookcheck Logo

Anthropic desvela los modelos de IA Claude 4: Más inteligentes y potencialmente más peligrosos

Anthropic lanza la IA de la serie Claude 4 al tiempo que activa medidas de seguridad más estrictas contra el uso indebido en el desarrollo de armas. (Fuente de la imagen: Anthropic)
Anthropic lanza la IA de la serie Claude 4 al tiempo que activa medidas de seguridad más estrictas contra el uso indebido en el desarrollo de armas. (Fuente de la imagen: Anthropic)
Anthropic ha lanzado los modelos más inteligentes de IA Claude Opus 4 y Sonnet 4 con capacidades mejoradas de codificación y análisis de datos. Se han implementado medidas de seguridad más estrictas en su modelo más inteligente, Opus 4, para evitar su uso indebido en la creación de armas.

Anthropic ha lanzado el Claude Opus 4 y Claude Sonnet 4 modelos de inteligencia artificial con mayor precisión, capacidad y rendimiento.

Opus es el modelo más inteligente de la empresa, capaz de trabajar en problemas complejos y difíciles durante horas sin parar. Algunos de los primeros usuarios lo encontraron trabajando de forma independiente en tareas de programación durante siete horas, y la IA puede recordar mejor las entradas y los resultados para mejorar las respuestas. Sonnet es su modelo general para respuestas rápidas a indicaciones generales. Ambos han mejorado la precisión de codificación para ayudar a los programadores a crear las últimas aplicaciones.

Ambos modelos pueden actuar como analistas de datos escribiendo código Python para analizar y visualizar conjuntos de datos. Varias funciones nuevas de la API permiten a las empresas crear apps personalizadas que integran Claude para mejorar el análisis y la funcionalidad de los datos empresariales. Claude Code permite a la IA trabajar dentro de IDEs populares como VS Code y JetBrains para ayudar a los programadores a codificar mejor.

Anthropic ha activado sus normas de despliegue y seguridad del nivel de seguridad 3 (ASL-3) de la IA https://www.anthropic.com/activating-asl3-report como medida de precaución para Claude Opus 4 porque la empresa aún no ha descartado la posibilidad de que la IA sea capaz de realizar actos peligrosos, como ser jailbreakeada y utilizada para crear armas químicas, biológicas, radiológicas y nucleares (QBRN).

Los lectores que quieran experimentar las ventajas de la IA antrópica en el trabajo pueden utilizar Plaude Note o Plaude NotePin para resumir y transcribir automáticamente clases y reuniones. Los que se queden trabajando desde casa pueden chatear con Claude después de descargándose la aplicación Anthropic para portátiles y smartphones.

Los modelos de IA Claude 4 de Anthropic obtienen, en general, mejores resultados que el modelo anterior de la empresa en los puntos de referencia estandarizados de IA. (Fuente de la imagen: Anthropic)
Los modelos de IA Claude 4 de Anthropic obtienen, en general, mejores resultados que el modelo anterior de la empresa en los puntos de referencia estandarizados de IA. (Fuente de la imagen: Anthropic)
El Claude Opus 4 de Anthropic es más inteligente que nunca, pero esto ha requerido la aplicación de medidas de seguridad más estrictas del ASL-3 para evitar que cree armas peligrosas. (Fuente de la imagen: Anthropic)
El Claude Opus 4 de Anthropic es más inteligente que nunca, pero esto ha requerido la aplicación de medidas de seguridad más estrictas del ASL-3 para evitar que cree armas peligrosas. (Fuente de la imagen: Anthropic)
Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 05 > Anthropic desvela los modelos de IA Claude 4: Más inteligentes y potencialmente más peligrosos
David Chien, 2025-05-26 (Update: 2025-05-26)