Notebookcheck Logo

NVLink Fusion amplía el tejido informático de baja latencia a CPU y aceleradores de terceros

Nvidia abre NVLink Fusion a un ecosistema de silicio más amplio. En la imagen: Oficina Endeavor de Nvidia (Fuente de la imagen: Nvidia)
Nvidia abre NVLink Fusion a un ecosistema de silicio más amplio. En la imagen: Oficina Endeavor de Nvidia (Fuente de la imagen: Nvidia)
NVLink Fusion de Nvidia lleva su tejido informático NVLink de baja latencia y gran ancho de banda fuera del chip como un diminuto chiplet. Ofrece hasta 14 veces el ancho de banda de un carril PCIe al tiempo que preserva el acceso semántico a la memoria entre dispositivos.

Nvidia ha presentado en https://nvidianews.nvidia.com/news/nvidia-nvlink-fusion-semi-custom-ai-infrastructure-partner-ecosystem NVLink Fusion, una interfaz a nivel de chip que amplía el tejido NVLink propiedad de la compañía más allá de sus procesadores. Anunciado en Computex 2025, el nuevo silicio permite a las CPU de terceros y a los aceleradores personalizados compartir la misma ruta de baja latencia y gran ancho de banda que ya conecta las GPU de Nvidia dentro de las "fábricas de IA" a escala de bastidor

NVLink Fusion traslada la tecnología de una conexión placa a placa a un pequeño chip que los diseñadores pueden colocar junto a sus propias matrices de cálculo. El enlace sigue basándose en la conocida señalización PCIe, pero proporciona hasta 14 veces el ancho de banda de un carril PCIe estándar, al tiempo que preserva el acceso semántico a la memoria entre dispositivos. Este tejido escalable complementa los productos existentes Spectrum-X Ethernet y Quantum-X InfiniBand de Nvidia, que gestionan el tráfico escalable entre bastidores.

Ya han firmado varios socios. MediaTek, Marvell, Alchip, Astera Labs, Cadence y Synopsys suministrarán ASIC personalizados, bloques IP o servicios de diseño que utilicen el nuevo protocolo. Por el lado de las CPU, Fujitsu planea emparejar su próximo procesador Monaka de 2 nm y 144 núcleos con NVLink Fusion, mientras que Qualcomm acoplará la interfaz a su CPU de servidor basada en Arm. Ambos proveedores pretenden encajar sus chips en los sistemas de referencia a escala de bastidor de Nvidia sin renunciar al acceso directo a la GPU.

Los operadores de nubes a hiperescala pueden mezclar estas piezas habilitadas para NVLink Fusion con las propias CPU Grace y GPU de clase Blackwelly, a continuación, unir grandes islas de GPU a través de una red de 800 Gb/s. El resultado es una ruta modular hacia clusters que abarcan miles o incluso millones de aceleradores sin las penalizaciones de rendimiento típicas de los diseños sólo PCIe.

Al licenciar una pieza central de su pila, Nvidia se posiciona como el tejido conectivo para el hardware heterogéneo de IA en lugar de un proveedor de caja cerrada. Los competidores que luchaban por igualar el ancho de banda de NVLink ahora pueden montarlo en su lugar, pero deben hacerlo dentro del marco más amplio de software y redes de Nvidia.

Fuente(s)

Nvidia (en inglés)

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2025 05 > NVLink Fusion amplía el tejido informático de baja latencia a CPU y aceleradores de terceros
Nathan Ali, 2025-05-20 (Update: 2025-05-20)