Tecnología

Amperio: Nvidia trae A100 con 80 GB HBM2e como tarjeta PCIe

Amperio: Nvidia trae A100 con 80 GB HBM2e como tarjeta PCIe
Imagen: Nvidia

Nvidia ahora también ofrece la “GPU A100 Tensor Core” basada en la arquitectura Ampere en formato PCIe con 80 en lugar de 40 GB de memoria. Los compradores deberían beneficiarse del doble de memoria durante el entrenamiento de IA, especialmente con modelos particularmente grandes. El soporte para la tarjeta está disponible en numerosas empresas en el entorno del servidor.

Después del A100 como SXM4 y PCIe y del A100 80GB como SXM4, el A100 80GB PCIe presentado hoy es la cuarta implementación de la “GPU A100 Tensor Core”.

HBM2e proporciona un ancho de banda de memoria de 2 TB / s

La “GPU A100 80GB” tiene una estructura comparable a la “GPU A100 Tensor Core”, ya que los cambios en el hardware se limitan a la memoria. Con esto, Nvidia ahora está cambiando de HBM2 a HBM2e para la tarjeta PCIe después del módulo SXM4. En HBM2e, una pila de memoria consta de hasta ocho chips de 16 Gbit apilados uno encima del otro, de modo que con una pila son posibles hasta 16 GB en lugar de los 8 GB de HBM2, que ya se utilizaba en Volta. Al igual que con la “GPU A100 Tensor Core”, supuestamente hay seis pilas HBM2e reunidas alrededor de la GPU, pero de hecho hay cinco pilas de 16 GB cada una, lo que da como resultado un total de 80 GB, y una pila ficticia alrededor de la compensación para presión de contacto del disipador pasivo grande. Con cinco pilas de almacenamiento de 410 GB / s cada una, Nvidia rompe la marca correspondiente con 2.002 TB / s.

Los modelos especialmente grandes deberían beneficiarse de la memoria duplicada durante el entrenamiento de IA. Incluso en la presentación de Ampere, se dijo que la arquitectura se había desarrollado para los requisitos de recursos en crecimiento exponencial de la formación de redes neuronales y la inferencia en el centro de datos. Se proporcionan ejemplos para el uso de la variante de 80 GB en el artículo que anuncia el módulo SXM4 con la misma configuración.

La tarjeta pasiva usa flujo de aire en el servidor

ComputerBase ha recibido la confirmación de Nvidia de que el PCIe A100 de 80 GB se especifica con 300 vatios. Eso es 50 vatios más que con el A100 PCIe, mientras que no hay diferenciación de TDP entre 40 GB y 80 GB con los módulos SXM4. A pesar del TDP reducido, Nvidia anuncia los mismos datos de rendimiento, pero estos son valores máximos.

El PCIe A100 de 80 GB viene como una tarjeta de dos ranuras de altura, supuestamente enfriada pasivamente, que se enfría activamente mediante el flujo de aire en el servidor. Los partidarios de la tarjeta en el entorno del servidor son los proveedores Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT y Supermicro. También participan proveedores de la nube como Amazon Web Services, Microsoft Azure y Oracle Cloud Infrastructure.

Leave a Comment

You may also like

Más