Tecnología

El chip Tesla D1 cuenta con 50 mil millones de transistores, escala hasta 1.1 ExaFLOPS con ExaPOD

El chip Tesla D1 cuenta con 50 mil millones de transistores, escala hasta 1.1 ExaFLOPS con ExaPOD

Tesla impulsa sus esfuerzos de inteligencia artificial con D1 Chip

Project Dojo vuelve a poner a Tesla en una carrera por soluciones de alto rendimiento para el entrenamiento de inteligencia artificial.

En Tesla AI Day, la compañía anunció su nuevo chip D1, procesadores personalizados basados ​​en tecnología de proceso de 7 nm con 50 mil millones de transistores. Este chip tiene un área de matriz de 645 mm², más pequeña que NVIDIA A100 (826 mm²) y AMD Arcturus (750 mm²). En cuanto a las especificaciones, el chip está equipado con 354 nodos de entrenamiento basados ​​en una CPU superescalar de 64 bits con 4 núcleos. Están diseñados específicamente para multiplicaciones de 8 × 8 y admiten una amplia gama de instrucciones utilizadas para el entrenamiento de IA, incluidas FP32, BFP16, CFP8, INT32, INT16 e INT8.

Según Tesla, su chip D1 ofrece 22,6 FLOPS de rendimiento de cómputo de precisión simple (FP32) y hasta 362 TFLOPS en BF16 / CFP8. Este rendimiento se logra dentro de un TDP de 400W para un solo chip D1. Para los entrenamientos de IA, la escalabilidad es un aspecto importante, razón por la cual Tesla creó interconexiones de alto ancho de banda (estructura de conmutación de baja latencia) con hasta 10 TB / s. El anillo de E / S alrededor del chip tiene 576 carriles, cada uno ofrece 112 Gbit / s de ancho de banda.

[Tesla] Día de la IA de Tesla (767,432 vistas)

Tesla D1 se puede vincular a través del procesador de interfaz Dojo. Las fichas se pueden colocar en las fichas de entrenamiento, cada una con 25 fichas D1. Esta loseta está hecha mediante un proceso de agua en abanico y presenta una solución cuboide completa con enfriamiento y suministro de energía. Esos mosaicos se pueden conectar más a otros cuboides creando una gran red de mosaicos de entrenamiento.

Tesla demostró un mosaico funcional en su laboratorio operando a 2 GHz. Training Tile ofrece hasta 9 PFLOPS de rendimiento informático.

Finalmente, Tesla reveló sus planes para una superordenador completa con chips D1. El ExaPOD se basa en 120 Training Tiles con 3000 chips D1 que ofrecen 1.062.000 nodos. Esta configuración ofrece hasta 1.1 ExaFLOPS de rendimiento de cómputo FP16 / CFP8. Una vez finalizado, ExaPod se convertirá en el superordenador de entrenamiento de IA más rápido con un rendimiento 4 veces mayor, un rendimiento 1,3 veces mejor por vatio y un espacio 5 veces más pequeño que los superordenadores actuales basados ​​en NVIDIA de Tesla.

Fuente: Tesla vía Base de ordenador



Leave a Comment

You may also like

Más