NVIDIA Tesla A100, así es el diseño de la nueva solución para IA y Deep Learning
Ayer se publicaba un vídeo en el cual Jen-Hsun Huang, CEO de NVIDIA, sacaba del horno una nueva plataforma HPC basada en Ampere. Esta nueva solución está especialmente pensada para IA, Deep Learning, Machine Learning y demás. Ahora hemos conocido algo más al respecto de los silicios que se integran en dicha plataforma. Justo unas horas antes de que se inicie el GTC 2020.
Concretamente se ha filtrado una imagen renderizada de la NVIDIA Tesla A100, la cual se acompaña de 6 stack de memoria HBM2. Esta solución Tesla A100 ha sido desarrollada para el sector industrial y empresarial. Se basa esta solución en la arquitectura Ampere, la cual promete un salto brutal con respecto a la arquitectura Tesla actual.
- Fabricante: NVIDIA
- Número de pieza: QUADRO GV100-32 GB.
- ARCHITECTUA DE ENGINA: VOLTA
- Configuración de la memoria: 32 GB.
Primera imagen de la NVIDIA Tesla A100
Estas soluciones de NVIDIA se suelen utilizar en centros de datos, sistemas de computación de alto rendimiento, robótica, IA y una gran cantidad de campos especializados donde se requiere una gran potencia de cómputo. Al igual que las soluciones basadas en Volta, las soluciones basadas en Ampere serán referencia en estos sectores.
La unidad Tesla A100 se basa en el silicio GA100 de arquitectura Ampere con 6 stack de memoria HBM2. Vemos que se ha rediseñado, ya que los agujeros de sujeción no coinciden con los de las Tesla V100. Además, el DIE parece que será ligeramente más grande que el de la GV100, siendo el de la GA100 de unos 820-840mm2.
Algo muy interesante que se ha revelado es que la GPU GA100 contará con 54.000 millones de transistores y se ha fabricado en 7nm. Lo que no sabemos es si esta litografía es la de TSMC o la de Samsung, algo que de momento no se ha indicado. También desconocemos si las memorias son HBM2 o HBM2E y el tamaño de cada uno de los stack.
Fuente: VZ