NVIDIA A100 PCIe: Aceleradora con 6912 CUDA Cores y TDP de 250W
Pese a que solemos hablar de NVIDIA como una compañía dedicada al hardware para gaming, la compañía es mucho más. Sobre todo está muy bien valorada dentro del mercado de la computación avanzada y la Inteligencia Artificial. Para satisfacer las necesidades en estos dos campos, la compañía acaba de anunciar su tarjeta NVIDIA A100 PCIe. Esta nueva aceleradora promete un gran rendimiento con un consumo ajustado.
Esta nueva NVIDIA A100 PCIe, como indica la compañía, está pensada para “la IA, la ciencia de los datos y la computación científica”. Se caracteriza además por estar basada en la arquitectura Ampere y por tanto, la litografía de 7nm. Adicionalmente esta gráfica se basa en PCI-Express 4.0, así que se ha pensado para funcionar con procesadores AMD EPYC.
- Desarrollado por geforce rtx 2060
- Integrado con 6gb gddr6 interfaz de memoria de 192 bits
- Sistema de enfriamiento windforce 2x con ventiladores alternativos
- Ventiladores de cuchilla únicos de 90 mm
NVIDIA A100 PCIe, una aceleradora de gran potencia y bajo consumo
La nueva NVIDIA A100 PCIe en especificaciones es muy similar al modelo NVIDIA A100 SXM, pero con TDP reducido. Se pasa de un TDP de 400W para el modelo SXM a un TDP de 250W para este modelo A100 PCIe.
Dicha solución de NVIDIA cuenta con un DIE de 826mm2 con nada menos que 54.000 millones de transistores. Esta solución integra 6912 CUDA Cores y 432 Tensor Cores a una frecuencia de 1.410MHz. No hace uso de un silicio completo con todos los CUDA Cores, por lo que podríamos ver otras versiones aún más potentes. Cuenta esta solución con una potencia FP32 de 19.5 TFLOPs, un rendimiento FP64 de 9.7 TFLOPs y un rendimiento FP4 Tensor Cores de 19.5 TFLOPs.
Adicionalmente esta NVIDIA A100 PCIe cuenta con 40GB HBM2E con una interfaz de memoria de 5.120bits con un ancho de banda de 1.555GB/s. Esta solución hace uso de un sistema NVLink de tercera generación para un ancho de banda de 4.8TB/s. Adicionalmente esta solución se basa en la interfaz PCI-Express 4.0 / SXM4.
Debido a que está pensada para la Inteligencia Artificial, esta cuenta con nuevos Tensor Cores el doble rápidos que la generación anterior. Adicionalmente, puede llegar a ser hasta x20 veces más rápida que la Tesla V100 para la Inteligencia Artificial.
Nota de prensa
NVIDIA y los principales fabricantes de servidores del mundo acaban de presentar sus sistemas basados en la tecnología A100 de NVIDIA con una amplia variedad de diseños y configuraciones para afrontar los retos más complejos de la IA, la ciencia de los datos y la computación científica.
Se espera que, tras el lanzamiento el mes pasado de la arquitectura Ampere de NVIDIA y la GPU A100 de NVIDIA, se instalen más de 50 servidores A100 de los principales fabricantes del mundo, lo que incluye Asus, Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Inspur, Lenovo, One Stop Systems, Quanta/QCT y Supermicro.
La disponibilidad de los servidores varía, con 30 sistemas previstos este verano, y más de 20 más a finales de año.
«La adopción de las GPUs NVIDIA A100 en la oferta de los principales fabricantes de servidores está superando todo lo que habíamos visto hasta ahora», afirma Ian Buck, Vicepresidente y Director general de informática acelerada de NVIDIA «La enorme amplitud de los servidores A100 de NVIDIA procedentes de nuestros partners garantiza que los clientes puedan elegir las mejores opciones para acelerar sus centros de datos con el fin de conseguir una alta utilización y un bajo coste total de propiedad».
La primera GPU basada en la arquitectura Ampere de NVIDIA, la A100 puede aumentar el rendimiento hasta 20 veces más que su predecesora, lo que la convierte en el mayor salto de rendimiento de la GPU de la compañía hasta la fecha. Incluye varios avances técnicos, entre ellos una nueva tecnología de GPU multi-instancia que permite dividir una sola A100 en hasta siete GPU distintas para manejar diferentes tareas de cálculo; la tecnología NVIDIA NVLink de tercera generación que permite unir varias GPU para que funcionen como una sola GPU gigante; y nuevas funciones de dispersión estructural que pueden utilizarse para duplicar el rendimiento de una GPU.