Ir a la barra de herramientas
Hardware

NVIDIA A100 PCIe: Aceleradora con 6912 CUDA Cores y TDP de 250W

Pese a que solemos hablar de NVIDIA como una compa帽铆a dedicada al hardware para gaming, la compa帽铆a es mucho m谩s. Sobre todo est谩 muy bien valorada dentro del mercado de la computaci贸n avanzada y la Inteligencia Artificial. Para satisfacer las necesidades en estos dos campos, la compa帽铆a acaba de anunciar su tarjeta NVIDIA A100 PCIe. Esta nueva aceleradora promete un gran rendimiento con un consumo ajustado.

Esta nueva NVIDIA A100 PCIe, como indica la compa帽铆a, est谩 pensada para 鈥渓a IA, la ciencia de los datos y la computaci贸n cient铆fica鈥. Se caracteriza adem谩s por estar basada en la arquitectura Ampere y por tanto, la litograf铆a de 7nm. Adicionalmente esta gr谩fica se basa en PCI-Express 4.0, as铆 que se ha pensado para funcionar con procesadores AMD EPYC.

Gigabyte Technology GeForce RTX 2060 OC GV-N2060OC-6GD - Tarjeta grafica, Negro
  • Desarrollado por geforce rtx 2060
  • Integrado con 6gb gddr6 interfaz de memoria de 192 bits
  • Sistema de enfriamiento windforce 2x con ventiladores alternativos
  • Ventiladores de cuchilla 煤nicos de 90 mm

NVIDIA A100 PCIe, una aceleradora de gran potencia y bajo consumo

La nueva NVIDIA A100 PCIe en especificaciones es muy similar al modelo NVIDIA A100 SXM, pero con TDP reducido. Se pasa de un TDP de 400W para el modelo SXM a un TDP de 250W para este modelo A100 PCIe.

Dicha soluci贸n de NVIDIA cuenta con un DIE de 826mm2 con nada menos que 54.000 millones de transistores. Esta soluci贸n integra 6912 CUDA Cores y 432 Tensor Cores a una frecuencia de 1.410MHz. No hace uso de un silicio completo con todos los CUDA Cores, por lo que podr铆amos ver otras versiones a煤n m谩s potentes. Cuenta esta soluci贸n con una potencia FP32 de 19.5 TFLOPs, un rendimiento FP64 de 9.7 TFLOPs y un rendimiento FP4 Tensor Cores de 19.5 TFLOPs.

Nvidia-A100-PCIe-grafica

Adicionalmente esta NVIDIA A100 PCIe cuenta con 40GB HBM2E con una interfaz de memoria de 5.120bits con un ancho de banda de 1.555GB/s. Esta soluci贸n hace uso de un sistema NVLink de tercera generaci贸n para un ancho de banda de 4.8TB/s. Adicionalmente esta soluci贸n se basa en la interfaz PCI-Express 4.0 / SXM4.

Debido a que est谩 pensada para la Inteligencia Artificial, esta cuenta con nuevos Tensor Cores el doble r谩pidos que la generaci贸n anterior. Adicionalmente, puede llegar a ser hasta x20 veces m谩s r谩pida que la Tesla V100 para la Inteligencia Artificial.

Nota de prensa

NVIDIA y los principales fabricantes de servidores del mundo acaban de presentar sus sistemas basados en la tecnolog铆a A100 de NVIDIA con una amplia variedad de dise帽os y configuraciones para afrontar los retos m谩s complejos de la IA, la ciencia de los datos y la computaci贸n cient铆fica.

Se espera que, tras el lanzamiento el mes pasado de la arquitectura Ampere de NVIDIA y la GPU A100 de NVIDIA, se instalen m谩s de 50 servidores A100 de los principales fabricantes del mundo, lo que incluye Asus, Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Inspur, Lenovo, One Stop Systems, Quanta/QCT y Supermicro.

La disponibilidad de los servidores var铆a, con 30 sistemas previstos este verano, y m谩s de 20 m谩s a finales de a帽o.

“La adopci贸n de las GPUs NVIDIA A100 en la oferta de los principales fabricantes de servidores est谩 superando todo lo que hab铆amos visto hasta ahora”, afirma Ian Buck, Vicepresidente y Director general de inform谩tica acelerada de NVIDIA “La enorme amplitud de los servidores A100 de NVIDIA procedentes de nuestros partners garantiza que los clientes puedan elegir las mejores opciones para acelerar sus centros de datos con el fin de conseguir una alta utilizaci贸n y un bajo coste total de propiedad”.

La primera GPU basada en la arquitectura Ampere de NVIDIA, la A100 puede aumentar el rendimiento hasta 20 veces m谩s que su predecesora, lo que la convierte en el mayor salto de rendimiento de la GPU de la compa帽铆a hasta la fecha. Incluye varios avances t茅cnicos, entre ellos una nueva tecnolog铆a de GPU multi-instancia que permite dividir una sola A100 en hasta siete GPU distintas para manejar diferentes tareas de c谩lculo; la tecnolog铆a NVIDIA NVLink de tercera generaci贸n que permite unir varias GPU para que funcionen como una sola GPU gigante; y nuevas funciones de dispersi贸n estructural que pueden utilizarse para duplicar el rendimiento de una GPU.

Roberto Sol茅

T茅cnico en sistemas de generaci贸n de energ铆a sustentables e instalador de sistema de distribuci贸n de energ铆a en vivienda. Trabajo delante de un PC, en mi tiempo libre estoy delante de un PC y cuando salgo de casa estoy pegado a la pantalla de m铆 smartphone. Cada ma帽ana cuando me levanto cruzo el Stargate para hacerme un caf茅 y empezar a ver v铆deos de YouTube mientras hago ver que escribo aqu铆. Una vez vi un drag贸n... 驴o era un Dragonite?

Publicaciones relacionadas

Deja una respuesta

Tu direcci贸n de correo electr贸nico no ser谩 publicada. Los campos obligatorios est谩n marcados con *

Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.

Bot贸n volver arriba