Icono del sitio HardwarEsfera

El acelerador Intel Gaudi AI consigue multiplicar el rendimiento de GPT-3

intel-xeon-cpu-4a-generacion

MLCommons ha publicado una nuevos resultados de su benchmark MLPerf v3.1 para la formación de modelos de IA. Junto a ello, Intel ha presentado los resultados de los aceleradores Intel Gaudi 2 y los procesadores Intel Xeon Scalable de 4ª generación con Intel Advanced Matrix Extensions.

Con todo esto, se consiguió que Intel Gaudi2 duplicara su desempeño en la implementación del tipo de datos FP8 en el benchmark GPT-3 de capacitación v3.1. Esta es una muestra de las intenciones de Intel de afrontar el crecimiento de la IA con soluciones propias.

¿Sabes cuáles son las aplicaciones de IA divertidas? Tenemos una lista de aplicaciones curiosidas.

Intel afronta el crecimiento de la Inteligencia Artificial con los aceleradores Gaudi2 y los Xeon Scalable

Los resultados de MLPerf de MLCommons se basan en el desempeño de Intel en Inteligencia Artificial respecto a resultados de entrenamiento de MLPerf realizados en junio. El procesador Intel Xeon fue la única CPU que reportó resultados MLPerf, e Intel Gaudi2 es uno de los tres aceleradores en los que se basan los resultados.

Gaudi2 de Intel sigue siendo la única alternativa viable al H100 de NVIDIA para las necesidades de cómputo de IA. Los aceleradores de Intel pudieron ofrecer una mejor relación precio-rendimiento, con un salto de rendimiento 2x con la implementación del tipo de datos FP8 en el benchmark de entrenamiento GPT-3 v3.1. Se redujo el tiempo de entrenamiento a aproximadamente la mitad en comparación con el benchmark MLPerf realizado junio. Se demostró con el entrenamiento en el modelo multimodal Stable Diffusion con 64 aceleradores en 20,2 minutos, utilizando BF16.

Conoce a la empresa Intel

Intel está ampliando la compatibilidad de FP8 en el software y las herramientas Gaudi2 a modelos adicionales tanto para formación como para inferencia. En ocho aceleradores Intel Gaudi2, los resultados del benchmark fueron de 13,27 y 15,92 minutos para BERT y ResNet-50, respectivamente, utilizando BF16.

Salir de la versión móvil