AMD anuncia su estrategia para el centro de datos y la IA

En el evento “Data Center and AI Technology Premiere“, AMD anunció los productos, la estrategia y los socios del ecosistema con el que afrontarán el futuro de los centros de datos y de la Inteligencia Artificial.

Infraestructura de computación optimizada para el centro de datos moderno

AMD presentó una serie de actualizaciones de su familia EPYC de 4ª generación, que han sido diseñadas para ofrecer a los clientes la especialización de cargas de trabajo necesaria para abordar las necesidades únicas de las empresas. Destacaron cómo sus EPYC continúan siendo líderes en rendimiento y eficiencia energética. A AMD se unió a AWS para destacar un avance de la próxima generación de instancias Amazon Elastic Compute Cloud M7a, impulsadas por procesadores AMD EPYC de 4ª generación

Computación nativa en la nube sin compromisos.

AMD presentó los procesadores AMD EPYC 97X4 de 4ª generación, antes llamados “Bergamo”. Con 128 núcleos “Zen 4c” por zócalo, estos procesadores tienen la mayor densidad de vCPU1 y un mayor rendimiento para aplicaciones que se ejecutan en la nube, además de una mayor eficiencia energética. Meta comentó cómo estos procesadores son adecuados para sus aplicaciones principales, como Instagram, WhatsApp y más. Por ello, Meta está viendo impresionantes ganancias de rendimiento con los procesadores AMD EPYC 97×4 de 4ª generación en comparación con los AMD EPYC de 3ª generación a través de diversas cargas de trabajo, al tiempo que ofrece mejoras sustanciales en el coste total de propiedad, y cómo AMD y Meta optimizaron las CPU EPYC para los requisitos de eficiencia energética y densidad de computación de Meta.

Mejores productos gracias a la informática técnica.

AMD presentó la 4ª generación de procesadores EPYC de 4ª generación con tecnología AMD 3D V-Cache, la CPU de servidor x86 de mayor rendimiento del mundo para la informática técnica. CPU de servidor x86 de mayor rendimiento del mundo para la informática técnica3. Microsoft anunció la disponibilidad general de las instancias Azure HBv4 y HX, impulsadas por procesadores AMD EPYC de 4ª generación con tecnología AMD 3D V-Cache.

El acelerador más avanzado del mundo para IA generativa

AMD ha revelado nuevos detalles de la familia de aceleradores AMD Instinct Serie MI300, incluido el nuevo acelerador AMD Instinct MI300X, el más avanzado del mundo para IA generativa. Se basa en la arquitectura de acelerador AMD CDNA 3 y admite hasta 192 GB de memoria HBM3 para proporcionar la eficiencia de cómputo y memoria necesaria para el entrenamiento e inferencia de modelos de lenguaje de gran tamaño para cargas de trabajo de IA generativa. Con la gran memoria de AMD Instinct MI300X, los clientes ahora pueden ajustar grandes modelos de lenguaje como Falcon-40, un modelo de 40B parámetros en un único acelerador MI300X5.

AMD también presentó la plataforma AMD Instinct, que reúne ocho aceleradores MI300X en un diseño estándar del sector para ofrecer la solución solución definitiva para la inferencia y el entrenamiento de IA. El MI300X se distribuirá a los principales clientes a partir del tercer trimestre. AMD también ha anunciado que la AMD Instinct MI300A, la primera APU del mundo para cargas de trabajo HPC e IA.

Lanzamiento al mercado de una plataforma de software de IA abierta

Se ha presentado presentó el ecosistema de software ROCm para aceleradores de centros de datos, De ellos se ha destacado la preparación y las colaboraciones empresas del sector para crear un ecosistema de software de IA abierto. PyTorch comentó el trabajo entre AMD y la Fundación PyTorch para actualizar completamente la pila de software ROCm, para proporcionar soporte inmediato para PyTorch 2.0 con la versión 5.4.2 de ROCm en todos los aceleradores AMD Instinct. Así se ofrece a los desarrolladores una gama de modelos de IA basados compatibles y listos para su uso en los aceleradores AMD. Hugging Face, plataforma abierta para desarrolladores de IA; anunció que optimizará miles de modelos de Hugging Face en plataformas AMD.

Una sólida cartera de redes para la nube y la empresa

AMD presentó una cartera de redes que incluye la DPU AMD Pensando, las NIC de latencia ultrabaja de AMD y las NIC adaptativas de AMD. Además, las DPUs AMD Pensando combinan una robusta pila de software con “seguridad de confianza cero” y un procesador de paquetes programable de liderazgo para crear la DPU más inteligente y con mayor rendimiento del mundo. La DPU AMD Pensando se despliega a escala a través de socios en la nube como IBM Cloud, Microsoft Azure y Oracle Compute Infrastructure. En la empresa se despliega en el conmutador inteligente HPE Aruba CX 10000, y con clientes como la empresa líder de servicios de TI DXC, y como parte de VMware vSphere

Distributed Services Engine, acelerando el rendimiento de las aplicaciones para los clientes

AMD destacó la próxima generación de su hoja de ruta DPU, con nombre en clave “Giglio”, que tiene como objetivo rendimiento y eficiencia energética a los clientes, en comparación con la actual generación de productos. generación actual, cuando se espera que esté disponible a finales de 2023.

AMD también ha anunciado el kit para desarrolladores de software en silicio (SSDK) AMD Pensando, que ofrece a los clientes la posibilidad de desarrollar o migrar rápidamente sus sistemas Pensando. a los clientes la capacidad de desarrollar o migrar rápidamente servicios para desplegarlos en la DPU programable AMD Pensando P4 en coordinación con el amplio conjunto de funciones ya implementadas en la plataforma AMD Pensando. la plataforma AMD Pensando. El AMD Pensando SSDK permite a los clientes poner la potencia del liderazgo de la DPU AMD Pensando a trabajar y adaptar la virtualización de red y la seguridad seguridad dentro de su infraestructura, en coordinación con el rico conjunto de características ya implementadas en la plataforma Pensando. ya implementadas en la plataforma Pensando.

Salir de la versión móvil