Hardware

Amazon apuesta por sistemas ARM Graviton para potenciar y abaratar sus servicios en la nube

Mejorar y reducir los costes de los servicios en la nube es una prioridad para Amazon y por esto apuestan por crear sistemas basados en los ARM Graviton

Es curioso como en los sistemas de servidores y Data Centers se está colando ARM sin decir gran cosa. La compañía cuenta con los procesadores ARM Graviton, una solución muy interesante para grandes sistemas de servidores. Amazon parece saberlo y está apostando fuerte por la implementación de esto a gran escala. Sin embargo este procesador pare ser una versión actualizada de un AMD Opteron, concretamente del Opteron A1100. Aunque parezca imposible Amazon dice que estas son más eficientes que cualquier x86 de AMD o Intel.

ARM Graviton permitirá ahorrar costes en los servicios en la nube de Amazon

Curiosamente el gigante del e-commerce asegura que Graviton permitirá reducir en un 45% los costes del servicio en la nube. Debemos destacar que Graviton se basa en núcleos Neoverse de 64 bits en la litografía de 16nm. Se basa en la arquitectura Cosmos. Drew Henry, Vicepresidente Senior de ARM ha dicho que Graviton es un chip de diseño israelí con núcleo Cortex-A72 de 64 bits trabajando a una frecuencia de hasta 2.3GHz.

 

SORTEO INTERNACIONAL DE UNA TARJETA GRÁFICA AORUS GTX 1080 Ti

Lógicamente Amazon no retirara todos sus sistemas basados en soluciones de Intel y AMD. Según han dicho la solución de ARM ayudara en el escalado de aplicaciones. Esto permitirá que los usuarios puedan compartir la carga mediante conjuntos de instancias más pequeños. Permitirá desarrollar microservicios en contenedores, servidores web, entornos de desarrollo o flotas de almacenamiento en caché.

Además Amazon podrá licenciar los planos de ARM mediante el sistema Annapurna. Además esto permitirá que puedan personalizar y/o ajustar los diseños de los chips. Incluso podrían trabajar con GlobalFoundries o TSMC para que fabriquen estos nuevos chips.

No es en el único frente en el que trabajan ya que están desarrollando ASIC para AI Inference, denominados Inferentia. Se pretende escalar a cientos de billones de operaciones por segundo con costes operativos para la nube muy reducidos.

Fuente: Fudzilla

Mostrar más

Roberto Solé

Director de Contenidos y Redacción de esta misma web, técnico en sistemas de generación de energía renovables y técnico electricista de baja tensión. Trabajo delante de un PC, en mi tiempo libre estoy delante de un PC y cuando salgo de casa estoy pegado a la pantalla de mi smartphone. Cada mañana cuando me levanto cruzo el Stargate para hacerme un café y empezar a ver vídeos de YouTube. Una vez vi un dragón... ¿o era un Dragonite?

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar

Bloqueador de anuncios detectado

Este sitio se financia mediante el uso de publicidad, miramos en todo momento que la misma no sea demasiado intrusiva para el lector y priorizamos la experiencia del mismo en la web. Pero si bloquea los anuncios, parte de nuestra financiación se verá mermada.