Categorías: Hardware

TSMC en 2023 producirá una nueva generación CoWoS con hasta 192GB HBM2 en un solo DIE

La innovación y el desarrollo de nuevas soluciones en el mercado de semiconductores no cesa ni un instante. TSMC acaba de anunciar un importante salto en cuanto a la fabricación CoWoS que se plasmara a partir de 2023. Esta nueva solución permite apilar un número mayor de capas de memoria con respecto a la tecnología actual. Para el futuro podríamos ver GPU para IA con hasta 192GB HBM2.

Chip-on-Wafer-on-Substrate (CoWoS) es la tecnología de apilación de diferentes circuitos integrados en un solo chip. Vendría a ser una tecnología similar a Intel Foveros, que permite desarrollar chips múltiples. En resumidas cuentas, en un mismo DIE podríamos tener diferentes circuitos, mejorando la densidad y reduciendo los costes de fabricación.

Rebajas
Kingston A400 SSD 480GB
  • Rapidez en el arranque, la carga y la transferencia de archivos
  • Más fiable y resistente que un disco duro
  • Diversas capacidades, con suficiente espacio para aplicaciones o para sustituir un disco duro
48,98 EUR

TSMC planea dar un gran salto en CoWoS en tres años

Actualmente la tecnología CoWoS tenía un límite de apilamiento de 6 stacks de memoria HBM2. Esto hace que se puedan desarrollar GPU para IA y similares de hasta 96GB HBM2 en un mismo encapsulado. Mediante estas mejoras en los procesos de fabricación y la implementación de nuevas tecnologías se podría llegar a los 192GB  HMB2, que es el doble.

NVIDIA actualmente está usando esta tecnología en las gráficas profesionales V100 de arquitectura Volta. AMD también usa esta tecnología, pero en su caso en los chips Radeon VII que integran chips HBM2 en el mismo encapsulado. Pese a que AMD la ha usado en su división de gráficos gaming, está pensado para gráficas del sector profesional. Destacar que AMD ya no utilizara más memorias HBM2 en sus gráficas gaming debido la nueva arquitectura RDNA.

Esta mejora de diseño CoWoS podría ofrecer un nuevo salto en las soluciones para la Inteligencia Artificial, Machine Learning, etc. Aunque hay que tener en cuenta que apilar tantas memorias HBM2 es muy complicado y podría suponer un gran encarecimiento del producto final. La NVIDIA V100 usa 32GB HBM2 de los 96GB HBM2 posibles mediante la tecnología CoWoS de TSMC.

Fuente: TPU

Roberto Solé

Técnico en sistemas de generación de energía sustentables e instalador de sistema de distribución de energía en vivienda. Trabajo delante de un PC, en mi tiempo libre estoy delante de un PC y cuando salgo de casa estoy pegado a la pantalla de mí smartphone. Cada mañana cuando me levanto cruzo el Stargate para hacerme un café y empezar a ver vídeos de YouTube mientras hago ver que escribo aquí. Una vez vi un dragón... ¿o era un Dragonite?

Entradas recientes

Silicon Power P34A60 1TB – Review

Las unidades de almacenamiento de estado sólido han llevado para solucionar unos de los problemas…

9 horas hace

Trust GXT 970 Morfix – Review

Lejos quedan los míticos ratones de bola con los que era un verdadero suplicio jugar.…

10 horas hace

Top 3 mejores VPN del 2020 para tu móvil [Patrocinado]

El ascenso vertiginoso de nuestra interacción con entornos digitales gracias al contexto generado por la…

12 horas hace

Sharkoon muestra sus cajas RGB SK3 y TK4, en las que lo importante es el interior

La SK3 RGB y la TK4 RGB son las nuevas cajas del fabricante Sharkoon. Además…

13 horas hace

Qué es PowerPoint

Algo bastante común en los trabajos de estudiantes o en las presentaciones empresariales es realizar…

16 horas hace

Presentado el chasis gaming Cougar MX440-G RGB

Los chasis han dejado de ser simples cajas que contienen el hardware para ser una…

18 horas hace