
Zotac ha presentado sus tres versiones de la NVIDIA GTX 1080 Ti, capitaneada por la Zotac GTX 1080 Ti AMP Extreme, con overclocking de fabrica
Vemos ya las últimas especificaciones de las versiones de la NVIDIA GTX 1080 Ti por parte de los diferentes partner de la compañía. Zotac ha sido la última en anunciar novedades con respecto a las tarjetas gráficas personalizadas que lanzara al mercado en unos días. Concretamente llegaran tres versiones, la tope de gama, la Zotac GTX 1080 Ti AMP Extreme (ZT-P10810C-10P), una ligeramente por debajo, como es la Zotac GTX 1080 Ti AMP Edition (ZT-P10810D-10P) y una versión de referencia, la Zotac GTX 1080 Ti (ZT-P10810B-10P).
La Zotac GTX 1080 Ti AMP Extreme es la más monstruosa, ya que utiliza el disipador IceStorm con esteroides y como backplate hace uso el ExoArmor, un backplate personalizado. Zotac ha implementado la tecnología 0dB, que detiene los ventiladores cuando la carga de la tarjeta gráfica es basa. Dispone de un sistema VRM de 16+2 fases de alimentación, para que podamos darle caña a la gráfica tanto como queramos. Respecto a la entrada de tensión tenemos dos conectores PCIe de 8+8pines. Tendrá una frecuencia base de 1645MHz y un modo Boost de 1759MHz y las memorias pasaran a trabajar a una frecuencia de 11.2GHz. El consumo de esta tarjeta gráfica es de 320W.
Pasamos a la Zotac GTX 1080 Ti AMP Edition, una versión ligeramente más sencilla con un sistema VRM de 16+2 fases de alimentación. El disipador es algo más sencillo, ya que solo cuenta con dos ventiladores, con una estructuras de aletas de aluminio conectados por seis heatpipes de cobre. Tiene una frecuencia de 1569MHz y un modo Boost de 1683MHz y la frecuencia de las memorias se mantiene. Tiene un consumo estimado de 270W.
Finalmente tenemos la Zotac GTX 1080 Ti, la cual no se diferencia en prácticamente nada de la versión de referencia de NVIDIA con el disipador Founders Edition. Esta tarjeta gráfica cuenta con un disipador en plata y gris con una PCB negra. Tiene el ventilador Blower de la versión de referencia de NVIDIA, que ya sabemos que no es de mucha calidad, pero es una solución sencilla.
Fuente: techradar