![Aorus GTX 1080 XTREME GAMING](http://t7m8e9c8.delivery.rocketcdn.me/wp-content/uploads/2017/01/Aorus-GTX-1080-XTREME-GAMING-780x470.jpg)
Gigabyte amplía la gama de productos Aorus con la nueva tarjeta gráfica Aorus GTX 1080 XTREME GAMING que ha mostrado en el CES 2017.
La apuesta de Gigabyte por introducir en el mercado una nueva familia de productos destinados a los aficionados al gaming, que ha denominado Aorus. Se ha visto una introducción masiva de productos bajo este nombre con la llegada de los Intel Kaby Lake y no se quedara en placas base y portátiles, se extenderá a todos los productos de Gigabyte para gaming. Gigabyte ha presentado la Aorus GTX 1080 XTREME GAMING.
Aparentemente no difiere mucho en cuanto a diseño de disipador de la Gigabyte GTX 1080 WindForce 3X, solamente incorporaría un backplate para mejorar la disipación y un nuevo logo, aunque las mejores parecen estar debajo del propio disipador. Aorus se postula, por tanto, como la gama top de productos gaming de Gigabyte, igual que en su día ASUS implementara esta idea con su línea de productos Republic of Gamers o más recientemente Kingston, que ha lanzado la línea HyperX como productos de alta gama para gaming y overclocking.
No hay excesivos datos sobre esta tarjeta gracia, solamente se ha mostrado de manera externa, con imágenes del producto y como decíamos, el disipador ha sido retocado mínimamente por Gigabyte y el gran cambio está en el backplate, en el cual se ve perfectamente donde iría la GPU y se ve en grande el logo de Aorus. Este backplate, que no estaba en la primera versión de esta tarjeta gráfica bajo el nombre de Gigabyte, se ha introducido para mejorar la refrigeración de los componentes de la zona trasera.
Respecto a las conexiones de vídeo, tampoco hay excesivos cambios, ya que dispone de tres puertos DisplayPort, un puerto DVI-DL y un puerto HDMI. Esta tarjeta gráfica cuenta también con VR Link, pensada lógicamente para trabajar con las gafas de realidad virtual. Gigabyte no ha dado datos sobre cuándo estará está disponible y tampoco ha dicho las frecuencias de la GPU o si ha modificado la PCB.
Fuente: VideocardZ