Icono del sitio HardwarEsfera

El consumo de las nuevas AMD RX Vega dejaría en entredicho la relación rendimiento/precio

AMD RX Vega LE Holocube

AMD RX Vega LE Holocube

Gigabyte recomienda fuentes de alimentación de 750W y 1000W para las nuevas AMD RX Vega, lo cual nos lleva a preguntarnos, si el ahorro con respecto a NVIDIA es suficiente para optar por esta nueva solución gráfica.

Dos años, es prácticamente lo que hemos tenido que esperar para conocer las tarjetas gráficas con GPU Vega. Las nuevas AMD RX Vega han sido presentados este pasado fin de se mana, pero no se han dado benchmark de estas gráficas. El modelo más potente de estas tarjetas gráficas competirá con la GTX 1080 y luego estará la Liquid Edition, que debería ofrecer aún más potencia que las RX Vega 64 con disipador de stock y la Limited Edition, pero llegan con un serio problema estas tarjetas gráficas, el consumo.

Pese a que no hay datos oficiales, Gigabyte ha publicado las RX Vega en su página web y ha sido brutalmente clara en las recomendaciones. Para la RX Vega 64 con disipador de stock y la Limited Edition se recomienda una fuente de alimentación de 750W y para la RX Vega 64 Liquid Edition se recomienda una fuente de alimentación de 1000W. Esto nos hace pensar en serios problemas de consumo y un consumo tan elevado, lógicamente se traduce en calor. Pero, ¿Cuál es realmente la diferencia de consumo con respecto a las soluciones de NVIDIA?

gigabyte amd rx vega 64 silver 750w
gigabyte amd rx vega 64 liquid edition 1000w
gigabyte amd rx vega 64 limited edition 750w

Como los datos los hemos encontrado solo en la web de Gigabyte y no en la de otros fabricantes, hemos querido ir a buscar los datos a dicha web. Hemos elegido el modelo Gigabyte AORUS GTX 1080 8G 11Gbps, el modelo Gigabyte AORUS GTX 1080 Xtreme Edition 8G 11Gbps y el modelo Gigabyte AORUS GTX 1080 Ti Xtreme Edition 11G. Gigabyte, para los dos modelos, recomienda una fuente de alimentación de 500W, aunque nosotros recomendaríamos mínimo 600W, por ir más sobrados y tener un margen para ampliaciones o bien un poco de overclocking al procesador o a la gráfica, aunque ya llevan bastante OC de fábrica. La GTX 1080 Ti, según Gigabyte, con 600W bastaría y estamos hablando de un modelo con OC de fábrica. También subiríamos a los 700W, por tener un margen.

Nosotros recomendamos fuentes con más potencia, por posibles ampliaciones, overclocking y por seguridad, para evitar que falta alimentación y tener problemas, pero los fabricantes ya hacen todos los test correspondientes, además, nosotros siempre recomendamos certificación 80Plus Bronze. Esto nos hace preguntarnos si sirve eso de rendimiento/precio que tanto se habla con los productos de AMD. Este consumo y las temperaturas resultantes eliminan las excusas que se puedan dar respecto al precio, ya que nada justificaría el ahorro de 100€ en el precio y luego pagarlo muchas veces más por consumo, es más, a no ser que den unos resultados espectaculares para el minado, las hace inviables a nivel de rentabilidad para esta práctica.

fuente de alimentacion amd rx vega

Hemos querido hacer una recopilación con los mejores modelos para nuestro equipo con respecto a estos datos. Hemos optado por certificación 80Plus Bronze como mínimo, porque es lo mínimo que nosotros recomendamos, aunque el 80Plus, a secas, podría ser una opción para recortar algunos euros. Vemos como el modelo más económico es de Cougar y costaría unos 62€ y desde ese punto, con 80Plus Bronze llegaríamos hasta una Cougar de 850W por 100€. Luego tenemos modelos superiores con 80Plus Gold y 80Plus Platinum, para la Liquid Edition. Como vemos, cuanto más subimos de potencia y calidad, mayor es el precio, partiendo de los 90€ para las de 750W.

La diferencia entre la Corsair CX550 V2 80Plus Bronze de 550W y la Corsair CX750 80Plus Bronze de 750W es de 20€, por lo tanto, a la diferencia en el ahorro debemos restar esta diferencia de precio. El consumo eléctrico es otro factor, que ya depende de las horas de juego de cada uno y la tarificación eléctrica que tenga. El calor producido por la tarjeta gráfica, será superior al producido por una NVIDIA, ya que el consumo es superior, por lo tanto es otro. Todo esto nos lleva  a preguntarnos, si realmente el ahorro es realmente tal.

Salir de la versión móvil