HardwareNoticias

El consumo de las nuevas AMD RX Vega dejaría en entredicho la relación rendimiento/precio

Gigabyte recomienda fuentes de alimentación de 750W y 1000W para las nuevas AMD RX Vega, lo cual nos lleva a preguntarnos, si el ahorro con respecto a NVIDIA es suficiente para optar por esta nueva solución gráfica.

Dos años, es prácticamente lo que hemos tenido que esperar para conocer las tarjetas gráficas con GPU Vega. Las nuevas AMD RX Vega han sido presentados este pasado fin de se mana, pero no se han dado benchmark de estas gráficas. El modelo más potente de estas tarjetas gráficas competirá con la GTX 1080 y luego estará la Liquid Edition, que debería ofrecer aún más potencia que las RX Vega 64 con disipador de stock y la Limited Edition, pero llegan con un serio problema estas tarjetas gráficas, el consumo.

Pese a que no hay datos oficiales, Gigabyte ha publicado las RX Vega en su página web y ha sido brutalmente clara en las recomendaciones. Para la RX Vega 64 con disipador de stock y la Limited Edition se recomienda una fuente de alimentación de 750W y para la RX Vega 64 Liquid Edition se recomienda una fuente de alimentación de 1000W. Esto nos hace pensar en serios problemas de consumo y un consumo tan elevado, lógicamente se traduce en calor. Pero, ¿Cuál es realmente la diferencia de consumo con respecto a las soluciones de NVIDIA?

Como los datos los hemos encontrado solo en la web de Gigabyte y no en la de otros fabricantes, hemos querido ir a buscar los datos a dicha web. Hemos elegido el modelo Gigabyte AORUS GTX 1080 8G 11Gbps, el modelo Gigabyte AORUS GTX 1080 Xtreme Edition 8G 11Gbps y el modelo Gigabyte AORUS GTX 1080 Ti Xtreme Edition 11G. Gigabyte, para los dos modelos, recomienda una fuente de alimentación de 500W, aunque nosotros recomendaríamos mínimo 600W, por ir más sobrados y tener un margen para ampliaciones o bien un poco de overclocking al procesador o a la gráfica, aunque ya llevan bastante OC de fábrica. La GTX 1080 Ti, según Gigabyte, con 600W bastaría y estamos hablando de un modelo con OC de fábrica. También subiríamos a los 700W, por tener un margen.

Nosotros recomendamos fuentes con más potencia, por posibles ampliaciones, overclocking y por seguridad, para evitar que falta alimentación y tener problemas, pero los fabricantes ya hacen todos los test correspondientes, además, nosotros siempre recomendamos certificación 80Plus Bronze. Esto nos hace preguntarnos si sirve eso de rendimiento/precio que tanto se habla con los productos de AMD. Este consumo y las temperaturas resultantes eliminan las excusas que se puedan dar respecto al precio, ya que nada justificaría el ahorro de 100€ en el precio y luego pagarlo muchas veces más por consumo, es más, a no ser que den unos resultados espectaculares para el minado, las hace inviables a nivel de rentabilidad para esta práctica.

Hemos querido hacer una recopilación con los mejores modelos para nuestro equipo con respecto a estos datos. Hemos optado por certificación 80Plus Bronze como mínimo, porque es lo mínimo que nosotros recomendamos, aunque el 80Plus, a secas, podría ser una opción para recortar algunos euros. Vemos como el modelo más económico es de Cougar y costaría unos 62€ y desde ese punto, con 80Plus Bronze llegaríamos hasta una Cougar de 850W por 100€. Luego tenemos modelos superiores con 80Plus Gold y 80Plus Platinum, para la Liquid Edition. Como vemos, cuanto más subimos de potencia y calidad, mayor es el precio, partiendo de los 90€ para las de 750W.

La diferencia entre la Corsair CX550 V2 80Plus Bronze de 550W y la Corsair CX750 80Plus Bronze de 750W es de 20€, por lo tanto, a la diferencia en el ahorro debemos restar esta diferencia de precio. El consumo eléctrico es otro factor, que ya depende de las horas de juego de cada uno y la tarificación eléctrica que tenga. El calor producido por la tarjeta gráfica, será superior al producido por una NVIDIA, ya que el consumo es superior, por lo tanto es otro. Todo esto nos lleva  a preguntarnos, si realmente el ahorro es realmente tal.

Roberto Solé

Técnico en sistemas de generación de energía sustentables e instalador de sistema de distribución de energía en vivienda. Trabajo delante de un PC, en mi tiempo libre estoy delante de un PC y cuando salgo de casa estoy pegado a la pantalla de mí smartphone. Cada mañana cuando me levanto cruzo el Stargate para hacerme un café y empezar a ver vídeos de YouTube mientras hago ver que escribo aquí. Una vez vi un dragón... ¿o era un Dragonite?

Publicaciones relacionadas

21 comentarios

    1. Tampoco necesitan tu compra.
      – Mama, mama, en la escuela me llaman egoísta
      – pues mierda pa ellos..
      – No, no pa mi
      XDDD

  1. Estoy de acuerdo contigo Rober, pero a mí me encantan las memorias hbm, pienso que gddr5 son ya el pasado, y yo compraría una vega por solo tenerlo xd, aunque sea para dejarlo encima de la mesa y observarlo cada día :).

      1. Te has dejado que filtra también según le interesa. De los packs de rx vega ni los ha comentado y llevan dos dias lloviendo noticias.

        Y el comentario de consumo es obligatorio ya que de lo contrario seria un punto positivo comparando los precios contra nvidia…

          1. Pues ahi te lo admito que me he colado. Y que opinión dais al respecto contra los monitores g-sync? Porque opinion 0 de los packs. Comenta poco hombre.

            P.D: https://hardwaresfera.com me explicas porque en la pagina principal hay 5 noticias echando pestes de vega y la que me has puesto ni aparece? Porque a mi me parece relevante ^^

          2. Son entradas que aparecen de manera automatica, porque han sido las más comentadas y vistas, sencillamente eso.

    1. La información es nuestra completamente, no la hemos sacado de ningún lado. Entramos en las web de MSI, ASUS, Gigabyte y PowerColor y la única que daba recomendación de PSU era Gigabyte. Luego entramos en Coolmod y miramos modelos y precios, que son los que están arriba.

  2. hay una esperanza , porque no se sabe los 300w son de TDP O de consumo ?,porque mi amd rx 460 tiene un TDP DE 75W y el consumo no llega a 65w

          1. Minado juego y test son diferentes consumos men y en los 3 por lo general los 3 usan el 99% de la tarjeta

  3. Llevo mucho tiempo sigueindo a estos chicos y os aseguros que si intel amd nvidia… hacen las cosas mal ellos lo dicen, si lo hacen bien también, tengo 1 fury mi primo una 380 mi otor amigo una r7 370… por que les diej yo que comprasen esas.., de hecho a mis amigos solo recomiendo gráficas amd y les casi obligo a comprar amd, soy un fan de amd( pero no un fanático ciego), pero lo que es cierto ha de serlo y no hay que ir de fanáticos en la vida por que no veríamos la realidad tal y como lo es…
    DICHO ESTO: AMD HA SACADO VEGA CASI 2 AÑOS DESPUÉS, EN EL MUNDO DE LA INFORMÁTICA 2 AÑOS ES UNA ETERNIDAD…. SI EL TOPE DE GAMA DE VEGA NO SUPERA O DESTROZA A LA 1080 TI , ES UN FRACASO, HAN TENIDO 2 AÑOS DE TIEMPO ( SE QUE NO TIENEN EL MISMO DINERO PARA INVERTIR BLA BLA BLA…), PERO ESO NO ES UNA ESCUSA VALIDA, NO ES CULPA DE ROBER QUE AMD NO TENGA TANTO RECURSO ETC…
    HE COMPRADO UN RYZEN 3 1200 PARA MI AMIGO Y LOS RYZEN ME ENCANTAN AUNQUE EN SU MOMENTO TUVE QUE COMPRAR UN I5 6600 POR QUE YA TENIA UNA PLACA BASE 1151…. EL RYZEN 3 ESTE CON OC IGUALARA A MI I5 COSTANDO LA MITAD, ASÍ QUE BRAVO POR AMD TIENE MI AMOR A LOS RYZEN Y SI SIGUE ASÍ NUNCA MAS COMPRARE INTEL NI AUNQUE ME LO REGALEN, PERO CON VEGA NO LO HA HECHO BIEN AL MENOS NO BIEN DEL TODO Y HA DEJADO UN SABOR AGRIDULCE, Y NO ES CULPA DE LOS REDACTORES DE HARDWARESFERA….

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar