Tarjetas gráficas

Benchmarks de AMD Radeon Vega 56, GeForce GTX 1070 killer

Una importante fuente de la industria ha proporcionado algunos benchmarks de la nueva tarjeta gráfica AMD Radeon Vega 56 que se basa en la más moderna y avanzada arquitectura gráfica de la compañía de Sunnyvale. Los rumores apuntaban a que la nueva tarjeta lucharía con la GeForce GTX 1070 y parece confirmase que es superior a la opción de Nvidia.

AMD Radeon Vega 56 da sus primeras muestras de rendimiento

AMD Radeon Vega 56 da sus primeras muestras de rendimiento

La fuente menciona que la AMD Radeon Vega 56 ha funcionado junto a un procesador Core i7 7700K a una frecuencia de 4,2 GHz y acompañado de 16 GB de memoria DDR4 a 3000 MHz bajo el sistema operativo Windows 10. Todas las pruebas se han hecho a una resolución 2560 x 1440 píxeles en al cual la tarjeta gráfica de AMD no ha tenido problemas para superar en rendimiento a la GeForce GTX 1070 en Battlefield 1, DOOM, Civilization 6 y Call of Duty: Infinite Warfare.

AMD anuncia la Radeon RX Vega Nano ¿La mejor Vega en camino?

Los resultados obtenido han sido los siguientes:

  • Battlefield 1: 95.4FPS (GTX 1070: 72.2FPS)
  • Civilization 6: 85.1FPS (GTX 1070: 72.2FPS)
  • DOOM: 101.2FPS (GTX 1070: 84.6FPS)
  • COD:IW: 99.9FPS (GTX 1070: 92.1FPS)

La Radeon RX Vega 56 tiene un precio oficial por parte de AMD de 399 dólares, a los que habrá que sumar impuestos una vez su llegada al mercado europeo, un precio bastante bueno para una tarjeta que no solo es capaz de luchar con la GeForce GTX 1070 sino que se muestra superior por un margen considerable.

TE RECOMENDAMOS
AMD lanzara Ryzen 2 de 12 nm en marzo de 2018

El punto débil de la tarjeta de AMD sería una eficiencia energética bastante inferior a la de Pascal de Nvidia pero el consumo tampoco será una locura al no ser el modelo tope de gama, su TDP se sitúa en 220W aproximadamente.

Fuente: tweaktown

Juan Gomar

Soy un apasionado de la tecnología en general pero principalmente de la informática y los videojuegos.

  • Victor Subias

    Killer que llega 1 año y 3 meses despues. Nvidia ya se ha inflado a vender 1070’s. A ver al final q precio queda pq si sale por unos 450- 475. La gtx 1080 se puede conseguir por 520 o menos si pillas buenas ofertas en segun q tiendas.
    Con Ryzen lo ha petado, pero Vega… Lo tiene complicado.

    • Alejandro Bringas Martinez

      y con menos consumo :/

  • El mayor problema es que en unos meses ¿2018? tendremos Volta… AMD lo ha hecho regular con VEGA. El rendimiento es muy interesante, pero habrá que ver cuando nos llegue y la probemos… cuanto consume realmente y que precio sale en España.

    • Ó.M.

      El problema para quién… ¿para Nvidia que tal vez no pueda ‘alargar’ un poco más sus soluciones actuales e imponer sus precios de forma dictatorial?

      O es que AMD tiene apiladas cantidades ingentes de Vegas actuales y si tuvieran que pasar a las siguientes tendrían un problema de stock? Creo que no (no podrán vender mucho… pero tampoco tienen este problema).

      Una vez lleguen las Vegas finalmente al público y empiece a pronunciarse… vamos a ver inmediatamente el comienzo de la partida y si la pelota queda en el tejado del uno o del otro.

      Lo que está claro es que si AMD no tuviera nada que hacer, Nvidia ni se inmutaría.

      • El problema es que el siguiente salto de Nvidia ya sobrepasará un poco más a las AMD RX Vega. Para mi estas GPU, personalmente, me esperaban mucho más de lo que realmente ofrecen (sobre el papel).

        Hasta que pruebe una, no podré contestaros con mayor exactitud!

        • Ó.M.

          … pero teniendo en cuenta a las alturas de generación que anda Nvidia, no te parece que ‘no fiándose’ del todo de si estas Vegas son todo lo que tiene AMD o si se guarda algo en la recámara hace bien?

          Nvidia hace bien, desconfiando de si AMD puede ahora mismo ir más lejos que donde ha ído lanzando los productos que vamos a ver.

          Casi todo el mundo quiere creer que lo más inteligente en esta batalla habría sido atacar al tope de gama, pero ello conllevaría el riesgo que comentas, que no es otro que sufrir el contraatque de lo siguiente que prepare Nvidia en ese mismo segmento (el tope).

          Si apuntas algo más abajo ahora que te apuntas a la fiesta, alguien sabe si te guardas algo o ya entras dando absolutamente todo lo que puedes.

          ¿?

          • Puffff… sin estar dentro de AMD … no sabría decirte que estrategia están jugando y como están enfocando sus gráficas.

            Yo sigo siendo más de Nvidia de momento en la gama alta.

          • Steven William

            No se pero tengo algo en mi interior de que sorprenderan no se llamame loco pero es lo que tengo, AMD a invertido mucho dinero y desarrollado arquitectura para nada? a ver que pasa

          • Juan Gomar lo ha dicho varias veces, esto tiene pinta de una Fuji revolucionada al 40-50%. Espero que AMD tenga algo gordo que ofrecer… que al final me veo montando en un mismo PCB un Doble VEGA de las actuales con 1000W de TDP 😛

          • Alejandro Bringas Martinez

            Muy bien dicho Miguel Angel, yo igual esperaba algo mas de las Vega, yo pense que las RX VEGA 56 igualaria con una GTX1080 o poquito superior, no con una GTX 1070 .. cuando ya los volta estan “a la vuelta de la esquina”.. Soy usuario desde la epoca de ATI, pero sinceramente , no me ha sorprendido en nada en estos ultimos años :/
            Yo quiero placas de video como lo fue la HD5870 en su tiempo.. :/

          • Ó.M.

            La gama alta es de Nvidia (incontestble), el asunto está en si siguen pudiendo campar a sus anchas o saben que tienen que andarse con bastante ojo y medir su producción y los precios a los que lanzan los productos (no como hasta ahora) porque en los matorrales ya hay alguien que principalmente anda buscando ir diezmando la imagen de superioridad que una parte muy gorda del público tiene grabada en mente.

            En todo caso, todo está distorsionado por el asunto del bitcoin y ambas juegan con ello en la recámara. Mierntras les consuman el stock los mineros, la batalla de los consumidores, los gamers y los creadores de contenidos más que con realidades la juegan con amagos, humos, tech demos y tal.

            Lo que pasa es que esto, por una parte desespera a los fans, y por otra da teimpo a AMD para seguir avanzando en la sombra mientras en Nvidia tres cuartos de lo mismo.

            Por lo que cascaron En Siggraph tanto Raja como Lisa, mi opinión es que claramente prefieren enfatizar en que con un producto de rendimiento, pero no toptier, son capaces de dar la talla (aunque no batir ni humillar) a las soluciones actuales (tengan 3 meses o 23 en el mercado) de Nvidia. Tal vez busquen ‘desencantar’ a los consumidores que en su momento compraron esos productos (pagando 7000$ como decía Raja).

            En todo caso… maniobras, amagos.

          • SI pero hay un problema. AMD no ofrece una GPU que ofrezca 4K a 60 FPS y Nvidia ya si. Entonces es un handicap… aunque siendo realista… donde más venden son en las RX 460, RX 570 y RX 580… son resoluciones para mortales y no para personas que tenemos 4K como resolución de trabajo/juego

          • Jorge Alvarado

            GP 4k a 60 fps ni la 1080 ti en muchos juegos no da a ello y quienes tienen televisores 4k ? acaso el consumo ya ha salido para quejarse de ello ? REPITO EL MERCADO DEL 4k SOLO ES DEL 3%

          • Por 600 euros tienes TV 4K Samsung que rinden muy bien para gaming, por su “bajo input lag” para ser TV. Aunque yo soy más de monitor…

            Cada vez hay mas casas con 4K, en mi grupo de amigos… Ya conozco en persona como 4-5 personas que tienen… y es lógico, por un poco más la tiene.

            Eso si, la 1080 Ti puede con casi todos los juegos entre 55-60 FPS a valores de stock. Al menos a los que yo juego… está a otro nivel respecto a la 1080 normal

          • Ó.M.

            Respeto totalmente a la gente que tiene una ‘tele’ de más 720p… pero espero que no las usen para recibir jamás la señal de la tdt o peor, la que les llega a través de fibra… porque demostrarían su absoluta ignorancia además de conseguir una calidad de imagen peor cuanto más aumenten la del panel.

            Así pues, la resolución del panel de la tele/monitor debería ser la equivalente a la que la alimentará la fuente / emisor.

            Por otra parte, el aumento de resolución debe ir relacioando para justificar un poco el desembolso con el tamaño de la pantalla… hasta 40/46 yo no pasaría de fullhd, en el momento que pasáramos de este tamaño, se me quedaría pobre esta resolución para usarla de monitor, aunque me valdría para usarla como televisior.

          • Jorge Alvarado

            sigues hablando de un mercado que solo equivale el 3% y lo llamas desastroso y sigues hablando de opiniones personales “mis amigos ” habla con datos de ventas generales yo te hablo del porcentaje mismo que es en steam y no de “mis amigos” que muy probablemnte uno de ellos le guste jugar y de ese uno poco probable que le importe una pc y elija una consola probablemente

          • Ó.M.

            Jugar a 4K en un televisor es desperdiciarlo (entendiendo que como televisor estará a la distancia habitual de este dispositivo, que no se parece en nada a la que tenemos usando un monitor).

            Es decir, si vas a jugar a 3 metros de la pantalla, realmente te da lo mismo jugar a 4K que a FullHD (y no me estoy refiriendo al asunto de los textos en pantalla y el catalejo para poder leerlos).

            Por supuesto que podemos jugar en un televisor a 4K, pero a 50 cm. como está mandado y como siempre hemos hecho con el monitor.

          • Jorge Alvarado

            Entonces juguemos 4k a monitores de 30″ la peor estafa del siglo y es verdad que para jugar o apreciar en todo contexto el 4k es mejor alejarse cinco metros cosa que un monitor no pasa.

          • Ó.M.

            Opino y recomiendo lo contrario.
            Jugar a 50 cm del monitor (o tele), como se ha hecho toda la vida. Tenga este 12” o 120”.

            Si va a ser en una ‘tele’ y está a 5 metros de distancia, o tu agudeza visual está muy por encima de la de todos los demás, o será tontería que te calientes la cabeza en si estás ejecutando en 720p ó 4K, en un panel tipo de 42-46” pulgadas pasará desapercibido… si es un panel grande, 100” o más, sí lo aprecierás, de hecho no disponer de esa alta resolución hará que se vea fatal.

            No me creo que nadie pueda leer los textos ‘normales’ en pantalla a 5 metros de distancia estando en un entorno con resolución 4K.

            Tampoco pasa nada por ser coherente y si te apetece jugar tirado desde el sofá, no sentirse presionado y no tener vergüenza de cambiar los settings para bajar la resolución (y conseguir que la escala ‘se agrande’)… es lo suyo y además lo más inteligente.

          • Ó.M.

            Bueno, creo que sí la ofrecen, pero es igual, porque en 8K no, y es de lo que hablan en Siggraph: Ofrecer 60 fps a 4K es suficiente? Pero sólo en un display? Y qué pasa entonces con la VR?

            La demanda de poder para mover el incensante incremento de potencia gráfica ya lo han previsto y por eso Vega es escalar (como Zen), así que los 4K/60 fps no es para ellos una cifra ‘especial’, va a ser efímera y superada por la siguiente y así sucesivamente cada vez más rápido por lo que para los que necesiten cubrir semejantes demandas tendrán sus soluciones específicas.

            Otra osa es que para el mainstream ‘establezcan’ resoluciones más bajas y creen productos que cubren (y no van más allá) esas demandas. De momento, las cifras dicen que los $ que mueve el mercado 4K es pecata minuta respecto al total.

        • Jorge Alvarado

          Yo te respondo rápido quienes son los que tienen el mercado alto a lo mucho el 5% entonces vamos a sacar algo tu eres del mercado de gama alta que extrañamente se compran tarjeta cada año sabe dios porque , pero al mercado que esta llendo amd es el de media donde esta todo el dinero pero con mejor calidad una tarjeta barata con mejor resolución y volta no se sabe más que va ser para inteligencia artificial

  • David Minguillon Cabrera

    El tdp a mi me la suda, tengo una 290 y 290x xd

    • ULISES GUTIERREZ

      comparto tu opinion, creo que no habra nada que consuma mas que la 290x por algun tiempo en terminos de cosnumidor gamer

  • juan luis miceli perez

    No se porque tienen tan elevado el TDP, a muchos no le interesa ese asunto pero eso se refleja en la factura de energía eléctrica, y mas para los jugones jeje… Por otro lado, esto no supone reto alguno para Nvidia, no creo que ni necesiten lanzar volta por ahora, solo con refinar el proceso de fabricación, aumentar los cuda cores, frecuencias, y utilizar memorias gddr5x en toda la gama es suficiente para competir con estas tarjetas y ya en el 2018-2019 vienen y rematan con volta y todo el rollo.

    • Jorge Alvarado

      volta es para inteligencia artificial aun no se ha especificado si van a sacar para videojuegos

    • Товарищ Кельты

      TDP y consumo no es lo mismo. Además la diferencia son unos 50cts al mes para 4h diarias 7/30 exprimiendo la gráfica al 100%, cosa que no pasa nunca.

      • Exactamente, TDP no es = al consumo. Por eso quiero ver como rinde realmente el bicho en mi banco de pruebas y comparar con el resto de mis pruebas.

        Un saludo.

        • Товарищ Кельты

          Yo creo que o venden las 56 a precio de 1060 y las 64 a precio de 1070 o se van a comer los mocos.

      • juan luis miceli perez

        Ok, gracias… lo que pasa era que yo pensaba que mientras mayor sea el calor generado TDP, mayor seria el consumo W… asi que asumi directamente que estas tarjetas consumirian mas.

        • Товарищ Кельты

          Eso solo funciona en GPUs de la misma serie, cada marca calcula el TDP como le sale de los huevos en según que modelos. Por ejemplo un fx8350 es más fácil disiparlo con sus 125W de TDP que un 4770K con un TDP muchísimo más bajo. Si vas por ejemplo a la web de Noctua y miras un disipador verás que te dice hasta que TDP puede disipar y da valores distintos en Intel que en AMD. Pues con las gráficas pasa parecido.

  • Jexux

    Para los mas “viejos” en esta batalla, bien me acuerdo de una gráfica que tuve, la ATI 2900XT era la que derrotaría a las 8800 GTX y solo la superaba en temperatura y ruido.
    AMD-ATI para mi tuvo su momento en las 4870 rendimiento/precio. Pocas mas se salvan de la competencia en cuanto a conseguir mas rendimiento que Nvidia.
    Hasta no tenerlas nosotros y ver lo que desempeñan, no me creo nada. Las RX480 también iban a ser mas potentes que las tope de Nvidia y luego la realidad ya la sabemos todos… gráficas muy bonitas en presentaciones y poco mas. Para minar genial, heheheh.
    Estoy deseando de que AMD les moje la oreja a los de Nvidia alguna vez en precio-rendimiento de las gamas altas y pueda haber una guerra de precios en condiciones.

    • Товарищ Кельты

      Las radeon 6XXX se comían con patatas a las gtx 4xx y 5xx, y las 290 y superiores eran un pepinaco de la hostia

      • Jexux

        Las 5870 también salieron muy buenas, pero para luchar contra la top del momento solo han podido con soluciones duales.

        • Товарищ Кельты

          Bueno… La 290X era una barbaridad de gráfica. Que no podía con la Titan? A quien le importa la Titan. Nadie en su sano juicio se compra esa gráfica.

Seguro que te interesa:

Close