¿Vale la pena la Nvidia RTX 4090 y 4080 para los creadores de contenido? [Renderizado 3D, edición de video y más]

la Nvidia RTX 4090 y 4080 para los creadores de contenido

Nvidia mostró su arquitectura Ada Lovelace con tarjetas gráficas GeForce Gaming de primera línea en su discurso de apertura de GTC el 20 de septiembre de 2022.

Conocida como la serie GeForce RTX 4000, Nvidia afirma obtener impresionantes ganancias de rendimiento con respecto a su línea RTX de la generación anterior. Entonces, ¿es hora de salir corriendo y comprar uno tan pronto como encuentre uno en los estantes?

Lamentablemente, no parece tan sencillo.

Primero, aquí están los SKU que el CEO de Nvidia, Jen-Hsun «Jensen» Huang, anunció en el escenario:

Tabla de precios USD y EUR

  • RTX 4090
  • RTX 4080 16GB
  • RTX 4080 12GB (más sobre esto más adelante)

Actualización: Nvidia ‘lanzó’ la RTX 4080 de 12 GB poco después de que escribimos este artículo.

No se compartió información sobre SKU de gama baja como una RTX 4060. Dicho esto, Nvidia cerró la revelación de GPU con una diapositiva preocupante que no es un buen augurio para esas partes:

Familia GeForce RTX

La diapositiva indica que las gráficas de RTX 3000 como RTX 3060, 3070 y 3080 seguirán siendo las ofertas de «rango medio» de Nvidia.

A menos que Nvidia pueda liquidar las existencias existentes o AMD golpee a Nvidia en el estómago con su anuncio de Radeon el 3 de noviembre de 2022 y fuerce su mano, no veo muchas esperanzas de una oferta de rango medio de la serie RTX 4000 en el corto plazo.

(El lanzamiento de Intel de sus tarjetas gráficas Arc A770 y A750 el mismo día en que Nvidia lanzó sus tarjetas de la serie RTX 40 también es algo para ver).

Ahora, dividamos el discurso de apertura del CEO de Nvidia en partes pequeñas, ¿de acuerdo?

Diseccionando los principales anuncios de la serie Nvidia RTX 4000

Impresionantes recuentos de núcleos CUDA

Nvidia ha incluido la friolera de 16,384 núcleos CUDA en su RTX 4090 de primer nivel.

Para poner esto en perspectiva, la RTX 3090 Ti de nivel superior de última generación ofrecía solo 10,752 núcleos CUDA.

Eso es un gran salto.

Especificaciones de la RTX 4080

¡Bajar solo un nivel la RTX 4080 (16 GB) le brinda incluso menos núcleos CUDA que la RTX 3090 de última generación!

Y la RTX 4080 (12 GB) tiene un recuento de CUDA y un ancho de banda de memoria diferentes, por lo que… bueno, no es realmente una RTX 4080

Como referencia, aquí están las especificaciones para la RTX 3080 y 3080 Ti.

Especificaciones de las RTX 3080 y 3080 Ti

Entonces, pasamos de 10 752 núcleos CUDA (RTX 3090 Ti) a 8960/8704 (RTX 3080) en la serie 30. Eso es una caída del 17 % en el número de núcleos de CUDA.

Incluso con la serie RTX 20, la caída se consideró masiva, con una caída del 32 % al pasar de una RTX 2080 Ti a una RTX 2080.

Núcleos CUDA de la serie Nvdia 20

Y esta vez, vamos de 16 384 (RTX 4090) a 9 728 (RTX 4080 16 GB) en un solo salto de SKU. Eso es un recorte del 40 % en el recuento de CUDA.

Nvidia podría haber colocado fácilmente uno o incluso dos SKU más en la brecha entre una RTX 4080 y una RTX 4090. Pero eso habría significado calificar lo que lanzaron como una RTX 4080 de 16 GB ahora como algo así como una RTX 4070, en el mejor de los casos. .

RTX 4090 frente a RTX 3090

Para ser completamente claro, comparar directamente los recuentos de CUDA no es una gran idea porque cada arquitectura funcionará de manera muy diferente y un núcleo de nueva generación será mucho más capaz.

Solo estoy ilustrando cómo la brecha en el extremo superior de la pila de productos se ha ampliado tan drásticamente en esta generación.

Entonces, en cambio, Nvidia siguió el plan de dejar discretamente un abismo significativo entre los 2 SKU principales y agregar un 3 er SKU con un nombre confuso para distraer a todos.

Ahora, mientras los consumidores y los medios celebran que la empresa «lanzó» la RTX 4080 de 12 GB, Nvidia llega al mercado una (especie de) tarjeta de clase *70 por más de 1000€ sin que nadie se inmute.

La Nvidia RTX ‘4080’ de 12 GB: ¿es realmente una 4080?

Actualización: Nvidia revirtió el lanzamiento de la RTX 4080 de 12 GB, calificándolo de «confuso». Sin embargo, sigue adelante con la RTX 4080 de 16 GB sin ningún cambio. 

Antes de sumergirme en este, aquí hay algunas especificaciones de GPU que debería ver.

Dirija su atención a los recuentos de núcleos CUDA y los anchos de interfaz de memoria.

GeForce RTX 4080

Familia GeForce RTX 3080

Comparación de especificaciones de la serie RTX 20

La diferencia en el número de núcleos CUDA entre la RTX 4080 de 12 GB y 16 GB es enorme, sin mencionar el bus de memoria más estrecho de 192 bits. Dato curioso: el bus de 192 bits casi siempre ha sido la elección para las tarjetas de clase 60 de Nvidia.

Ahora, muchos dirían que no importa cuáles sean las especificaciones, siempre que el rendimiento sea comparable. No hay argumentos allí.

Si la brecha de rendimiento entre una RTX 4090 y una RTX 4080 no es enorme, nada más importa.

Pero a partir de las diapositivas de rendimiento que mostró Nvidia, la diferencia en el rendimiento de RT + DLSS en 4K parecía bastante cercana.

Pero para los juegos que no usan estas tecnologías, estoy bastante seguro de que está viendo una caída severa en el rendimiento.

Simplemente no es correcto que Nvidia comercialice la variante de 12 GB como RTX 4080 de ninguna forma.

Aumento del consumo de energía: ¿Vale la pena el rendimiento obtenido?

Aunque hay una mejora considerable en el rendimiento con RTX y DLSS, el nivel de potencia de estas nuevas tarjetas gráficas también parece mucho mayor.

Aquí está el gráfico que Nvidia presentó durante su discurso de apertura:

Consumo de energía de NVIDIA ADA Lovelace

Saliendo de esto, notarás algunas cosas:

  • El consumo de energía en amperios en vataje alcanza un máximo de 350 W en el gráfico, mientras que muchas tarjetas gráficas RTX 3090 Ti podrían consumir hasta ~430 W en juegos y ~490 W en pruebas de esfuerzo. Los modelos que no son OC se sentaron más cerca de la marca de 400W.
  • Ahora, Nvidia informa que las GPU Ada Lovelace supuestamente amplían ese número de 350 W a 450 W.
 

A juzgar por la diferencia entre el número informado de Nvidia para Ampere, apostaría a que la mayoría de las tarjetas gráficas AIB RTX 4090 con OC consumirían hasta 500 W en promedio para juegos y superarían este punto en las pruebas de estrés.

Pero para los profesionales con cargas de trabajo de procesamiento de GPU, debería ver un uso de energía más bajo que los juegos, ya que los relojes no aumentan tanto.

Sin embargo, muchos argumentarían (con razón) que ¡también estás obteniendo el doble de rendimiento! Si realmente está obteniendo el DOBLE del rendimiento de una GPU Ampere y solo desea una sola GPU en su sistema, entonces es una opción fácil.

¡Sí, vale la pena!

Las cargas de trabajo profesionales como el procesamiento de GPU que pueden usar de manera efectiva los núcleos RT de Nvidia deberían disfrutar de una ventaja.

Sin embargo, el hecho de que estas tarjetas sean tan grandes y consuman demasiada energía significa que estaríamos limitando la cantidad de tarjetas gráficas que puede usar en su sistema.

Para las cargas de trabajo de procesamiento de GPU, ese es un factor demasiado importante para ignorarlo.

Reordenación de la ejecución de sombreadores

Nvidia también anunció la inclusión de una nueva tecnología en los multiprocesadores de transmisión de GPU Ada Lovelace llamada Shader Execution Reordering (SER).

¿Qué es Nvidia SER?

Fuente: Nvidia

Durante esta parte del discurso de apertura, Jensen Huang hizo un gran reclamo.

“SM de Ada incluye una nueva tecnología importante llamada Shader Execution Reordering. ¡SER es una innovación tan grande como lo fue la ejecución fuera de orden para las CPU!” – Jensen Huang (CEO, Nvidia)

La ejecución fuera de orden (OoOE) es básicamente lo que hizo realidad la informática convencional a mediados de los 90. La afirmación de que Shader Execution Reordering de Nvidia es una innovación tan grande como OoOE es realmente impresionante y audaz.

Una afirmación que espero sinceramente esté respaldada por un rendimiento igualmente notable porque sería un momento emocionante para el procesamiento de gráficos.

Según Nvidia, SER permite una mejora de hasta 2 o 3 veces en el rendimiento de Ray Tracing y una mejora del 25 % en el rendimiento de rasterización. Por supuesto, las revisiones independientes y los puntos de referencia tendrán que verificar estas afirmaciones, pero si es cierto, es un excelente paso hacia una computación más eficiente.

Representación neuronal RTX cortesía de DLSS 3.0

Nvidia también mostró su nueva tecnología Neural Rendering utilizada en DLSS 3.0.

Cómo funciona Nvidia DLSS 3.0

Fuente: Nvidia

Así es como funciona.

Su tarjeta gráfica procesa el cuadro actual y el cuadro anterior de su juego para evaluar cómo está cambiando una escena. Un generador de flujo óptico maneja y alimenta simultáneamente todos los datos sobre la dirección y la velocidad de los píxeles de cuadro a cuadro.

Los pares de fotogramas y los datos de dirección y velocidad se introducen en la red neuronal para generar fotogramas intermedios. Estos fotogramas intermedios se generan desde cero, lo que garantiza una experiencia de juego fluida.

Nvidia también afirma que debido a que DLSS 3.0 no impone una carga adicional en su GPU, ¡puede aumentar el rendimiento hasta 4 veces!

Dicho esto, las imágenes del juego que Nvidia mostró durante su evento de lanzamiento no fueron demasiado convincentes. Por ejemplo, mostraron Cyberpunk 2077, pero la escena mostrada tenía una panorámica de cámara mínima y un movimiento predecible.

Sin embargo, y esto es pura especulación, las aplicaciones de esta tecnología en el renderizado de GPU podrían ser revolucionarias.

Si pudiera usar IA para generar cuadros intermedios para usted, las tareas de renderizado también deberían, en teoría, aprovechar esta capacidad. Tendremos que esperar y ver cómo/si los motores de renderizado planean usar las GPU Ada Lovelace.

Precios

Aunque el aumento de precio de solo 100€ en el extremo superior absoluto realmente no alejará a la gente, el rango medio más alto realmente dolerá.

Con los recuentos de CUDA que Nvidia ofrece en sus tarjetas de clase 80 ‘premium’ esta vez, el rango medio es más o menos DOA a menos que veamos recortes de precios o cambios en la alineación.

Nada excepto la RTX 4090 tiene sentido para los compradores, en este momento. Si quieres comprar tarjetas de clase 80 o 70, te recomiendo esperar al evento de Radeon para ver cómo responde Nvidia.

Actuación

Estos son los gráficos que Nvidia mostró para las tarjetas gráficas de la serie RTX 40:

Rendimiento de RTX 4080 y RTX 3080

Rendimiento de RTX 4090 y RTX 3090

A primera vista, el rendimiento de los juegos parece increíble, ¿no? Sin embargo, hay una nota al pie menor:

Resolución de 3840 × 2160, configuración de juego más alta, modo de rendimiento de súper resolución DLSS, generación de cuadros DLSS en la serie RTX 40, i9-12900K, 32 GB de RAM, Win 11 x64. Todos los datos de DLSS Frame Generation y Cyberpunk 2077 con el nuevo Ray Tracing: Overdrive Mode basado en compilaciones previas al lanzamiento”.

Por lo tanto, para ver ganancias cercanas a estos números que se muestran, necesita juegos que admitan tanto DLSS como RT. Esperaría alrededor de un 60-70% mejor rendimiento de rasterización.

Incluso con el recuento de núcleos CUDA y las diferencias en el ancho de banda de la memoria, el rendimiento RT + DLSS de estas tarjetas no parece demasiado lejano por alguna razón.

Nvidia también mostró un gráfico para cargas de trabajo profesionales que se ve absolutamente fantástico.

Velocidad de renderizado de la serie RTX 40

Si Nvidia no está usando escenas que ayuden activamente a su nueva arquitectura, las mejoras aquí son bastante sustanciales.

En Redshift, estamos viendo un aumento del 60-70 % en las velocidades de renderizado. Si una sola RTX 4090 puede hacer casi el trabajo realizado por 2 tarjetas gráficas RTX 3090, el consumo de energía no es tan malo.

Puede encontrar resultados de referencia y una descripción general del rendimiento a continuación.

Puntos de referencia de la RTX 4090 para aplicaciones de ordenadores workstations

Cargas de trabajo de procesamiento de GPU

Puntos de referencia de RTX 4090 Redshift

Maxon Redshift es uno de los motores de procesamiento de GPU más populares que existen, y el rendimiento de la serie RTX 40 en esta prueba determinará si es una actualización viable para los profesionales que todavía utilizan GPU más antiguas.

Aunque se escala linealmente con múltiples GPU, las enormes tarjetas RTX 4090 de 4 ranuras ciertamente no permitirán más de 1/2 incluso en sistemas grandes. Y ni siquiera hemos comenzado a considerar el consumo de energía todavía.

Puntos de referencia de RTX Redshift

No hay absolutamente ninguna duda sobre el rendimiento que aporta la RTX 4090. ¡Se ha reducido a poco más de un minuto! Eso es impresionante. Duplicar el rendimiento de una RTX 3090 no es poca cosa.

La RTX 4090 y su rendimiento en V-Ray

Entonces, duplicar el rendimiento de una RTX 3090 comienza a parecer una tendencia incluso con V-Ray, ¿no es así? ¡El poderoso renderizado de Kitchen ahora solo toma un poco más de un minuto en total con una RTX 4090!

Renderizado Chaos V-Ray - Cocina (NVIDIA GeForce RTX 4090)

Fuente – TechGage

Rendimiento de RTX 4090 en Autodesk Arnold Renderer

La RTX 4090 de Nvidia continúa la tendencia de reducir casi a la mitad los tiempos de renderizado de una RTX 3090 en el popular renderizador Arnold de Autodesk.

Renderizado de Autodesk Arnold - Jaguar E-Type (NVIDIA GeForce RTX 4090)

Fuente – TechGage

RTX 4090 Rendimiento en Blender (Optix)

A veces es difícil visualizar cuánta mejora aporta un producto de nueva generación. Entonces, veamos nuestro cuadro de referencia de Blender antes de agregar la RTX 4090:

Punto de referencia de la licuadora anterior a la 4090

Ahora, después de ejecutar el punto de referencia de Blender Open Data en la RTX 4090, así es como se ve el gráfico:

Gráfico de referencia de la licuadora posterior a RTX 4090

[ Lista completa de puntos de referencia de Blender ]

De un vistazo, está claro que Nvidia ha continuado con su tradición de duplicar efectivamente el rendimiento con cada versión posterior (2080 Ti -> 3090 -> 4090).

Si su carga de trabajo principal es Blender, y necesita toda la velocidad que puede obtener para el renderizado Optix desde una sola GPU, la RTX 4090 no tiene absolutamente ningún igual, en este momento.

Rendimiento de la RTX 4090 en Octane Render

Una vez más, la RTX 4090 supera a la Nvidia RTX 3090 al ofrecer el doble de rendimiento en Octane Render.

En una nota al margen, la única configuración que se acerca a la RTX 4090 requiere la friolera de 8 tarjetas gráficas RTX 2080 Ti. Si ahí es donde estás, es hora de comprar un ordenador con una RTX 4090.

Puntuaciones de Octanebench

[ Lista completa de puntos de referencia de octanaje ]

Está claro que para una configuración de GPU simple o doble, la RTX 4090 tiene una potencia como ninguna otra que hayamos visto antes.

Pero cuando se tiene en cuenta la posibilidad de agregar más GPU a un nodo de renderizado, se desvía un poco.

¿Tiene sentido una RTX 4090 para las cargas de trabajo de procesamiento de GPU?

Aunque estamos impresionados con los números de rendimiento de la RTX 4090 de Nvidia, algunas advertencias hacen que sea una recomendación «absolutamente» difícil.

Si está construyendo una nueva estación de trabajo/nodo de renderizado, tiene mucho sentido optar por la tarjeta gráfica RTX 4090 de Nvidia, ESPECIALMENTE si no está buscando configuraciones de múltiples GPU.

Sin embargo, ¿qué sucede si está actualizando desde piezas de una generación anterior?

Ahí es donde las cosas se ponen un poco turbias. Tres cosas que los profesionales deben considerar:

  1. Eche un vistazo más de cerca a los gráficos de rendimiento, especialmente a los números de la serie 30, y tenga en cuenta que la mayoría de ellos ofrecen tarjetas de soplado de 2 ranuras.
  2. El uso de una RTX 4090 limita severamente la cantidad de GPU que puede agregar para acelerar aún más sus renderizados en procesadores de GPU como Redshift.
  3. ¿Agregar otra GPU más barata le daría un rendimiento similar?

Aquí hay algunas estimaciones:

Suponga que ejecuta un nodo de renderizado con cuatro tarjetas gráficas RTX 2080 Ti. El tiempo aproximado en que completará el punto de referencia de Redshift sería alrededor de ~ 64-67 segundos.

¿Qué pasa si usas 4 RTX 3080 en su lugar? Bueno, ahora ya estarás completando este renderizado en unos ~45-47 segundos.

Un solo RTX 4090 completa esta escena de referencia en el doble de tiempo, en 85 segundos . Si logra incluir 2 de estos en una compilación, reducirá ese tiempo a 42 ~ segundos.

Desafortunadamente, la caída no es lo suficientemente amplia como para justificar una actualización de Redshift. Todavía.

Puede obtener un valor mucho mejor simplemente colocando otra GPU en su compilación. 

Recomendación para motores de procesamiento de GPU que escalan linealmente (Redshift, etc.):

Agregar más potencia de GPU para acelerar los renderizados es un aspecto importante del renderizado de GPU y brinda a los profesionales una flexibilidad muy necesaria.

Espere la RTX 4090 Blower o SKU más eficientes en el consumo de energía comola RTX 4070, etc. 

A partir de octubre de 2022, las tarjetas gráficas Blower RTX 3080/3090 seguirán siendo la mejor opción. 

Reflexiones sobre el ‘Lanzamiento’ de la RTX 4080 12GB

A pesar de que Nvidia revirtió el lanzamiento de la controvertida RTX 4080 de 12 GB, sigo pensando que fue simplemente una forma de distraer a la gente de la RTX 4080 entorpecido que todavía se encuentra en silencio por la friolera de 1199€.

Además, permitió a Nvidia decir esto en sus diapositivas de lanzamiento:

RTX 4080 | Desde 899€ 

Familia GeForce RTX

Más artículos interesantes