Rendimiento y Escalado Multi-GPU en Octane y Redshift con Geforce RTX

Rendimiento y Escalado Multi-GPU en Octane y Redshift con Geforce RTX

Anteriormente, nos dimos cuenta que en soluciones Multi-GPU con Geforce RTX cuando realizábamos tareas de render daba lugar a un sobrecalentamiento y a una reducción significativa del rendimiento, debido a la solución de doble/triple ventilador que NVIDIA ha adoptado como estándar en esta generación de tarjetas “Founders Edition», así como en distintos modelos de ensambladores que emplean estos sistemas en sus GPUs enfocadas al sector de consumo y/o gaming. En esta entrada de blog puedes consultar los resultados de las pruebas.

Ahora que fabricantes como ASUS emplean sistemas Blower para refrigerar sus GPUs, podemos comprobar en las siguientes pruebas como se resuelven los problemas de Thermal Throttling y averiguar qué tan bien escalan estas GPUs cuando usamos 1, 2, 3, o incluso 4 de ellas para renderizar, por ejemplo, en OctaneRender y Redshift, como podemos ver a continuación.

Lo primero que podemos ver en las siguientes tablas son los resultados de los benchmarks según el número de GPUs que usemos:

Y podemos comprobar fácilmente como las GPUs escalan de manera casi lineal cuando pasamos de una GPU a cuatro:

Sin embargo, estos resultados no nos dicen nada si no los comparamos con las pruebas realizadas con sistemas Multi-GPU empleando gráficas con sistemas de ventilación Dual Fan. Aquí podemos ver la diferencia:

Llegados a este punto podemos comprobar fácilmente como en solucionas Multi-GPU con sistemas de refrigeración Blower tenemos un rendimiento notablemente superior frente a soluciones de refrigeración basadas en doble o triple ventilador.

Te recordamos nuevamente que en Azken Muga empleamos GPUs con sistemas de refrigeración Blower para todas nuestras soluciones Multi-GPU, tanto en Workstations como en Servidores de alta densidad.

Para más información no dudes en contactar con nosotros

Configuraciones Multi-GPU con Nvidia RTX | Temperatura y rendimiento

Configuraciones Multi-GPU con Nvidia RTX | Temperatura y rendimiento

Durante muchos años, configurar una estación con 2, 3 o incluso 4 GPUs era una opción viable e ideal para muchas aplicaciones de cálculo GPU como el renderizado, corrección de color y Machine/Deep Learning entre otros. Antes de la serie RTX, los diseños de ventilación de los modelos de «referencia» de NVIDIA tenían un ventilador situado cerca de la parte frontal de la GPU que introducía aire frío, lo movía a través del disipador térmico y expulsaba este aire ya caliente por la parte posterior. A este tipo de ventilación se le denomina Blower.

El uso de varias tarjetas de este tipo sólo requería un buen flujo de aire interno, espacio suficiente entre cada GPU y una fuente de alimentación lo suficientemente potente como para mantenerlas todas en funcionamiento.

Con el lanzamiento de las GPUs GeForce RTX, sin embargo, todo cambió. Esta serie se estrenó con las soluciones de doble ventilador y, aunque los distintos fabricantes y ensambladores ya usaban estos sistemas de refrigeración en generaciones anteriores, éstas se convirtieron en la norma con RTX.

Con una sola GPU, y un flujo de aire decente, esto no suele ser un gran problema. Aunque puede ser un reto en las estaciones con un factor de forma reducido (ITX) como puede ser nuestra R-Series , que tienden a tener un flujo de aire restringido. Sin embargo, una vez que pasamos a dos GPUs, habremos duplicado la cantidad de calor que se está introduciendo de nuevo al sistema, lo que requiere aún más trabajo por parte de los ventiladores del chasis, además que los ventiladores de una GPU puedan aspirar el aire ya caliente que acaba de salir de la otra GPU. Esto acabaría afectando drásticamente a las temperaturas de las GPUs y provocando un aumento de la velocidad de los ventiladores (ruido añadido) y un posible sobrecalentamiento. Cuando las GPUs se calientan demasiado, reducen la frecuencia para evitar daños y, por tanto, reducen el rendimiento (Thermal Throttling).

 

Con cuatro GPUs RTX 2080 Founders Edition (doble ventilador), comprobamos que se sobrecalientan y aceleran en cuestión de minutos después de estar bajo carga, y esto antes incluso de completar una sola pasada de, por ejemplo, OctaneBench y Redshift que son dos de los mejores motores de Render basados en GPU:

 

Y este problema se agrava con las siguientes series que hacemos en Octane y también en Redshift:

 

En sistemas Multi-GPU tanto en Geforce RTX como Quadro RTX, empleando tarjetas con sistemas de refrigeración Blower, podemos comprobar como las GPUs pueden mantener el rendimiento completo con cada serie que pasan en Octane y Redshift.

¿Existen maneras de solucionar estos problemas de rendimiento y refrigeración?

Sí. En el caso de las Geforce RTX, OEMs como Asus, Gigabyte y PNY han incluido en su catálogo GPUs con sistemas de ventilación Blower diseñadas para configuraciones Multi-GPU (aquí podemos enlazar con nuestras Geforce de la web). Pero estaríamos limitados por los 6, 8 u 11 GB de memoria de vídeo que se encuentran en estas GPUs. Para los usuarios que deseen utilizar varias tarjetas con más de 11 GB de VRAM, las GPUs Quadro RTX son la única opción (enlazar con la sección de Quadro de la web), además de las ventajas que estas conllevan, tanto a nivel de drivers dedicados como en términos de garantía, ya que son las únicas aceptadas por Nvidia, fuera de la gama Tesla, para integrar en servidores.

 

Test Drive con la tecnología de Nvidia Tesla V100

Test Drive con la tecnología de Nvidia Tesla V100

PRUEBA LAS GPU NVIDIA TESLA V100 CON TU APLICACIÓN

Azken Muga y Nvidia te brindan la oportunidad de realizar una prueba gratuita de las aceleradoras GPU Tesla y ejecutar tus aplicaciones más rápido que nunca. Consigue un rendimiento hasta 10 veces superior a una CPU, sobre una plataforma basada en Tesla V100 que es capaz de reemplazar más de 60 nodos de CPU.

Formulario de solicitud

13 + 9 =

Desde descubrimientos científicos hasta la inteligencia artificial, la computación de alto rendimiento (HPC) es el pilar imprescindible que impulsa el progreso de la humanidad. Los actuales datacenters de HPC están resolviendo actualmente algunos de los retos más importantes a los que se enfrenta el mundo hoy en día. Con las CPU tradicionales, que ya no son capaces de ofrecer el incremento de rendimiento a las que estábamos acostumbrados, el único camino hacia los datacenters de HPC es a través de la computación en GPU.

Nvidia Tesla es la plataforma líder para computación acelerada y potencia algunos de los datacenters más grandes del mundo, – consiguiendo mayor capacidad de cálculo a la vez que ahorra costes. La GPU Nvidia Tesla V100 basada en la arquitectura nvidia VOLTA es el motor computacional ideal para computación científica e inteligencia artificial. Las razones para implantar Tesla V100 en el datacenter son múltiples. Entre otras, porque la revolución de la inteligencia artificial (IA) ya ha llegado, y todo datacenter debería estar preparado para ello. La inteligencia artificial es el motor detrás de todos y cada uno de los servicios al consumidor de los que usamos a diario, como búsquedas web y recomendaciones de vídeos. La IA amplía la computación intensiva tradicional permitiendo a los investigadores analizar grandes volúmenes de datos para proveer de una rápida visión donde la simulación no es capaz de llegar a la hora de predecir con precisión el mundo real, en dominios como la bioinformática, investigación de medicamentos, y física de alta energía. Más de 550 aplicaciones están optimizadas para la arquitectura GPU en una enorme variedad de campos incluyendo química cuántica, dinámica molecular, predicción del clima y muchas más. De hecho, un estudio independiente demuestra que el 70% de las aplicaciones HPC más populares soportan computación en GPU, entre ellas las 10 aplicaciones más populares del mundo.