HPC y GPU Computing

El acelerador más rápido para análisis de datos y cálculo científico.



NVIDIA Tesla™

Las GPU con tecnología NVIDIA Pascal ofrecen el motor de cálculo para la nueva era de la inteligencia artificial, permitiendo acelerar tanto el entrenamiento como la implementación en las aplicaciones de deep learning para brindar una experiencia increíble al usuario.


Los centros de datos HPC deben hacer frente a las necesidades de cálculo cada vez mayores de sus científicos e investigadores sin olvidar las restricciones presupuestarias. El enfoque convencional, consistente en instalar numerosos nodos de procesamiento de tipo estándar, dispara las necesidades de interconexión y los costes asociados, sin por ello mejorar proporcionalmente el rendimiento del centro de datos.


La unidad NVIDIA Tesla™ P100 PCIe permite a los centros de datos con aplicaciones HPC sustituir hasta la mitad de un rack de nodos de CPU estándar por un solo nodo acelerado capaz de ofrecer la misma velocidad de procesamiento en toda una variedad de aplicaciones HPC . Con la posibilidad de acelerar más de 400 aplicaciones HPC (incluidas 9 de las 10 más utilizadas), los clientes pueden aumentar drásticamente la velocidad de procesamiento HPC y ahorrar costes.


La rapidez en entrenamiento en DEEP LEARNING con modelos cada vez más complejos es esencial para mejorar la productividad de los científicos y acelerar la oferta de servicios de inteligencia artificial (IA). Los servidores basados en Tesla P100 aprovechan la potencia de la nueva arquitectura Pascal para reducir de meses a horas el tiempo de entrenamiento en deep learning.



NVIDIA Tesla
Esquema p100

Cálculos a hyperescala con NVIDIA Tesla™ P4 Y P40


La GPU Pascal es el motor de cálculo para la nueva era de la inteligencia artificial. Acelera las aplicaciones actuales de deep learning a escala, para ofrecer una experiencia sorprendente al usuario.


La rapidez de respuesta es vital para la adopción por parte de los usuarios de servicios tales como la voz interactiva, la búsqueda visual y las recomendaciones de vídeo. La mayor precisión y complejidad de los modelos de deep learning ha provocado que las CPU ya no sean capaces de ofrecer una experiencia interactiva al usuario. Los sistemas Tesla P40 y P4 ofrecen un rendimiento de inferencia 40 veces superior al de las CPU en términos de respuesta en tiempo real.


La unidad Tesla P40 está específicamente diseñada para ofrecer la máxima velocidad de transmisión y hacer frente al crecimiento exponencial del volumen de datos. La unidad ultraeficiente Tesla P4 se ha diseñado para acelerar las cargas de trabajo de inferencia en cualquier servidor multinodo.