NVIDIA RTX PRO™ Sync

NVIDIA RTX PRO™ Sync

Sincronización NVIDIA RTX PRO

Visualizaciones perfectamente sincronizadas a cualquier escala

SINCRONIZACIÓN PERFECTA PARA SISTEMAS MULTIPANTALLA

NVIDIA RTX PRO™ Sync y las GPU NVIDIA Professional compatibles son compatibles con Windows 10, 11 y Linux, lo que proporciona un sistema robusto que te permite:

  • Impulse soluciones multipantalla sincronizadas a gran escala utilizando plataformas de nivel empresarial a cualquier escala, desde señalización digital hasta experiencias a escala de edificios.
  • Sincronice cientos de pantallas para crear soluciones más grandes que la vida real: desde vídeos hasta gráficos interactivos en 3D y todo lo demás.
  • Despliegue en instalaciones punteras de misión crítica en todo el mundo

Configuración y características

Sincronización NVIDIA RTX PRO

Número máximo de GPU por tarjeta de sincronización 4
Número máximo de tarjetas de sincronización por sistema 2
Número máximo de GPU por sistema 8
Número máximo de pantallas o proyectores por sistema 32
Número máximo de pantallas o proyectores con NVIDIA Mosaic™ 32
Compatibilidad con pantallas estereoscópicas SI
Soporte superpuesto para proyectores SI
Compatibilidad con Windows Management Instrumentation (WMI) SI

La solución NVIDIA RTX PRO Sync es compatible con las GPU profesionales NVIDIA RTX™ y NVIDIA Data Center

Arquitectura Producto Sistema operativo
Blackwell
Generación
NVIDIA RTX PRO 6000 Blackwell Workstation Edition
NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition
NVIDIA RTX PRO 5000 Blackwell
NVIDIA RTX PRO 4500 Blackwell
NVIDIA RTX PRO 4000 Blackwell
Windows 11
Windows 10
Linux
Ada
Generación
NVIDIA RTX 6000 Ada Generation
NVIDIA RTX 5000 Ada Generation
NVIDIA RTX 4500 Ada Generation
NVIDIA RTX 4000 Ada Generation
NVIDIA RTX 4000 SFF Ada Generation
NIVIDA L40
NVIDIA L40S
Windows 11
Windows 10
Linux
Ampere
Generación
NVIDIA RTX A6000
NVIDIA RTX A5500
NVIDIA RTX A5000
NVIDIA RTX A4500
NVIDIA RTX A4000
NVIDIA A40
Windows 11
Windows 10
Linux
Turing
Generación
NVIDIA Quadro RTX 8000
NVIDIA Quadro RTX 6000
NVIDIA Quadro RTX 5000
NVIDIA Quadro RTX 4000
Windows 11
Windows 10
Linux

Versiones de Linux compatibles: Ubuntu, Red Hat, OpenSUSE, Fedora

Casos de uso y matriz vertical de NVIDIA RTX PRO Sync

Caso práctico Flujo de trabajo (prácticas en empresas) Verticales Características distintivas
Señalización digital y murales de vídeo Publicidad en comercios
Señalización corporativa
Ferias comerciales
Venta al por menor Bajo consumo
Factor de forma pequeño
Streaming de medios de comunicación y entretenimiento Streaming de medios de comunicación y entretenimiento
Entretenimiento basado en la localización
Virtual Production
Media Broadcast
M&E Superposición de proyecciones
Soporte
Warp Engine
Reproducción 8K sin fisuras
Visualización de la sala de control Sistemas para centrales nucleares
Mercado financiero
Sistemas de distribución de energía
Sistemas de tránsito
Energía
Finanzas
Sector público
MFG
Motor Warp
Escalado de aplicaciones
Aplicación mixta 2D/3D 
Vehículos autónomos / Simuladores Diseño Pared
Sensor en bucle
Drive & Flight Sim
Sector público
Auto
MFG
Motor Warp
Escalado de aplicaciones
Aplicación mixta 2D/3D 
Pantallas interactivas Publicidad en comercios
VR Caves (Museos/Educación)
Energía
Finanzas
Sector público
MFG
Escritorio único
Reproducción 4K sin fisuras

¿Qué es un Clúster de servidores?

¿Qué es un Clúster de servidores?

Cluster servers

Un clúster de servidores es una solución escalable y de alta disponibilidad que agrupa varios servidores para que funcionen como una sola unidad. En otras palabras, es una configuración en la que varios ordenadores trabajan juntos como si fueran uno sólo, ofreciendo una solución robusta y fiable para aplicaciones y servicios críticos.

Existen varios tipos de clúster, como los de alta disponibilidad, equilibrio de carga, computación distribuida y otros. El objetivo principal de un clúster es asegurar que la disponibilidad y el rendimiento de las aplicaciones y servicios estén siempre garantizados, incluso en caso de fallos de hardware o de red. De este modo, las aplicaciones y servicios están disponibles 24/7, ofreciendo una solución fiable y altamente escalable para empresas y organizaciones.

Ventajas de los servidores en clúster

Existen múltiples beneficios y ventajas del uso de servidores en clúster:

Alta disponibilidad: este es uno de los grandes beneficios de la tecnología de clustering, es decir, ofrecer un mejor uptime de servidores gracias a que si falla uno, el resto tomará el trabajo ofreciendo así una alta disponibilidad del servicio.

Alta velocidad de despacho: se obtiene gracias al equilibrio de las cargas, haciendo que los servidores que reciben las solicitudes de los clientes puedan despachar los datos de forma inmediata, sin delays ni retrasos de ningún tipo.

Balanceo de carga: se establecen diferentes métodos de balanceo de carga, haciendo que una o varias peticiones se deriven a determinados hosts, mientras que otras irán destinadas a otro grupo de servidores bajo el clúster. Esto hace que ningún servidor se vea saturado.

Escalabilidad: la mayoría de los clúster de servidores soportan escalabilidad de forma horizontal, permitiendo agregar más servidores de forma masiva según se necesite debido a una posible creciente demanda de parte de los usuarios.

Resistencia ante ataques DDOS: tener un clúster de servidores ofrece un beneficio adicional de soportar mejor las cargas de sistema que se originan ante ataques DDOS (ataque de denegación de servicio distribuido) masivos, donde se suelen inundar los servidores con peticiones no deseadas. El uso de múltiples servidores puede ayudar a resistir mejores diferentes tipos de ataque destinados a agotar los recursos de sistema o red.

Varios cluster

Aplicaciones más comunes de los clusters

Clúster de cómputo: Se utiliza para procesar grandes cantidades de datos, como simulaciones científicas y análisis financieros. Están diseñados para distribuir la carga de procesamiento entre múltiples nodos, lo que aumenta la velocidad de procesamiento.

Clúster de almacenamiento: Se utiliza para almacenar y administrar grandes cantidades de datos, como bases de datos corporativas, archivos multimedia y copias de seguridad. Ofrecen alta disponibilidad y tolerancia a fallos, garantizando que los datos sean accesibles incluso en caso de fallas de hardware o de red.

Clúster web: Se utiliza para proporcionar alta disponibilidad y escalabilidad para sitios web y aplicaciones web. Distribuyen la carga de tráfico entre múltiples nodos, lo que ayuda a garantizar que las aplicaciones web sean rápidas y estén disponibles incluso durante las horas pico de tráfico.

Clúster de bases de datos: Se utiliza para garantizar alta disponibilidad y escalabilidad en bases de datos críticas para el negocio. Replican datos en múltiples nodos, lo que garantiza que los datos sean accesibles incluso en caso de fallas de hardware o de red.

Clúster de computación de alto rendimiento (HPC): High Performance Computing, se utiliza para realizar cálculos intensivos a gran escala, como por ejemplo, simulaciones de modelos climáticos y análisis de proteínas. Utilizan gran potencia a nivel de CPU-GPU, memoria y velocidad de lectura/escritura en disco. 

¿Cómo funciona una configuración de clúster?

Administrador de sistemas

La configuración de un clúster implica tres componentes principales: hardware, software y proceso de configuración. Aquí hay una descripción más detallada de cada componente:

Hardware necesario: el hardware necesario para configurar un clúster incluye servidores, conmutadores de red, dispositivos de almacenamiento y otros componentes de hardware. La cantidad de servidores necesarios para un clúster depende del tamaño y el alcance del clúster, así como de las necesidades de procesamiento, almacenamiento y ancho de banda.

Software utilizado: El software utilizado para configurar un clúster incluye sistemas operativos, administradores de clúster, herramientas de virtualización y otras aplicaciones necesarias para que el clúster funcione. El sistema operativo más común utilizado en clusters es Linux, pero también es posible utilizar otros sistemas operativos, como Windows Server.

Proceso de configuración: el proceso de configuración de un clúster implica instalar el software necesario, configurar la red del clúster y configurar el administrador del clúster. Esto incluye la configuración de funciones como replicación de datos, distribución de carga y tolerancia a fallas. Una vez completada la configuración, el clúster está listo para ser utilizado y administrado.

«Configurar un clúster puede ser un proceso complejo que requiere conocimientos técnicos especializados en hardware, software y redes. Por este motivo, muchas empresas y organizaciones contratan profesionales especializados para ayudar a configurar y gestionar sus clústeres».

ASUS ExpertCenter Pro ET900N G3

ASUS ExpertCenter Pro ET900N G3

ASUS ExpertCenter Pro ET900N G3

El superordenador de IA más avanzado para escritorio, impulsado por la tecnología de NVIDIA Grace Blackwell.

Rendimiento de IA increíble en su escritorio

 

Es el primer ordenador de sobremesa de IA con el Superchip NVIDIA GB300 Grace Blackwell Ultra y hasta 784 GB de memoria coherente, ofreciendo un rendimiento computacional excepcional para cargas de trabajo de entrenamiento e inferencia de IA en su escritorio.

Al combinar capacidades de sistema de vanguardia con la plataforma NVIDIA® CUDA X-AI™, ASUS ExpertCenter Pro ET900N G3 está diseñado específicamente para la mejor solución de desarrollo de IA para equipos de sobremesa.

Avances tecnológicos

chip nvidia grace

Superchip de escritorio Grace Blackwell Ultra

ASUS ExpertCenter Pro ET900N G3 incorpora la GPU NVIDIA Blackwell Ultra, equipada con la última generación de núcleos NVIDIA CUDA y núcleos Tensor de quinta generación. Se conecta a una CPU NVIDIA Grace de alto rendimiento mediante la interconexión NVIDIA NVLink-C2C, garantizando una comunicación y un rendimiento de sistema inigualables.

dgx base os

DGX Base OS

NVIDIA Base OS implementa sistemas operativos estables y totalmente cualificados para ejecutar aplicaciones de IA, aprendizaje automático y análisis en la plataforma DGX. Incluye configuraciones específicas del sistema, controladores y herramientas de diagnóstico y supervisión. La ejecución de DGX Base OS permite un escalado simplificado de cargas de trabajo en diversos sistemas, desde una DGX Station hasta varios sistemas e implementaciones de centros de datos.

nvidia cuda-x

Plataforma de IA NVIDIA CUDA-X

Desarrolladores, investigadores e inventores de una amplia gama de disciplinas utilizan la programación por GPU para acelerar sus aplicaciones. Las bibliotecas de CUDA-X™ se basan en CUDA para simplificar la adopción de la plataforma de aceleración de NVIDIA en el procesamiento de datos, inteligencia artificial e informática de alto rendimiento Con más de 400 bibliotecas, los desarrolladores pueden crear, optimizar, implementar y escalar fácilmente aplicaciones en ordenadores, estaciones de trabajo, la nube y superordenadores que utilizan la plataforma CUDA.

tensor cores

Núcleos Tensor de 5ª generación

Las estaciones ASUS ExpertCenter Pro ET900N G3 cuentan con la tecnología de los últimos núcleos Tensor de la generación Blackwell y permite una IA de punto flotante de 4 bits (FP4). Esto duplica el rendimiento y el tamaño de los modelos de próxima generación compatibles con la memoria a la vez que mantiene una gran precisión.xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

NVIDIA NVLink-C2C

NVIDIA NVLink-C2C

NVLink-C2C amplía la tecnología líder del sector NVIDIA® NVLink® a una interconexión entre chips. Esto permite la creación de una nueva clase de productos integrados con partners de NVIDIA, creados a través de chiplets, lo que permite que las GPU, DPU y CPU de NVIDIA estén interconectadas coherentemente con silicio personalizado. El diseño y la disposición de una interconexión entre chips es vital para el funcionamiento, el rendimiento, la eficiencia energética, la fiabilidad y la producción adecuados.

cargas de trabajo

Cambio de potencia optimizado por cargas de trabajo

ASUS ExpertCenter Pro ET900N G3 aprovechan las optimizaciones de sistema basadas en IA que cambian de forma inteligente la potencia en función de la carga de trabajo activa en este momento y maximizan continuamente el rendimiento y la eficiencia.

NVIDIA connectx-8

NVIDIA ConnectX-8

La SuperNIC™ NVIDIA ConnectX®-8 está optimizada para impulsar las cargas de trabajo de computación de IA a hiperescala. Con hasta 800 gigabits por segundo (Gb/s), la SuperNIC ConnectX-8 ofrece conectividad de red extremadamente rápida y eficiente. Esto mejora significativamente el rendimiento del sistema para fábricas de IA.                                                                              

memoria coherente

Memoria coherente de gran tamaño para la IA

Los modelos de IA continúan creciendo en escala y complejidad. El entrenamiento y la ejecución de estos modelos dentro de la gran memoria coherente de NVIDIA Grace Blackwell Ultra permite entrenar y ejecutar de forma eficiente modelos a escala masiva dentro de una agrupación de memoria, gracias a la interconexión del superchip C2C que evita los cuellos de botella de los sistemas tradicionales de CPU y GPU.

Especificaciones

Especificaciones de DGX Station

AMD Instinct serie MI350 y ASUS ESC A8A-E12U

AMD Instinct serie MI350 y ASUS ESC A8A-E12U

AMD Instinct ASUS

ASUS presenta su nuevo servidor insignia en IA

ASUS ESC A8A-E12U es un servidor 7U de alto rendimiento diseñado para satisfacer las crecientes demandas de las cargas de trabajo de IA y HPC. Combinado con dos procesadores AMD EPYC™ 9005, el servidor ESC A8A-E12U aprovecha la arquitectura de las GPU de la serie MI350 para ofrecer un rendimiento excepcional en una amplia gama de escenarios exigentes, como el entrenamiento y la inferencia de grandes modelos de lenguaje (LLM), el desarrollo preciso de IA generativa y la ejecución de simulaciones de cálculo científico. Con 288 GB de memoria de alto ancho de banda por GPU y un ancho de banda de hasta 8 TB/s, se necesitan menos GPU para soportar modelos de mayor tamaño, lo que reduce la densidad de servidores y simplifica la planificación de la infraestructura. Esto permite a las organizaciones escalar de forma más eficiente, minimizar el consumo de energía y reducir el coste total de propiedad en los centros de datos impulsados por la IA.

Los nuevos aceleradores AMD Instinct

Además, las GPU AMD Instinct de la serie MI350 integran funciones de seguridad avanzadas como arranque seguro, atestación DICE, SR-IOV para virtualización multi-tenant segura y cifrado de la comunicación GPU-GPU, lo que convierte a la ESC A8A-E12U en una solución ideal para entornos multi-tenant en los que la confidencialidad de los datos y el cumplimiento de la normativa son fundamentales, como ocurre en los sectores gubernamental, financiero y sanitario.

ASUS ESC A8A-E12U.
ASUS ESC A8A-E12U

«A medida que las cargas de trabajo de IA continúan evolucionando en complejidad y escala, ASUS se compromete a ofrecer soluciones de infraestructura que ayuden a nuestros clientes a avanzar más rápido», dijo Paul Ju, Director General de la Unidad de Negocio de Servidores de ASUS. «Con soporte para GPUs AMD Instinct serie MI350, nuestro servidor ESC A8A-E12U proporciona una plataforma robusta y preparada para el futuro para despliegues de IA y HPC de la próxima era.»

NVIDIA DGX Spark

NVIDIA DGX Spark

DGX Spark

NVIDIA DGX Spark es un potente sistema que utiliza el superchip NVIDIA GB10 Grace Blackwell para ofrecer un rendimiento impresionante en inteligencia artificial de 1000 TOPS (1.000 billones de operaciones por segundo), en un tamaño similar al de un Mini PC. Tiene 128 GB de memoria y ya incluye el software de inteligencia artificial de NVIDIA, lo que facilita a los desarrolladores la creación, mejora y aplicación de modelos de IA de empresas reconocidas como DeepSeek, Meta y Google. Esto les permite trabajar de forma local con modelos que tienen hasta 200 mil millones de parámetros y distribuirlos de manera sencilla en centros de datos o en la nube. Ideal para las cargas de trabajo de desarrolladores de IA, investigadores y científicos de datos.

Caracteristicas

GPU NVIDIA, CPU, redes y tecnologías de software de IA

chip nvidia grace

Superchip GB10 de NVIDIA

Experimenta hasta 1000 TOPS de rendimiento de IA a precisión FP4 con la arquitectura NVIDIA Grace Blackwell.

memoria coherente

128 GB de memoria coherente

Ejecute cargas de trabajo de desarrollo y pruebas de IA con modelos de IA de hasta 200.000 millones de parámetros en su escritorio con una gran memoria de sistema unificada.

NVIDIA connectx-8

Redes NVIDIA ConnectX

La red de alto rendimiento NVIDIA Connect-X® permite conectar dos sistemas NVIDIA DGX Spark para trabajar con modelos de IA de hasta 405.000 millones de parámetros.

nvidia cuda-x

Pila de software de IA de NVIDIA

Utilice una solución completa para cargas de trabajo de IA generativa, incluidas herramientas, marcos, bibliotecas y modelos preentrenados.

DGX Spark open

NVIDIA DGX Spark

Especificaciones

Valor

Arquitectura NVIDIA Grace Blackwell
GPU Arquitectura Blackwell
CPU 20 núcleos Arm,10 Cortex-X925 + 10 Cortex-A725
Núcleos CUDA Generación Blackwell
Núcleos tensores 5ª generación
Núcleos RT 4ª generación
Rendimiento del tensor1 1.000 AI TOPS
Memoria del sistema 128 GB LPDDR5x, memoria de sistema unificada
Interfaz de memoria 256 bits
Ancho de banda de memoria 273 GB/s
OS SISTEMA OPERATIVO DGX
Almacenamiento 4 TB NVME.M2 con autocifrado
USB 4x USB tipo C
Ethernet 10 GbE 1x conector RJ-45
NIC NIC inteligente ConnectX-7
Wi-Fi Wi-Fi 7
Bluetooth BT 5.3
Salida de audio Salida de audio multicanal HDMI
Consumo de energía TBD
Conectores de pantalla 1x HDMI®™2.1a
NVENC | NVDEC 1x | 1x
Dimensiones del sistema 150 mm largo x 150 mm ancho x 50,5 mm alto
Peso del sistema 1,2 kg