En el arranque de la GTC sep22, Jensen Huang desvela los avances de la comprensión del lenguaje natural, el metaverso, los juegos y las tecnologías de IA que afectan a sectores que van desde el transporte y la sanidad hasta las finanzas y el entretenimiento.
Los nuevos servicios en la nube para apoyar los flujos de trabajo de IA y el lanzamiento de una nueva generación de GPU GeForce RTX. Estos han sido los protagonistas de la conferencia magistral de la GTC sep22 de NVIDIA; que ha estado repleta de nuevos sistemas y softwares.
La computación está avanzando a velocidades increíbles. El motor que impulsa este cohete es la computación acelerada y su combustible es la IA.
Jensen Huang, CEO de NVIDIA.
Huang relacionó las nuevas tecnologías con nuevos productos y nuevas oportunidades; desde el aprovechamiento de la IA para deleitar a los jugadores con gráficos nunca vistos, hasta la construcción de campos de pruebas virtuales donde las mayores empresas del mundo puedan perfeccionar sus productos.
Las empresas obtendrán nuevas y potentes herramientas para aplicaciones de HPC con sistemas basados en la CPU Grace y el superchip Grace Hopper. Los jugadores y creadores obtendrán nuevos servidores OVX impulsados por las GPU Ada Lovelace L40 para centros de datos. Los investigadores y científicos informáticos obtendrán nuevas funciones de modelos de lenguaje de gran tamaño con el servicio NeMo de NVIDIA LLM. Y la industria automovilística recibe Thor, un nuevo cerebro con un asombroso rendimiento de 2.000 teraflops.
Huang destacó cómo importantes socios y clientes de una variedad de sectores están implementando las tecnologías de NVIDIA. Por ejemplo, Deloitte, la mayor empresa de servicios profesionales del mundo, va a ofrecer nuevos servicios basados en NVIDIA AI y NVIDIA Omniverse.
Un «salto cuántico» en esta GTC sep22: GPU GeForce RTX 40 series
Lo primero que se presentó en la GTC sep22 fue el lanzamiento de la nueva generación de GPU GeForce RTX Serie 40 con tecnología Ada, que Huang calificó de «salto cuántico» que allana el camino a los creadores de mundos totalmente simulados.
Fuente: NVIDIA
Huang presentó a su audiencia Racer RTX, una simulación totalmente interactiva y enteramente trazada por rayos, con toda la acción modelada físicamente.
Los avances de Ada incluyen un nuevo multiprocesador de flujo, un nuevo RT con el doble de rendimiento de intersección de rayos y triángulos y un nuevo Tensor Core con el motor de transformación Hopper FP8 y 1,4 petaflops de potencia de procesamiento tensorial.
Ada también presenta la última versión de la tecnología NVIDIA DLSS: DLSS 3. Que utiliza la IA para generar nuevos fotogramas comparándolos con los anteriores para entender cómo está cambiando una escena. El resultado: aumentar el rendimiento de los juegos hasta 4 veces con respecto al renderizado por fuerza bruta.
DLSS 3 ha recibido el apoyo de muchos de los principales desarrolladores de juegos del mundo, con más de 35 juegos y aplicaciones que han anunciado su compatibilidad.
DLSS 3 es uno de nuestros mayores inventos en materia de renderizado neuronal
Jensen Huang, CEO de NVIDIA.
Una nueva generación de GPU GeForce RTX
Esta tecnología ayuda a ofrecer 4 veces más rendimiento de procesamiento con la nueva GeForce RTX 4090 frente a su precursora, la RTX 3090 Ti. La nueva «campeona de los pesos pesados» tiene un precio inicial de 1.599 dólares y estará disponible el 12 de octubre.
Además, la nueva GeForce RTX 4080 se lanzará en noviembre con dos configuraciones:
La GeForce RTX 4080 de 16 GB, con un precio de 1.199 dólares, tiene 9.728 núcleos CUDA y 16 GB de memoria Micron GDDR6X de alta velocidad. Con DLSS 3, es dos veces más rápida en los juegos actuales que la GeForce RTX 3080 Ti, y más potente que la GeForce RTX 3090 Ti a menor potencia.
La GeForce RTX 4080 12GB tiene 7.680 núcleos CUDA y 12 GB de memoria Micron GDDR6X, y con DLSS 3 es más rápida que la RTX 3090 Ti, la GPU insignia de la generación anterior. Su precio es de 899 dólares.
Otra novedad de esta GTC sep22 es que NVIDIA Lightspeed Studios utilizó Omniverse para reimaginar Portal, uno de los juegos más célebres de la historia. Con NVIDIA RTX Remix, un conjunto de herramientas asistidas por IA, los usuarios pueden modificar sus juegos favoritos, lo que les permite aumentar la resolución de las texturas y los activos, y dar a los materiales propiedades físicamente precisas.
Fuente: NVIDIA
Impulsando los avances de la IA: la GPU H100
Relacionando los sistemas y el software con las tendencias tecnológicas generales, Huang explicó que los grandes modelos de lenguaje, o LLM; y los sistemas de recomendación son los dos modelos de IA más importantes en la actualidad.
Y los grandes modelos de lenguaje basados en el modelo de deep learning Transformer, presentado por primera vez en 2017, se encuentran ahora entre las áreas más vibrantes para la investigación en IA y son capaces de aprender a entender el lenguaje humano sin supervisión o conjuntos de datos etiquetados.
Un solo modelo preentrenado puede realizar múltiples tareas, como la respuesta a preguntas, el resumen de documentos, la generación de textos, la traducción e incluso la programación de software. Hopper está en plena producción y pronto se convertirá en el motor de las fábricas de inteligencia artificial del mundo
Jensen Huang, CEO de NVIDIA.
Grace Hopper, que combina la CPU Grace para centros de datos basada en Arm con las GPU Hopper, con su capacidad de memoria rápida 7 veces mayor, supondrá un «salto de gigante» para los sistemas de recomendación. Los sistemas que incorporen Grace Hopper estarán disponibles en el primer semestre de 2023.
Tejiendo el metaverso: la GPU L4
La próxima evolución de internet, denominada metaverso, se ampliará con el 3D.
Omniverse es la plataforma de NVIDIA para crear y ejecutar aplicaciones del metaverso. La conexión y simulación de estos mundos requerirá nuevos ordenadores potentes y flexibles. Y los servidores OVX de NVIDIA están pensados para escalar estas aplicaciones. Los sistemas OVX de segunda generación de NVIDIA estarán equipados con las GPU para Ada Lovelace L40.
Thor para vehículos autónomos, robótica, instrumentos médicos y más
En los vehículos actuales, la seguridad activa, el aparcamiento, el control del conductor, las cámaras de los retrovisores, el clúster y el ordenador de a bordo son gestionados por distintos ordenadores. En el futuro, estarán a cargo de un software que mejorará con el tiempo y que se ejecutará en un ordenador centralizado.
Y en este sentido, Huang presentó DRIVE Thor, que combina el motor transformador de Hopper, la GPU de Ada y la sorprendente CPU de Grace.
El nuevo superchip Thor ofrece 2.000 teraflops de rendimiento, sustituyendo a Atlan en la hoja de ruta de DRIVE; y proporcionando una transición perfecta desde DRIVE Orin, que tiene 254 TOPS de rendimiento y se encuentra actualmente en los vehículos de producción.
Thor será el procesador para la robótica, los instrumentos médicos, la automatización industrial y los sistemas de inteligencia artificial de vanguardia.
Jensen Huang, CEO de NVIDIA.
3,5 millones de desarrolladores, 3.000 aplicaciones aceleradas
Existe un ecosistema de software con más de 3,5 millones de desarrolladores que están creando unas 3.000 aplicaciones aceleradas utilizando los 550 kits de desarrollo de software, o SDK, y los modelos de IA de NVIDIA. Y está creciendo rápidamente. En los últimos 12 meses, NVIDIA ha actualizado más de 100 SDK y ha introducido 25 nuevos.
Los nuevos SDK aumentan la capacidad y el rendimiento de los sistemas que ya poseen nuestros clientes, al tiempo que abren nuevos mercados para la computación acelerada.
Jensen Huang, CEO de NVIDIA.
Nuevos servicios para la IA y los mundos virtuales
Basados en la arquitectura de transformadores, los grandes modelos lingüísticos pueden aprender a entender significados y lenguajes sin supervisión ni conjuntos de datos etiquetados, lo que desbloquea nuevas y notables capacidades.
Para facilitar a los investigadores la aplicación de esta «increíble» tecnología, Huang anunció Nemo LLM, un servicio en la nube gestionado por NVIDIA que permite adaptar los LLM preentrenados para realizar tareas específicas. Y para acelerar el trabajo de los investigadores de fármacos y biociencia, también se anunció BioNeMo LLM, un servicio para crear LLMs que comprendan sustancias químicas, proteínas y secuencias de ADN y ARN.
Huang también detalló NVIDIA Omniverse Cloud; una infraestructura que conecta las aplicaciones Omniverse que se ejecutan en la nube, en las instalaciones o en un dispositivo.
Los nuevos contenedores de Omniverse ya están disponibles para su implantación en la nube :
Replicator. Para la generación de datos sintéticos.
Farm. Para el escalado de granjas de renderizado.
Isaac Sim. Para la construcción y el entrenamiento de robots de IA.
Omniverse está siendo adoptado e implementado por importantes compañías en todo el mundo:
Lowe’s. Tiene casi 2.000 puntos de venta, utiliza Omniverse para diseñar, construir y operar gemelos digitales de sus tiendas.
Charter, proveedor de telecomunicaciones de 50.000 millones de dólares; y HeavyAI, proveedor de análisis de datos interactivos. Están utilizando Omniverse para crear gemelos digitales de las redes 4G y 5G de Charter.
GM. está creando un gemelo digital de su estudio de diseño de Michigan en Omniverse, en el que pueden colaborar diseñadores, ingenieros y comercializadores.
Lowe’s está utilizando Omniverse para diseñar, construir y operar gemelos digitales de sus tiendas. Fuente: NVIDIA
Nuevo Jetson Orin Nano para robótica
Jensen Huang anunció también Jetson Orin Nano, un diminuto ordenador para robótica que es 80 veces más rápido que el anterior y superpopular Jetson Nano.
Jetson Orin Nano ejecuta la pila de robótica NVIDIA Isaac y presenta el marco acelerado por GPU ROS 2, y NVIDIA Iaaac Sim, una plataforma de simulación de robótica.
Nuevas herramientas para servicios de vídeo e imagen
La mayor parte del tráfico mundial de Internet es vídeo, y los flujos de vídeo generados por los usuarios se verán cada vez más aumentados por efectos especiales de IA y gráficos por ordenador, explicó Huang.
Los avatares se encargarán de la visión por ordenador, la inteligencia artificial del habla, la comprensión del lenguaje y los gráficos por ordenador en tiempo real y a escala de la nube
Jensen Huang, CEO de NVIDIA.
Para posibilitar nuevas innovaciones en la intersección de los gráficos en tiempo real, la IA y las comunicaciones, Huang anunció que NVIDIA ha estado creando librerías de aceleración como CV-CUDA, un motor de ejecución en la nube llamado UCF Unified Computing Framework, Omniverse ACE Avatar Cloud Engine y una aplicación de muestra llamada Tokkio para avatares de atención al cliente (chatbots).
GTC sep22: esto es solo el comienzo
En la GTC sep22 hemos anunciado nuevos chips, nuevos avances en nuestras plataformas y, por primera vez, nuevos servicios en la nube. Estas plataformas impulsan nuevos avances en IA, nuevas aplicaciones de IA y la próxima ola de IA para la ciencia y la industria
Edge Computing es la práctica de procesar los datos físicamente más cerca de su origen.
Fuente: NVIDIA
Smart cities. Cirugías a distancia. Vehículos totalmente autónomos. altavoces domésticos controlados por voz… Todas estas tecnologías innovadoras son posibles gracias al edge computing.
¿Qué es edge computing?
Edge Computing (traducido a español sería algo así como computación de borde o perimentral) es la práctica de trasladar la potencia de cálculo físicamente más cerca del lugar donde se generan los datos; normalmente, un dispositivo o sensor de IoT. Se denomina así por la forma en que la potencia de cálculo se lleva al «borde», al «extremo», al «límite» de un dispositivo o red. Edge computing se utiliza para procesar los datos más rápidamente, aumentar el ancho de banda y garantizar la autonomía de los datos.
Fuente: NVIDIA
Al procesar los datos en el extremo de la red, edge computing reduce la necesidad de que grandes cantidades de datos viajen entre los servidores, la nube y los dispositivos o ubicaciones de borde. Esto resuelve los problemas de infraestructura que se encuentran en el procesamiento de datos convencional, como la latencia y el ancho de banda. Esto es especialmente importante para aplicaciones modernas como la ciencia de datos y la inteligencia artificial.
Casos de uso
Por ejemplo, los equipos industriales avanzados cuentan cada vez con más sensores inteligentes alimentados por procesadores con capacidad de IA que pueden hacer inferencias en el borde (edge AI). Estos sensores vigilan los equipos y la maquinaria cercana para alertar a los supervisores de cualquier anomalía que pueda poner en peligro la seguridad, la continuidad y la eficacia de las operaciones. En este caso de uso, el hecho de que los procesadores de IA estén físicamente presentes en el emplazamiento industrial, da lugar a una menor latencia y que los equipos industriales reaccionen más rápidamente a su entorno.
La retroalimentación instantánea que ofrece edge computing es especialmente crítica para las aplicaciones en las que la seguridad humana es un factor importante; como ocurre con los coches autónomos, donde el ahorro de milisegundos de procesamiento de datos y tiempos de respuesta puede ser clave para evitar accidentes. O en los hospitales, donde los médicos dependen de datos precisos y en tiempo real para tratar a sus pacientes.
Edge computing puede utilizarse en todos los lugares en los que lo sensores recogen datos; desde tiendas de venta al por menor y hospitales para cirugías a distancia, hasta almacenes con una logística inteligente de la cadena de suministro y fábricas con inspecciones de control de calidad.
¿Cómo funciona edge computing?
Edge computing funciona procesando los datos lo más cerca posible de su fuente o usuario final. Mantiene los datos, las aplicaciones y la potencia de cálculo lejos de una red o un centro de datos centralizados.
Tradicionalmente, los datos producidos por los sensores suelen ser revisados manualmente por humanos, se dejan sin procesar o se envían a la nube o a un data center para ser procesados y luego devueltos al dispositivo. Confiar únicamente en las revisiones manuales da lugar a procesos más lentos y menos eficientes. La computación en la nube proporciona recursos informáticos; sin embargo, el viaje y el procesamiento de los datos suponen una gran carga para el ancho de banda y la latencia.
Ancho de banda y latencia
El ancho de banda es la velocidad a la que se transfieren los datos por Internet. Cuando los datos se envían a la nube viajan a través de una red de área amplia, que puede ser muy cara debido a su cobertura global y a las elevadas necesidades de ancho de banda. Cuando los datos se procesan en el borde, se pueden utilizar redes de área local, lo que supone un mayor ancho de banda con menores costes.
La latencia es el retraso en el envío de información de un punto a otro. Se reduce cuando se procesa en el borde, porque los datos producidos por los sensores y dispositivos IoT ya no necesitan enviar datos a una nube centralizada para ser procesados. Incluso en las redes de fibra óptica más rápidas, los datos no pueden viajar más rápido que la velocidad de la luz.
Al llevar a cabo edge computing se reduce la latencia y se incrementa el ancho de banda, lo que da como resultado información y acciones más rápidas.
Fuente: NVIDIA
Edge computing puede ejecutarse en uno o varios sistemas para acortar la distancia entre el lugar donde se recogen y procesan los datos, reducir los cuellos de botella y acelerar las aplicaciones. Una infraestructura de borde ideal también implica una plataforma de software centralizada que pueda gestionar de forma remota todos los sistemas de borde en una sola interfaz.
¿Por qué es necesaria esta técnica computacional?
Hoy en día, tres tendencias tecnológicas están convergiendo y creando casos de uso que requieren que las organizaciones consideren edge computing: IoT, IA y 5G.
IoT
Con la proliferación de dispositivos IoT llegó la expansión de big data que empezaron a generar las empreas. A medida que las organizaciones aprovechaban la recopilación de datos de todos los aspectos de sus negocios, se dieron cuenta de que sus aplicaciones no estaban construidas para manejar tales volúmenes de datos.
Además, se percataron de que la infraestructura para transferir, almacenar y procesar todos estos datos era extremadamente cara y difícil de gestionar. Esta puede ser la razón por la que solo se procesa una parte de los datos recopilados de los dispositivos IoT (25% en algunos casos).
Y el problema se agrava aún más. En la actualidad hay 40.000 millones de dispositivos IoT y las predicciones indican que podrían aumentar al billón en 2022. A medida que crece el número de dispositivos IoT y aumenta la cantidad de datos que hay que transferir, almacenar y procesar, las organizaciones recurren más a edge computing para reducir los costes necesarios para utilizar los mismos datos en los modelos de computación en la nube.
IA
La IA representa un sinfín de posibilidades y beneficios para las empresas, como la capacidad de obtener información en tiempo real. Las empresas están descubriendo que su infraestructura de nube actual no puede cumplir con los requisitos que requieren los nuevos casos de uso para la IA.
Cuando las organizaciones tienen limitaciones de ancho de banda y latencia, tienen que recortar la cantidad de datos que alimentan a sus modelos. Y esto da lugar a modelos más débiles.
5G
Las redes 5G, diez veces más rápidas que las 4G, están construidas para permitir que cada nodo sirva a cientos de dispositivos; aumentando así las posibilidades de los servicios habilitados por la IA en las ubicaciones de borde.
Con la potente, rápida y fiable capacidad de procesamiento de edge computing, las empresas pueden explorar nuevas oportunidades de negocio, obtener información en tiempo real, aumentar la eficiencia operativa y mejorar la experiencia del usuario.
¿Cuáles son los beneficios de edge computing?
Menor latencia. Al procesar en el borde de una red, se reducen o eliminan los viajes de datos, lo que acelera la IA. Esto abre la puerta a casos de uso con modelos de IA más complejos, como los vehículos autónomos y la realidad aumentada.
Reducción de costes. El uso de una LAN para el procesamiento de datos significa que las organizaciones pueden acceder a un mayor ancho de banda y almacenamiento a un menor coste que con la computación en la nube. Además, como el procesamiento se realiza en el borde, no es necesario enviar tantos datos a la nube o al data center para su procesamiento posterior.
Precisión de los modelos. La IA se basa en modelos de alta precisión, especialmente para los casos de uso que requieren respuestas instantáneas. Cuando el ancho de banda de una red es demasiado bajo, se soluciona reduciendo el tamaño de los datos utilizados para la inferencia. Esto suele dar como resultado imágenes reducidas, fotogramas omitidos en vídeo y frecuencias de muestreo reducidas en audio. Cuando se despliega en el borde, los bucles de retroalimentación de datos pueden utilizarse para mejorar la precisión del modelo de IA y se pueden ejecutar varios modelos simultáneamente, lo que da lugar a una mejor comprensión de los mismos.
Mayor alcance. Internet es necesario para la computación en la nube; pero con edge computing los datos se procesan sin acceso a internet, lo que amplía su alcance a lugares anteriormente inaccesibles.
Autonomía de los datos. Cuando los datos se procesan en el lugar donde se recogen, las organizaciones pueden mantenerlos dentro de la LAN y el firewall de la empresa. Esto se traduce en una menor exposición a los ataques de ciberseguridad de la nube y a las estrictas y cambiantes leyes de protección de datos.
Casos de uso en todas las industrias
Edge computing puede aportar inteligencia en tiempo real a las empresas de todos los sectores.
Fuente: NVIDIA
Comercio minorista
Ante la rápida evolución de la demanda, el comportamiento y las expectativas de los consumidores, los minoristas más grandes del mundo recurren a la IA avanzada para ofrecer mejores experiencias a los usuarios.
Con edge computing los minoristas pueden aumentar su agilidad mediante:
Reducción de las pérdidas. Con cámaras y sensores inteligentes en los comercios que aprovecha edge computing para analizar datos, se pueden identificar y prevenir casos de errores, desperdicios, daños y robos.
Mejora de la gestión del inventario. Las aplicaciones de edge computing pueden utilizar cámaras para alertar cuándo baja el stock, evitando así las posibles roturas.
Optimización de la experiencia de compra. Con el rápido procesamiento de datos de edge computing, los minoristas pueden implementar pedidos por voz para que los compradores puedan buscar fácilmente artículos, pedir información sobre productos y hacer pedidos online utilizando altavoces u otros dispositivos inteligentes.
Smart cities
Ciudades, campus universitarios, estadios y centros comerciales son algunos ejemplos de lugares que han empezado a utilizar la IA para transformarse en espacios inteligentes. Esto se traduce en una mayor eficiencia desde el punto de vista operativo, seguridad y accesibilidad.
Edge computing se ha utilizado para transformar las operaciones y mejorar la seguridad en todo el mundo en áreas como:
Reducción de la congestión del tráfico. Las ciudades utilizan computer vision para identificar, analizar y optimizar el tráfico; disminuir los costes relacionados con los atascos; y minimizar el tiempo que los conductores pasan en el vehículo.
Supervisión de la seguridad en las playas. Detectar los posibles peligros en las playas, como la resaca, las corrientes y las condiciones peligrosas del mar, permite a las autoridades poner en marcha procedimientos para salvar vidas.
Aumento de la eficiencia de las operaciones de las aerolíneas y los aeropuertos. Una aplicación de análisis de vídeo con IA ayuda a las aerolíneas y los aeropuertos a tomar mejores decisiones de forma más rápida en cuanto a capacidad, sostenibilidad y seguridad.
Industria
Las fábricas y las empresas automovilísticas están generando datos de sensores que pueden utilizarse de forma cruzada para mejorar los servicios. Algunos casos de uso para promover la eficiencia y la productividad en la fabricación son:
Mantenimiento predictivo: Detección temprana de anomalías y predicción de cuándo van a fallar las máquinas para evitar tiempos de inactividad.
Control de calidad. Detectar defectos en los productos y alertar al personal al instante para reducir los residuos y mejorar la eficiencia de la fabricación.
Seguridad de los trabajadores. Uso de una red de cámaras y sensores equipados con análisis de vídeo con IA para que los fabricantes puedan identificar a los trabajadores en condiciones inseguras e intervenir rápidamente para evitar accidentes.
Sanidad
La combinación de edge computing e IA está transformando la atención sanitaria. La IA «en el borde» proporciona a los trabajadores sanitarios las herramientas que necesitan para mejorar la eficiencia operativa, garantizar la seguridad y ofrecer una experiencia asistencial de la mayor calidad posible.
Dos ejemplos muy claros de edge computing en este sector son:
Los quirófanos. Los modelos de IA construidos sobre imágenes en streaming y sensores en dispositivos médicos están ayudando a:
La adquisición y reconstrucción de imágenes.
La optimización del flujo de trabajo para el diagnóstico y la planificación de la terapia.
La medición de órganos y tumores.
La orientación de la terapia quirúrgica.
La visualización y monitorización en tiempo real durante las cirugías.
Los hospitales. Los hospitales inteligentes están utilizando tecnologías como la monitorización de pacientes, la detección de enfermedades, la IA conversacional, la estimación de la frecuencia cardíaca, los escáneres radiológicos, etc. Utilizando computer vision se puede ayudar a notificar al personal sanitario cuándo un paciente se mueve o se cae de una cama del hospital.
El futuro de edge computing
La capacidad de obtener información más rápida puede suponer un ahorro de tiempo, costes e incluso vidas. Por ello, las empresas están aprovechando los datos generados por los miles de millones de sensores de IoT que se encuentran en las tiendas, en las calles de las ciudades y en los hospitales para crear espacios inteligentes.
Pero para ello, las organizaciones necesitan sistemas de edge computing que ofrezcan una computación potente y distribuida, una gestión remota segura y sencilla y compatibilidad con las tecnologías líderes del sector.
El mercado de edge computing tendrá un valor de 251.000 millones de dólares en 2025, y se espera que siga creciendo cada año con una tasa de crecimiento anual del 16,4%.
La evolución de la IA, el IoT y el 5G seguirá catalizando la adopción de edge computing. El número de casos de uso y los tipos de cargas de trabajo desplegados «en el borde» crecerán. En la actualidad, los casos de uso más frecuentes giran en torno a computer vision. Sin embargo, hay muchas oportunidades sin explorar en áreas de trabajo como el procesamiento del lenguaje natural, los sistemas de recomendación y la robótica.
Las posibilidades «en el borde» son realmente ilimitadas.
El superordenador de IA de Meta, el mayor sistema para clientes de NVIDIA DGX A100 hasta la fecha, proporcionará a los investigadores de «Meta AI» 5 exaflops de rendimiento de IA y cuenta con sistemas NVIDIA de última generación, tejido InfiniBand y software que permite la optimización en miles de GPU.
«Meta Platforms» ha elegido las tecnologías de NVIDIA para lo que cree que será su sistema de investigación más potente hasta la fecha.
Fuente: NVIDIA
El AI Research SuperCluster (RSC) ya está entrenando nuevos modelos para avanzar en la IA. Una vez desplegado por completo, se espera que el RSC de Meta sea la mayor instalación de sistemas NVIDIA DGX A100 de un cliente.
«Esperamos que el RSC nos ayude a crear sistemas de IA totalmente nuevos que puedan, por ejemplo, realizar traducciones de voz en tiempo real a grandes grupos de personas, cada una de las cuales habla un idioma diferente, para que puedan colaborar sin problemas en un proyecto de investigación o jugar juntos a un juego de realidad aumentada».
Cuando el RSC esté completamente construido, a finales de año, Meta pretende utilizarlo para entrenar modelos de IA con más de un billón de parámetros. Esto podría suponer un avance en campos como el procesamiento del lenguaje natural para tareas como la identificación de contenidos nocivos en tiempo real.
Además del rendimiento a escala, Meta aboga por la fiabilidad extrema, la seguridad, la privacidad y la flexibilidad para manejar una amplia gama de modelos de IA como sus criterios clave para RSC.
El superclúster de investigación de IA de Meta cuenta con cientos de sistemas NVIDIA DGX conectados a una red NVIDIA Quantum InfiniBand para acelerar el trabajo de sus equipos de investigación de IA.
La infraestructura de Meta
El nuevo superordenador de IA utiliza actualmente 760 sistemas NVIDIA DGX A100 como nodos de cálculo. Estos sistemas cuentan con un total de 6.080 GPU NVIDIA A100 conectadas a una red InfiniBand NVIDIA Quantum de 200 Gb/s para ofrecer 1.895 petaflops de rendimiento TF32.
A pesar de los desafíos de COVID-19, RSC tardó solo 18 meses en pasar de ser una idea sobre el papel a un superordenador de IA en funcionamiento; gracias, en parte, a la tecnología NVIDIA DGX A100 en la base de Meta RSC.
Penguin Computing es el socio de NVIDIA Partner Network para RSC. Además de los 760 sistemas DGX A100 y la red InfiniBand, Penguin proporciona servicios gestionados e infraestructura optimizada para la IA de Meta; compuesta por 46 petabytes de almacenamiento en caché con sus sistemas Altus. Pure storage FlasBlade y FlasArray//C proporcionan las capacidades de almacenamiento all-flash de alto rendimiento y escalabilidad necesarias para impulsar el RSC.
Aumento del rendimiento x20
Es la segunda vez que Meta elige las tecnologías de NVIDIA como base de su infraestructura de investigación. En 2017, Meta construyó la primera generación de dicha infraestructura de IA con 22.000 GPUs NVIDIA V100 Tensor Core que manejan 35.000 trabajos de entrenamiento de IA al día.
Las primeras pruebas de Meta mostraron que RSC puede entrenar grandes modelos de PNL 3 veces más rápido y ejecutar trabajos de visión por ordenador 20 veces más rápido que el sistema anterior.
En una segunda fase, a finales de año, RSC ampliará a 16.000 GPUs que proporcionarán 5 exaflops de rendimiento de IA de precisión mixta. Además, Meta pretende ampliar el sistema de almacenamiento de RSC para ofrecer hasta un exabyte de datos a 16 terabytes por segundo.
Una arquitectura escalable
Las tecnologías de IA de NVIDIA están disponibles para empresas de cualquier tamaño.
Nuevas versiones de la plataforma y sus aplicaciones; lanzamiento de pruebas de Omniverse Enterprise llave en mano; nuevas conexiones con la robótica, la automatización industrial, el diseño 3D y el renderizado.
Más de 150.000 personas han descargado ya NVIDIA Omniverse para dar el salto a la transformación de los flujos de trabajo de diseño 3D y alcanzar nuevas cotas de simulaciones en tiempo real y con gran precisión física.
Fuente: NVIDIA
NVIDIA anunció en el Keynote de su evento anual GTC nuevas versiones y actualizaciones para Omniverse (incluidos los últimos conectores y librerías añadidos a la plataforma); que multiplican por 10 el ecosistema y hacen que esta herramienta sea aún más accesible para creadores, desarrolladores, diseñadores, ingenieros e investigadores de todo el mundo.
NVIDIA Omniverse Enterprise está ayudando a las principales empresas a mejorar sus procesos y flujos de trabajo creativos. Por ejemplo, entre los nuevos clientes de Omniverse Enterprise se encuentran Amazon, DB Netze, DNEG, Kroger, Lowe’s y PepsiCo; que están utilizando la plataforma para construir gemelos digitales físicamente precisos o desarrollar experiencias inmersivas realistas para los clientes.
Mejora la creación de contenidos con nuevas conexiones y bibliotecas
El ecosistema Omniverse se está expandiendo más allá del diseño y la creación de contenidos. En un año, las conexiones y las formas de integrarse con la plataforma se han multiplicado por 10.
Nuevas conexiones de terceros: Adobe Substance 3D Material Extension y Painter Connector, Epic Games Unreal Engine Connector y Maxon Cinema 4D. Permitirán flujos de trabajo sincronizados entre aplicaciones de terceros y Omniverse.
Nuevos importadores CAD: su tarea es la de convertir los 26 formatos comunes de CAD al lenguaje USD (Universal Scene Description) para facilitar los flujos de trabajo de fabricación y diseño en Omniverse.
Nuevas integraciones de bibliotecas de recursos: los recursos de TurboSquid by Shutterstock, Sketchfab y Reallusion ActorCore están ahora disponibles dentro de los navegadores de recursos de Omniverse Apps para que los usuarios puedan buscar, arrastrar y soltar cerca de 1 millón de recursos 3D.
Nueva compatibilidad y soporte con Hydra: los usuarios pueden integrar y alternar entre sus renderizadores favoritos soportados por Hydra y Omniverse RTX Renderer dentro de Omniverse Apps. La versión beta para Chaos V-Ray, Maxon Redshift y OYOY Octane ya está disponible; y se espera, próximamente, la de Blender Cycles y Autodesk Arnold.
Fuente: NVIDIA
También hay nuevas conexiones con desarrolladores de software de automatización industrial y gemelos digitales. Bentley Systems, la empresa de software de ingeniería de infraestructuras, ha anunciado la disponibilidad de Lumen RT. En definitiva, este software pone a disposición de unos 39.000 clientes de Bentley Systems una visualización de precisión física a escala industrial. Ipolog, un desarrollador de software de fábrica, logística y planificación, ha lanzado tres nuevas conexiones a la plataforma. Esto, unido al creciente ecosistema de robótica de Isaac Sim, permite a empresas como BMW Group desarrollar mejor gemelos digitales integrales.
Ampliación de funciones y disponibilidad de Omniverse Enterprise
Pronto llegarán nuevas actualizaciones a la plataforma, incluidas las últimas versiones de Kit 103, Create and View 2022.1, Farm y DeepSearch.
Omniverse Enterprise en NVIDIA LaunchPad ya está disponible en nueve regiones del mundo. LaunchPad ofrece a los profesionales del diseño y a los revisores de proyectos un acceso instantáneo y gratuito a Omniverse Enterprise Labs, lo que les ayuda a tomar decisiones más rápidas y seguras sobre el software y la infraestructura.
Los clientes impulsan la innovación con Omniverse Enterprise
Amazon cuenta con más de 200 instalaciones robotizadas que gestionan millones de paquetes cada día. En otras palabras, se trata de una operación compleja que requiere más de medio millón de robots móviles para apoyar la logística del almacén. Gracias a Omniverse Enterprise e Isaac Sim, Amazon Robotics está construyendo con IA gemelos digitales de sus almacenes para optimizar el diseño y el flujo del almacén y entrenar soluciones robóticas más inteligentes.
Fuente: NVIDIA
PepsiCo está estudiando el uso de gemelos digitales impulsados por Omniverse Enterprise y Metropolis para mejorar la eficiencia y la sostenibilidad medioambiental de su cadena de suministro de más de 600 centros de distribución en 200 mercados regionales.
“NVIDIA Omniverse nos ayudará a agilizar las operaciones de la cadena de suministro y a reducir el uso de energía y residuos, al tiempo que avanzamos en nuestra misión hacia la sostenibilidad. Cuando estudiemos nuevos productos y procesos, utilizaremos gemelos digitales para simular y probar modelos y entornos en tiempo real antes de aplicar los cambios a los centros de distribución físicos”
Qi Wang, vicepresidente de Investigación y Desarrollo de PepsiCo.
Fuente: NVIDIA
Por su parte, Lowe’s Innovation Labs está explorando cómo Omniverse puede ayudar a desbloquear la próxima generación de sus tiendas. Está utilizando la plataforma para ampliar los límites de lo que es posible en los gemelos digitales, la simulación y las herramientas avanzadas que eliminan la fricción para los clientes y los asociados.
Kroger tiene previsto utilizar la herramienta para optimizar la eficiencia y los procesos de las tiendas con la simulación de tiendas como gemelos digitales.
Subiendo el listón de los gemelos digitales industriales
NVIDIA presentó en el GTC NVIDIA OVX, una arquitectura de sistemas de computación diseñada para impulsar gemelos digitales a gran escala. NVIDIA OVX está diseñada para realizar simulaciones complejas que se ejecutarán en Omniverse; lo que permitirá a diseñadores, ingenieros y planificadores crear gemelos digitales físicamente precisos y entornos de simulación masivos y fieles a la realidad.
Últimas tecnologías y funciones de Omniverse
Las principales novedades y capacidades anunciadas para Omniverse incluyen:
Nuevas herramientas para desarrolladores: Omniverse Code, una aplicación que sirve como entorno de desarrollo integrado para los desarrolladores; permite a los usuarios crear fácilmente sus propias extensiones, aplicaciones o microservicios de Omniverse.
DeepSearch: un nuevo servicio de búsqueda basado en IA que permite a los usuarios buscar rápidamente en bibliotecas masivas de recursos 3D sin etiquetar utilizando lenguaje natural o imágenes.
Omniverse Replicator: un marco de trabajo para generar datos sintéticos 3D físicamente precisos para acelerar el entrenamiento y la precisión de las redes de percepción. (Disponible en Omniverse Code para que los desarrolladores puedan construir sus propios motores de datos sintéticos específicos de dominio).
OmniGraph, ActionGraph y AnimGraph: importantes novedades que controlan el comportamiento y la animación.
Omniverse Avatar: una plataforma que utiliza la tecnología de IA y simulación para permitir a los desarrolladores construir avatares personalizados, inteligentes y realistas.
Aplicación Omniverse XR: una configuración de Omniverse View optimizada para la realidad virtual que permite a los usuarios experimentar sus escenas 3D de máxima fidelidad con trazado de rayos RTX (ray tracing).
Nuevas versiones de Omniverse Kit, Create, View y Machinima.
Omniverse Cloud
Omniverse Cloud es un conjunto de servicios en la nube que ofrece a artistas, creadores, diseñadores y desarrolladores acceso instantáneo a la plataforma NVIDIA Omniverse para la colaboración y simulación de diseños 3D.
Nucleus Cloud: una herramienta de uso compartido que permite a los artistas acceder a grandes escenas 3D y editarlas desde cualquier lugar; sin necesidad de transferir enormes conjuntos de datos.
Omniverse Create: una aplicación para que diseñadores técnicos, artistas y creadores construyan mundos 3D de forma interactiva y en tiempo real.
Omniverse View: una aplicación para que los usuarios no técnicos puedan ver las escenas de Omniverse en streaming con toda la capacidad de simulación y renderización utilizando la plataforma NVIDIA GeForce NOW, impulsada por las GPU NVIDIA RTX en la nube.
Fuente: NVIDIA
PUESTA EN MARCHA
“Los diseñadores que trabajan a distancia colaboran como si estuvieran en el mismo estudio; los planificadores de fábrica trabajan dentro de un gemelo digital de la planta real para diseñar un nuevo flujo de producción; los ingenieros de software prueban una nueva versión del software en el gemelo digital de un coche autoconducido antes de lanzarlo a circulación. Se avecina una nueva ola de trabajo que solo puede realizarse en mundos virtuales; Omniverse Cloud conectará a decenas de millones de diseñadores y creadores y a miles de millones de futuras IA y sistemas robóticos”.
Jensen Huang, fundador y consejero delegado de NVDIA.
En su discurso de presentación en el GTC, Huang mostró una demo del futuro del diseño en la que tres diseñadores reales y un diseñador IA especializado en Omniverse Avatar colaboraban virtualmente en Omniverse Cloud, realizando cambios de diseño en un proyecto arquitectónico.
El equipo conversó utilizando una herramienta estándar de conferencia web, mientras estaban conectados en una escena alojada en Nucleus Cloud. Uno de los diseñadores ejecutó la aplicación Omniverse View en su estación de trabajo con tecnología RTX; mientras que los otros dos transmitieron Omniverse View desde GeForce NOW a su portátil y Tablet.
“En KPF, líder mundial en diseño arquitectónico, valoramos la capacidad de nuestros diseñadores para colaborar de la forma más fluida posible; poniendo a su disposición tecnologías en la nube cuando las necesitan. Omniverse Cloud encaja perfectamente en esa práctica con la promesa de sobresalir en nuestras capacidades de colaboración de diseño visual y 3D al permitir a nuestros equipos trabajar en Omniverse desde cualquier dispositivo y en cualquier lugar”.
Cobus Bothma, director de Investigación Aplicada de Kohn Pedersen Fox Associates.
Aún, la colección completa de servicios de Omniverse Cloud está en desarrollo.
Las dos compañías tecnológicas se asocian para impulsar la investigación médica en el país asiático
NVIDIA y Asustek Computer, compañía taiwanesa, han anunciado en Abril el inicio de una colaboración con el Instituto Nacional de Investigación Sanitaria de Taiwán (NHRI) para llevar a cabo el desarrollo del primer supercomputador de investigación biomédica basado en IA del país.
Asustek y NVIDIA se ocuparán de aportar la tecnología de IA en la nube y los servidores de computación de alto rendimiento (HPC). Por otro lado, el NHRI se encargará de proporcionar los datos necesarios sobre la investigación sanitaria, según afirma un artículo publicado en Digitimes Asia.
Fuente: HPCwire
Jonney Shih, presidente de Asustek, sostiene que el fruto de dicha alianza será la construcción del primer supercomputador del país dedicado a la investigación biomédica. Para ello se aprovechará la tecnología de supercomputadores de IA de NVIDIA, los modelos de IA y las aplicaciones de computación analítica. Lo mismo se hará con la investigación del NHRI, la plataforma de IA HPC en la nube de Asustek y los servicios de asesoramiento de mantenimiento de Taiwan Web Service (TWS).
Con el fin de impulsar la eficiencia de la investigación de IA del NHRI, Shih afirma que se utilizarán distintos recursos. Entre ellos, destaca el análisis multiómico, la identificación de imágenes médicas y el software de desarrollo de medicamentos y vacunas.
«Además de desarrollar soluciones de HPC para la salud de precisión, la investigación médica y el desarrollo de vacunas, Asustek también trabajará con el NHRI para acelerar el desarrollo de aplicaciones de IA en la industria biomédica de Taiwán, centrándose en los grandes datos para la atención sanitaria y los modelos de IA biomédica»
Digitimes Asia
Antecedentes tecnológicos en Taiwán
En 2018, Asustek se convirtió en proveedor de software del supercomputador Taiwania 2. La compañía informa que desde entonces, ha asignado ingenieros de IA en cloud a la investigación, el desarrollo y la integración del software del sistema. Taiwania 2 ocupa el puesto 54 en la última lista Top500, que representa los supercomputadores más potentes del mundo. En cuanto a la lista Green500, que refleja el nivel de eficiencia energética de los sistemas listados en la lista anterior, ocupa el 34.
Por su parte, el CEO de NVIDIA Jensen Huang, es de origen Taiwanés-americano, por lo que la isla siempre ha sido un gran punto de referencia para la compañía. En Marzo de 2021, la empresa anunció que establecería en Taiwán la base de NVIDIA Inception, su programa de startups de IA y ciencia de datos, convirtiéndose así en el primer centro de su categoría en todo Asia.
El impresionante progreso de la IA y su unión con el Omniverso en el mundo real y virtual
NVIDIA GTC, una de las conferencias sobre IA más importantes del mundo y que reúne a los principales desarrolladores, científicos e investigadores, contó con más de 1.600 ponentes, incluidos los de grandes empresas como American Express, DoorDash, LinkedIn, Pinterest, Salesforce, ServiceNow, Snap y Visa, así como con 200.000 asistentes registrados.
El fundador y CEO de NVIDIA Jensen Huang compartió, el pasado martes 22 de marzo, su visión de una era en la que la inteligencia se crea a escala industrial y se entrelaza con el mundo real y virtual. Además, prometió transformar industrias de un billón de dólares y abordar los grandes retos de nuestro tiempo.
Fuente: NVIDIA
La presentación de Huang en la NVIDIA GTC comenzó con un espectacular recorrido aéreo (como si estuviéramos sobre un dron) por el nuevo campus de NVIDIA, representado en Omniverse. Compartió cómo el trabajo de la compañía con el ecosistema en general está salvando vidas, mediante el avance de la asistencia sanitaria, el descubrimiento de fármacos e, incluso, nuestro planeta, mediante la idea de una simulación eficaz del cambio climático.
«NVIDIA va a afrontar este gran reto con nuestro Earth-2, el primer superordenador gemelo digital de IA del mundo, e inventará nuevas tecnologías de IA y computación».
Jensen Huang, CEO de NVIDIA.
Fuente: NVIDIA
Las empresas están procesando, refinando sus datos, haciendo software de IA, convirtiéndose en fabricantes de inteligencia, explicaba Huang desde un entorno virtual en Omniverse, la plataforma de colaboración y simulación 3D en tiempo real.
«La IA está corriendo en todas las direcciones, y todo ello se reunirá en Omniverse para agilizar la colaboración entre las personas y la IA, modelar y comprender mejor el mundo real y servir de campo de pruebas para nuevos tipos de robots». La próxima ola de IA».
Jensen Huang, CEO de NVIDIA.
NVIDIA H100: un nuevo motor de las infraestructuras mundiales de IA
Huang presentó la GPU NVIDIA H100, construida sobre la arquitectura Hopper, como el «nuevo motor de las infraestructuras de IA del mundo».
«Los data center de IA procesan montañas de datos continuos para entrenar y refinar los modelos de IA. «Los datos en bruto entran, se refinan y la inteligencia sale: las empresas están fabricando inteligencia y operando fábricas gigantes de IA».
Jensen Huang, CEO de NVIDIA
H100 ayudará a estas fábricas a moverse más rápido. Hopper H100 supone el mayor salto generacional de la historia: un rendimiento de entrenamiento a escala 9 veces superior al de A100 y un rendimiento de inferencia de modelos de gran lenguaje 30 veces superior.
Fuente: NVIDIA
«Hopper está repleto de avances técnicos, entre ellos un nuevo motor de transformación que permite acelerar estas redes 6 veces sin perder precisión. El entrenamiento de los modelos de transformación puede reducirse de semanas a días».
Jensen Huang, CEO de NVIDIA.
La GPU H100 está en fase de producción y estará disponible a partir del tercer trimestre de este año, anunció Huang.
DGX H100
En relación con esta nueva arquitectura, también se presentaron en la NVIDIA GTC nuevos superordenadores de IA basados en la GPU Hopper: DGX H100, H100 DGX POD y DGX SuperPOD.
NVIDIA será la primera en construir un DGX SuperPOD con la nueva e innovadora arquitectura de IA para potenciar el trabajo de los investigadores que avanzan en la ciencia del clima, la biología digital y el futuro de la IA.
Se espera que su superordenador «Eos» sea el sistema de IA más rápido del mundo cuando comience a funcionar a finales de este año, con un total de 576 sistemas DGX H100 con 4.608 GPUs DGX H100.
Para conectarlo todo, la nueva tecnología de interconexión de alta velocidad NVLink de NVIDIA llegará a todos los futuros chips de NVIDIA: CPU, GPU, DPU y SOC. Además, NVIDIA pondrá NVLink a disposición de clientes y socios para que construyan chips complementarios.
«NVLink abre un nuevo mundo de oportunidades para que los clientes construyan chips y sistemas semipersonalizados que aprovechen las plataformas y los ecosistemas de NVIDIA».
Jensen Huang, CEO de NVIDIA.
NVIDIA Grace CPU Superchip
Otra de las novedades que se presentaron en la NVIDIA GTC fue el Superchip de GPU Grace, la primera CPU discreta para centros de datos de alto rendimiento.
Grace se compone de dos chips de CPU conectados a través de una interconexión de chip a chip NVLink de 900 gigabytes por segundo para formar una CPU de 144 núcleos con 1 terabyte por segundo de ancho de banda de memoria.
Grace es la CPU ideal para las infraestructuras de IA del mundo.
Un nuevo software para la IA
«Gracias a la aceleración desencadenada por la computación acelerada, el progreso de la IA es impresionante. La IA ha cambiado fundamentalmente lo que el software puede hacer y cómo se hace».
Jensen Huang, CEO de NVIDIA.
Google BERT para la comprensión del lenguaje, NVIDIA MegaMolBART para el descubrimiento de fármacos y DeepMind AlphaFold2 son avances derivados de esta aceleración de la IA. Huang recorrió los nuevos modelos de deep learning para la comprensión del lenguaje natural, la física, el diseño creativo, la animación de personajes e incluso, con NVCell, el diseño de chips.
«La IA va a toda velocidad en todas las direcciones: nuevas arquitecturas, nuevas estrategias de aprendizaje, modelos más grandes y robustos, nueva ciencia, nuevas aplicaciones, nuevas industrias… todo al mismo tiempo. NVIDIA se encuentra con las manos en la masa para acelerar la adopción de todos los avances de la IA y el machine learning en todos los sectores».
Jensen Huang, CEO de NVIDIA.
NVIDIA AI Platform
La plataforma de IA de NVIDIA está recibiendo importantes actualizaciones, entre las que destacan:
Triton Inference Server.
El framework NeMo Megatron 0.9, para el entrenamiento de grandes modelos lingüísticos.
El framework Maxine, para la mejora de la calidad de audio y vídeo.
Fuente: NVIDIA
La plataforma incluye NVIDIA AI Enterprise 2.0, un conjunto de herramientas y frameworks de análisis de datos e inteligencia artificial de extremo a extremo y nativo de la nube, optimizado y certificado por NVIDIA y compatible con los principales centros de datos y plataformas en la nube.
«Hemos actualizado 60 SDKs en esta GTC. Para nuestros 3 millones de desarrolladores, científicos e investigadores de IA y decenas de miles de startups y empresas, los mismos sistemas de NVIDIA que ejecutan son ahora más rápidos».
Jensen Huang, CEO de NVIDIA.
Microsoft Translator acelera las comunicaciones globales con funciones de traducción en tiempo real impulsadas por NVIDIA Triton.
AT&T acelera los equipos de data science con el software NVIDIA RAPIDS que facilita el procesamiento de billones de registros.
Los SDK de NVIDIA están al servicio de los sectores de la salud, la energía, el transporte, el comercio minorista, las finanzas, los medios de comunicación y el entretenimiento.
La próxima evolución: Omniverse para mundos virtuales
A gran escala, un gemelo digital es un mundo virtual que está conectado al mundo físico. Y en el contexto de Internet, es la siguiente evolución.
El software NVIDIA Omniverse para construir gemelos digitales, y los nuevos sistemas NVIDIA OVX serán esenciales para la IA orientada a la acción.
«Al igual que la NASA y Amazon, nosotros y nuestros clientes de robótica y automatización industrial somos conscientes de la importancia de los gemelos digitales y de Omniverse».
Jensen Huang, CEO de NVIDIA.
OVX ejecutará gemelos digitales de Omniverse para simulaciones a gran escala con múltiples sistemas autónomos que operan en el mismo espacio-tiempo. La columna vertebral de OVX es su estructura de red; dijo Huang al anunciar la plataforma de infraestructura de red de datos de alto rendimiento NVIDIA Spectrum-4.
NVIDIA Spectrum-4, la primera plataforma de red integral de 400 Gbps del mundo, está compuesta por la familia de switches Spectrum-4, NVIDIA ConnectX-7 SmartNIC, NVIDIA BlueField-3 DPU y el software de infraestructura de centros de datos NVIDIA DOCA. Además, permite simular con precisión el espacio y el tiempo en la plataforma NVIDIA Omniverse™ para la colaboración y simulación de diseños en 3D.
Fuente: NVIDIA
«Una nueva era de tecnologías en la nube a escala masiva, como Omniverse, requiere una transformación de la arquitectura de los centros de datos. El rendimiento y la seguridad de la plataforma Spectrum-4 equiparán los centros de datos para impulsar descubrimientos revolucionarios que amplíen los límites de lo posible en beneficio de la sociedad.»
Kevin Deierling, Vicepresidente de Redes de NVIDIA.
Y para que Omniverse sea accesible a un número aún mayor de usuarios, Huang ha anunciado Omniverse Cloud. Ahora, con sólo unos pocos clics, los colaboradores pueden conectarse a través de Omniverse en la nube.
La próxima ola de IA:
Vehículos autónomos
Las nuevas capacidades de simulación desencadenarán la próxima ola de IA; robots capaces de idear, planificar y actuar.
El sistema de vehículos autónomos NVIDIA DRIVE es esencialmente un chófer de IA. Por otro lado, Hyperion 8 (la arquitectura de hardware de NVIDIA para coches autónomos en la que se basa NVIDIA DRIVE) puede lograr una conducción autónoma completa con un conjunto de sensores de 360 grados, radar, lidar y ultrasonidos.
Hyperion 8 se instalará en los coches de Mercedes-Benz a partir de 2024 y en los de Jaguar Land Rover en 2025.
Jensen Huang, CEO de NVIDIA.
Huang presentó también NVIDIA Orin, un ordenador centralizado que actúa como motor de vehículos eléctricos de nueva generación, robotaxis, lanzaderas y camiones; e Hyperion 9, que incluye SoC DRIVE Atlan para duplicar el rendimiento de la arquitectura basada en DRIVE Orin, y que se comercializará en 2026.
Investigación
Clara Holoscan pone a trabajar el músculo de computación utilizado en DRIVE para dar soporte a instrumentos médicos y sensores en tiempo real, como los ultrasonidos de RF, el vídeo quirúrgico 4K, las cámaras de alto rendimiento y los láseres.
Huang mostró un vídeo de Holoscan acelerando las imágenes de un microscopio de lámina de luz, que crea una «película» de células en movimiento y división. Normalmente se tarda un día entero en procesar los 3 TB de datos que producen estos instrumentos en una hora.
Fuente: NVIDIA
Sin embargo, en el Centro de Bioimagen Avanzada de la UC Berkeley, los investigadores que utilizan Holoscan pueden procesar estos datos en tiempo real; lo que les permite autoenfocar el microscopio mientras realizan los experimentos.
Robots industriales
NVIDIA también está trabajando con clientes y desarrolladores que están construyendo robots para fabricación, comercio, sanidad, agricultura, construcción, aeropuertos y ciudades enteras.
Las plataformas robóticas de NVIDIA se componen de Metropolis e Isaac:
Metropolis es un robot fijo que sigue cosas en movimiento.
Isaac es una plataforma para cosas que se mueven.
Para ayudar a los robots a navegar por espacios interiores (fábricas y almacenes) NVIDIA anunció Isaac Nova Orin, basada en Jetson AGX Orin, una plataforma de referencia de computación y sensores de última generación para acelerar el desarrollo y la implantación de robots móviles autónomos.
Huang mostró cómo PepsiCo utiliza conjuntamente Metropolis y un gemelo digital Omniverse:
Fuente: NVIDIA
Cuatro sectores, cinco dinámicas
NVIDIA anunció nuevos productos en sus cuatro sectores principales: hardware, software, plataformas (NVIDIA HPC, NVIDIA AI y NVIDIA Omniverse) y marcos de aplicación de la IA y la robótica; y repasó las cinco dinámicas que están dando forma a cada uno de ellos:
Los aumentos de velocidad.
Los transformadores que aceleran la IA.
Los centros de datos que se convierten en fábricas de IA, lo que está aumentando exponencialmente la demanda de sistemas robóticos.
Los gemelos digitales para la próxima era de la IA.
Huang señaló que Omniverse ha generado todos los renderizados y simulaciones vistos en la NVIDIA GTC.
Como cierre de la conferencia, un impresionante vídeo elaborado por el equipo creativo de NVIDIA permite a los espectadores hacer un viaje más a Omniverse para disfrutar de un sorprendente número musical de jazz ambientado en el corazón del campus de NVIDIA que incluye un cameo del homólogo digital de Huang: Toy Jensen.