META TRABAJA CON NVIDIA PARA CONSTRUIR UN SUPERORDENADOR DE INVESTIGACIÓN EN IA

META TRABAJA CON NVIDIA PARA CONSTRUIR UN SUPERORDENADOR DE INVESTIGACIÓN EN IA


El superordenador de IA de Meta, el mayor sistema para clientes de NVIDIA DGX A100 hasta la fecha, proporcionará a los investigadores de «Meta AI» 5 exaflops de rendimiento de IA y cuenta con sistemas NVIDIA de última generación, tejido InfiniBand y software que permite la optimización en miles de GPU.

«Meta Platforms» ha elegido las tecnologías de NVIDIA para lo que cree que será su sistema de investigación más potente hasta la fecha.

NVIDIA-DGX-SuperPod-1280x680-1-19-22
Fuente: NVIDIA

El AI Research SuperCluster (RSC) ya está entrenando nuevos modelos para avanzar en la IA. Una vez desplegado por completo, se espera que el RSC de Meta sea la mayor instalación de sistemas NVIDIA DGX A100 de un cliente.

«Esperamos que el RSC nos ayude a crear sistemas de IA totalmente nuevos que puedan, por ejemplo, realizar traducciones de voz en tiempo real a grandes grupos de personas, cada una de las cuales habla un idioma diferente, para que puedan colaborar sin problemas en un proyecto de investigación o jugar juntos a un juego de realidad aumentada».

Meta (blog)


Meta entrena los modelos más grandes de IA

Cuando el RSC esté completamente construido, a finales de año, Meta pretende utilizarlo para entrenar modelos de IA con más de un billón de parámetros. Esto podría suponer un avance en campos como el procesamiento del lenguaje natural para tareas como la identificación de contenidos nocivos en tiempo real.

Además del rendimiento a escala, Meta aboga por la fiabilidad extrema, la seguridad, la privacidad y la flexibilidad para manejar una amplia gama de modelos de IA como sus criterios clave para RSC.

Meta RSC supercomputer
El superclúster de investigación de IA de Meta cuenta con cientos de sistemas NVIDIA DGX conectados a una red NVIDIA Quantum InfiniBand para acelerar el trabajo de sus equipos de investigación de IA.


La infraestructura de Meta

El nuevo superordenador de IA utiliza actualmente 760 sistemas NVIDIA DGX A100 como nodos de cálculo. Estos sistemas cuentan con un total de 6.080 GPU NVIDIA A100 conectadas a una red InfiniBand NVIDIA Quantum de 200 Gb/s para ofrecer 1.895 petaflops de rendimiento TF32.

A pesar de los desafíos de COVID-19, RSC tardó solo 18 meses en pasar de ser una idea sobre el papel a un superordenador de IA en funcionamiento; gracias, en parte, a la tecnología NVIDIA DGX A100 en la base de Meta RSC.

Penguin Computing es el socio de NVIDIA Partner Network para RSC. Además de los 760 sistemas DGX A100 y la red InfiniBand, Penguin proporciona servicios gestionados e infraestructura optimizada para la IA de Meta; compuesta por 46 petabytes de almacenamiento en caché con sus sistemas Altus. Pure storage FlasBlade y FlasArray//C proporcionan las capacidades de almacenamiento all-flash de alto rendimiento y escalabilidad necesarias para impulsar el RSC.


Aumento del rendimiento x20

Es la segunda vez que Meta elige las tecnologías de NVIDIA como base de su infraestructura de investigación. En 2017, Meta construyó la primera generación de dicha infraestructura de IA con 22.000 GPUs NVIDIA V100 Tensor Core que manejan 35.000 trabajos de entrenamiento de IA al día.

Las primeras pruebas de Meta mostraron que RSC puede entrenar grandes modelos de PNL 3 veces más rápido y ejecutar trabajos de visión por ordenador 20 veces más rápido que el sistema anterior.

En una segunda fase, a finales de año, RSC ampliará a 16.000 GPUs que proporcionarán 5 exaflops de rendimiento de IA de precisión mixta. Además, Meta pretende ampliar el sistema de almacenamiento de RSC para ofrecer hasta un exabyte de datos a 16 terabytes por segundo.


Una arquitectura escalable

Las tecnologías de IA de NVIDIA están disponibles para empresas de cualquier tamaño.

NVIDIA DGX, que incluye una pila completa de software de IA, se amplía fácilmente desde un único sistema hasta un SuperPOD.

Fuente: NVIDIA


Fuente: NVIDIA

NOVEDADES OMNIVERSE 2022: EL ECOSISTEMA DE NVIDIA SE MULTIPLICA POR 10, CON NUEVAS FUNCIONES Y SERVICIOS PARA DESARROLLADORES, EMPRESAS Y CREADORES

NOVEDADES OMNIVERSE 2022: EL ECOSISTEMA DE NVIDIA SE MULTIPLICA POR 10, CON NUEVAS FUNCIONES Y SERVICIOS PARA DESARROLLADORES, EMPRESAS Y CREADORES


Nuevas versiones de la plataforma y sus aplicaciones; lanzamiento de pruebas de Omniverse Enterprise llave en mano; nuevas conexiones con la robótica, la automatización industrial, el diseño 3D y el renderizado.

Más de 150.000 personas han descargado ya NVIDIA Omniverse para dar el salto a la transformación de los flujos de trabajo de diseño 3D y alcanzar nuevas cotas de simulaciones en tiempo real y con gran precisión física.

Omniverse ecosystem
Fuente: NVIDIA

NVIDIA anunció en el Keynote de su evento anual GTC nuevas versiones y actualizaciones para Omniverse (incluidos los últimos conectores y librerías añadidos a la plataforma); que multiplican por 10 el ecosistema y hacen que esta herramienta sea aún más accesible para creadores, desarrolladores, diseñadores, ingenieros e investigadores de todo el mundo.

NVIDIA Omniverse Enterprise está ayudando a las principales empresas a mejorar sus procesos y flujos de trabajo creativos. Por ejemplo, entre los nuevos clientes de Omniverse Enterprise se encuentran Amazon, DB Netze, DNEG, Kroger, Lowe’s y PepsiCo; que están utilizando la plataforma para construir gemelos digitales físicamente precisos o desarrollar experiencias inmersivas realistas para los clientes.


Mejora la creación de contenidos con nuevas conexiones y bibliotecas

El ecosistema Omniverse se está expandiendo más allá del diseño y la creación de contenidos. En un año, las conexiones y las formas de integrarse con la plataforma se han multiplicado por 10.

  • Nuevas conexiones de terceros: Adobe Substance 3D Material Extension y Painter Connector, Epic Games Unreal Engine Connector y Maxon Cinema 4D. Permitirán flujos de trabajo sincronizados entre aplicaciones de terceros y Omniverse.
  • Nuevos importadores CAD: su tarea es la de convertir los 26 formatos comunes de CAD al lenguaje USD (Universal Scene Description) para facilitar los flujos de trabajo de fabricación y diseño en Omniverse.
  • Nuevas integraciones de bibliotecas de recursos: los recursos de TurboSquid by Shutterstock, Sketchfab y Reallusion ActorCore están ahora disponibles dentro de los navegadores de recursos de Omniverse Apps para que los usuarios puedan buscar, arrastrar y soltar cerca de 1 millón de recursos 3D.
  • Nueva compatibilidad y soporte con Hydra: los usuarios pueden integrar y alternar entre sus renderizadores favoritos soportados por Hydra y Omniverse RTX Renderer dentro de Omniverse Apps. La versión beta para Chaos V-Ray, Maxon Redshift y OYOY Octane ya está disponible; y se espera, próximamente, la de Blender Cycles y Autodesk Arnold.

Hydra
Fuente: NVIDIA

También hay nuevas conexiones con desarrolladores de software de automatización industrial y gemelos digitales. Bentley Systems, la empresa de software de ingeniería de infraestructuras, ha anunciado la disponibilidad de Lumen RT. En definitiva, este software pone a disposición de unos 39.000 clientes de Bentley Systems una visualización de precisión física a escala industrial. Ipolog, un desarrollador de software de fábrica, logística y planificación, ha lanzado tres nuevas conexiones a la plataforma. Esto, unido al creciente ecosistema de robótica de Isaac Sim, permite a empresas como BMW Group desarrollar mejor gemelos digitales integrales.


Ampliación de funciones y disponibilidad de Omniverse Enterprise

Pronto llegarán nuevas actualizaciones a la plataforma, incluidas las últimas versiones de Kit 103, Create and View 2022.1, Farm y DeepSearch.

Omniverse Enterprise en NVIDIA LaunchPad ya está disponible en nueve regiones del mundo. LaunchPad ofrece a los profesionales del diseño y a los revisores de proyectos un acceso instantáneo y gratuito a Omniverse Enterprise Labs, lo que les ayuda a tomar decisiones más rápidas y seguras sobre el software y la infraestructura.


Los clientes impulsan la innovación con Omniverse Enterprise

Amazon cuenta con más de 200 instalaciones robotizadas que gestionan millones de paquetes cada día. En otras palabras, se trata de una operación compleja que requiere más de medio millón de robots móviles para apoyar la logística del almacén. Gracias a Omniverse Enterprise e Isaac Sim, Amazon Robotics está construyendo con IA gemelos digitales de sus almacenes para optimizar el diseño y el flujo del almacén y entrenar soluciones robóticas más inteligentes.

Fuente: NVIDIA

PepsiCo está estudiando el uso de gemelos digitales impulsados por Omniverse Enterprise y Metropolis para mejorar la eficiencia y la sostenibilidad medioambiental de su cadena de suministro de más de 600 centros de distribución en 200 mercados regionales.

“NVIDIA Omniverse nos ayudará a agilizar las operaciones de la cadena de suministro y a reducir el uso de energía y residuos, al tiempo que avanzamos en nuestra misión hacia la sostenibilidad. Cuando estudiemos nuevos productos y procesos, utilizaremos gemelos digitales para simular y probar modelos y entornos en tiempo real antes de aplicar los cambios a los centros de distribución físicos”

Qi Wang, vicepresidente de Investigación y Desarrollo de PepsiCo.

Fuente: NVIDIA

Por su parte, Lowe’s Innovation Labs está explorando cómo Omniverse puede ayudar a desbloquear la próxima generación de sus tiendas. Está utilizando la plataforma para ampliar los límites de lo que es posible en los gemelos digitales, la simulación y las herramientas avanzadas que eliminan la fricción para los clientes y los asociados.

Kroger tiene previsto utilizar la herramienta para optimizar la eficiencia y los procesos de las tiendas con la simulación de tiendas como gemelos digitales.


Subiendo el listón de los gemelos digitales industriales

NVIDIA presentó en el GTC NVIDIA OVX, una arquitectura de sistemas de computación diseñada para impulsar gemelos digitales a gran escala. NVIDIA OVX está diseñada para realizar simulaciones complejas que se ejecutarán en Omniverse; lo que permitirá a diseñadores, ingenieros y planificadores crear gemelos digitales físicamente precisos y entornos de simulación masivos y fieles a la realidad.


Últimas tecnologías y funciones de Omniverse

Las principales novedades y capacidades anunciadas para Omniverse incluyen:

  • Nuevas herramientas para desarrolladores: Omniverse Code, una aplicación que sirve como entorno de desarrollo integrado para los desarrolladores; permite a los usuarios crear fácilmente sus propias extensiones, aplicaciones o microservicios de Omniverse.
  • DeepSearch: un nuevo servicio de búsqueda basado en IA que permite a los usuarios buscar rápidamente en bibliotecas masivas de recursos 3D sin etiquetar utilizando lenguaje natural o imágenes.
  • Omniverse Replicator: un marco de trabajo para generar datos sintéticos 3D físicamente precisos para acelerar el entrenamiento y la precisión de las redes de percepción. (Disponible en Omniverse Code para que los desarrolladores puedan construir sus propios motores de datos sintéticos específicos de dominio).
  • OmniGraph, ActionGraph y AnimGraph: importantes novedades que controlan el comportamiento y la animación.
  • Omniverse Avatar: una plataforma que utiliza la tecnología de IA y simulación para permitir a los desarrolladores construir avatares personalizados, inteligentes y realistas.
  • Aplicación Omniverse XR: una configuración de Omniverse View optimizada para la realidad virtual que permite a los usuarios experimentar sus escenas 3D de máxima fidelidad con trazado de rayos RTX (ray tracing).
  • Nuevas versiones de Omniverse Kit, Create, View y Machinima.


Omniverse Cloud

Omniverse Cloud es un conjunto de servicios en la nube que ofrece a artistas, creadores, diseñadores y desarrolladores acceso instantáneo a la plataforma NVIDIA Omniverse para la colaboración y simulación de diseños 3D.

  • Nucleus Cloud: una herramienta de uso compartido que permite a los artistas acceder a grandes escenas 3D y editarlas desde cualquier lugar; sin necesidad de transferir enormes conjuntos de datos.
  • Omniverse Create: una aplicación para que diseñadores técnicos, artistas y creadores construyan mundos 3D de forma interactiva y en tiempo real.
  • Omniverse View: una aplicación para que los usuarios no técnicos puedan ver las escenas de Omniverse en streaming con toda la capacidad de simulación y renderización utilizando la plataforma NVIDIA GeForce NOW, impulsada por las GPU NVIDIA RTX en la nube.

nvidia-omniverse-cloud
Fuente: NVIDIA


PUESTA EN MARCHA

“Los diseñadores que trabajan a distancia colaboran como si estuvieran en el mismo estudio; los planificadores de fábrica trabajan dentro de un gemelo digital de la planta real para diseñar un nuevo flujo de producción; los ingenieros de software prueban una nueva versión del software en el gemelo digital de un coche autoconducido antes de lanzarlo a circulación. Se avecina una nueva ola de trabajo que solo puede realizarse en mundos virtuales; Omniverse Cloud conectará a decenas de millones de diseñadores y creadores y a miles de millones de futuras IA y sistemas robóticos”.

Jensen Huang, fundador y consejero delegado de NVDIA.

En su discurso de presentación en el GTC, Huang mostró una demo del futuro del diseño en la que tres diseñadores reales y un diseñador IA especializado en Omniverse Avatar colaboraban virtualmente en Omniverse Cloud, realizando cambios de diseño en un proyecto arquitectónico.

El equipo conversó utilizando una herramienta estándar de conferencia web, mientras estaban conectados en una escena alojada en Nucleus Cloud. Uno de los diseñadores ejecutó la aplicación Omniverse View en su estación de trabajo con tecnología RTX; mientras que los otros dos transmitieron Omniverse View desde GeForce NOW a su portátil y Tablet.

“En KPF, líder mundial en diseño arquitectónico, valoramos la capacidad de nuestros diseñadores para colaborar de la forma más fluida posible; poniendo a su disposición tecnologías en la nube cuando las necesitan. Omniverse Cloud encaja perfectamente en esa práctica con la promesa de sobresalir en nuestras capacidades de colaboración de diseño visual y 3D al permitir a nuestros equipos trabajar en Omniverse desde cualquier dispositivo y en cualquier lugar”.

Cobus Bothma, director de Investigación Aplicada de Kohn Pedersen Fox Associates.

Aún, la colección completa de servicios de Omniverse Cloud está en desarrollo.


Fuente: blog NVIDIA y NVIDIA news.

NVIDIA Y ASUSTEK: EL PRIMER SISTEMA HPC DE TAIWÁN PARA INVESTIGACIÓN MÉDICA

NVIDIA Y ASUSTEK: EL PRIMER SISTEMA HPC DE TAIWÁN PARA INVESTIGACIÓN MÉDICA


Las dos compañías tecnológicas se asocian para impulsar la investigación médica en el país asiático

NVIDIA y Asustek Computer, compañía taiwanesa, han anunciado en Abril el inicio de una colaboración con el Instituto Nacional de Investigación Sanitaria de Taiwán (NHRI) para llevar a cabo el desarrollo del primer supercomputador de investigación biomédica basado en IA del país.

Asustek y NVIDIA se ocuparán de aportar la tecnología de IA en la nube y los servidores de computación de alto rendimiento (HPC). Por otro lado, el NHRI se encargará de proporcionar los datos necesarios sobre la investigación sanitaria, según afirma un artículo publicado en Digitimes Asia.

NVIDIA y Asustek presentan su colaboración con el NHRI
Fuente: HPCwire

Jonney Shih, presidente de Asustek, sostiene que el fruto de dicha alianza será la construcción del primer supercomputador del país dedicado a la investigación biomédica. Para ello se aprovechará la tecnología de supercomputadores de IA de NVIDIA, los modelos de IA y las aplicaciones de computación analítica. Lo mismo se hará con la investigación del NHRI, la plataforma de IA HPC en la nube de Asustek y los servicios de asesoramiento de mantenimiento de Taiwan Web Service (TWS).

Con el fin de impulsar la eficiencia de la investigación de IA del NHRI, Shih afirma que se utilizarán distintos recursos. Entre ellos, destaca el análisis multiómico, la identificación de imágenes médicas y el software de desarrollo de medicamentos y vacunas.

«Además de desarrollar soluciones de HPC para la salud de precisión, la investigación médica y el desarrollo de vacunas, Asustek también trabajará con el NHRI para acelerar el desarrollo de aplicaciones de IA en la industria biomédica de Taiwán, centrándose en los grandes datos para la atención sanitaria y los modelos de IA biomédica»

Digitimes Asia


Antecedentes tecnológicos en Taiwán

En 2018, Asustek se convirtió en proveedor de software del supercomputador Taiwania 2. La compañía informa que desde entonces, ha asignado ingenieros de IA en cloud a la investigación, el desarrollo y la integración del software del sistema. Taiwania 2 ocupa el puesto 54 en la última lista Top500, que representa los supercomputadores más potentes del mundo. En cuanto a la lista Green500, que refleja el nivel de eficiencia energética de los sistemas listados en la lista anterior, ocupa el 34.

Por su parte, el CEO de NVIDIA Jensen Huang, es de origen Taiwanés-americano, por lo que la isla siempre ha sido un gran punto de referencia para la compañía. En Marzo de 2021, la empresa anunció que establecería en Taiwán la base de NVIDIA Inception, su programa de startups de IA y ciencia de datos, convirtiéndose así en el primer centro de su categoría en todo Asia.


Descubre las soluciones de HPC con la tecnología de NVIDIA

NVIDIA GTC 2022: FÁBRICAS DE IA, ARQUITECTURA HOPPER Y UNA NUEVA GPU

NVIDIA GTC 2022: FÁBRICAS DE IA, ARQUITECTURA HOPPER Y UNA NUEVA GPU


El impresionante progreso de la IA y su unión con el Omniverso en el mundo real y virtual

NVIDIA GTC, una de las conferencias sobre IA más importantes del mundo y que reúne a los principales desarrolladores, científicos e investigadores, contó con más de 1.600 ponentes, incluidos los de grandes empresas como American Express, DoorDash, LinkedIn, Pinterest, Salesforce, ServiceNow, Snap y Visa, así como con 200.000 asistentes registrados.

El fundador y CEO de NVIDIA Jensen Huang compartió, el pasado martes 22 de marzo, su visión de una era en la que la inteligencia se crea a escala industrial y se entrelaza con el mundo real y virtual. Además, prometió transformar industrias de un billón de dólares y abordar los grandes retos de nuestro tiempo.

Fuente: NVIDIA

La presentación de Huang en la NVIDIA GTC comenzó con un espectacular recorrido aéreo (como si estuviéramos sobre un dron) por el nuevo campus de NVIDIA, representado en Omniverse. Compartió cómo el trabajo de la compañía con el ecosistema en general está salvando vidas, mediante el avance de la asistencia sanitaria, el descubrimiento de fármacos e, incluso, nuestro planeta, mediante la idea de una simulación eficaz del cambio climático.

«NVIDIA va a afrontar este gran reto con nuestro Earth-2, el primer superordenador gemelo digital de IA del mundo, e inventará nuevas tecnologías de IA y computación».

Jensen Huang, CEO de NVIDIA.

Fuente: NVIDIA

Las empresas están procesando, refinando sus datos, haciendo software de IA, convirtiéndose en fabricantes de inteligencia, explicaba Huang desde un entorno virtual en Omniverse, la plataforma de colaboración y simulación 3D en tiempo real.

«La IA está corriendo en todas las direcciones, y todo ello se reunirá en Omniverse para agilizar la colaboración entre las personas y la IA, modelar y comprender mejor el mundo real y servir de campo de pruebas para nuevos tipos de robots». La próxima ola de IA».

Jensen Huang, CEO de NVIDIA.


NVIDIA H100: un nuevo motor de las infraestructuras mundiales de IA

Huang presentó la GPU NVIDIA H100, construida sobre la arquitectura Hopper, como el «nuevo motor de las infraestructuras de IA del mundo».

«Los data center de IA procesan montañas de datos continuos para entrenar y refinar los modelos de IA. «Los datos en bruto entran, se refinan y la inteligencia sale: las empresas están fabricando inteligencia y operando fábricas gigantes de IA».

Jensen Huang, CEO de NVIDIA

H100 ayudará a estas fábricas a moverse más rápido. Hopper H100 supone el mayor salto generacional de la historia: un rendimiento de entrenamiento a escala 9 veces superior al de A100 y un rendimiento de inferencia de modelos de gran lenguaje 30 veces superior.

Fuente: NVIDIA

«Hopper está repleto de avances técnicos, entre ellos un nuevo motor de transformación que permite acelerar estas redes 6 veces sin perder precisión. El entrenamiento de los modelos de transformación puede reducirse de semanas a días».

Jensen Huang, CEO de NVIDIA.

La GPU H100 está en fase de producción y estará disponible a partir del tercer trimestre de este año, anunció Huang.


DGX H100

En relación con esta nueva arquitectura, también se presentaron en la NVIDIA GTC nuevos superordenadores de IA basados en la GPU Hopper: DGX H100, H100 DGX POD y DGX SuperPOD.

NVIDIA será la primera en construir un DGX SuperPOD con la nueva e innovadora arquitectura de IA para potenciar el trabajo de los investigadores que avanzan en la ciencia del clima, la biología digital y el futuro de la IA.

Se espera que su superordenador «Eos» sea el sistema de IA más rápido del mundo cuando comience a funcionar a finales de este año, con un total de 576 sistemas DGX H100 con 4.608 GPUs DGX H100.

Para conectarlo todo, la nueva tecnología de interconexión de alta velocidad NVLink de NVIDIA llegará a todos los futuros chips de NVIDIA: CPU, GPU, DPU y SOC. Además, NVIDIA pondrá NVLink a disposición de clientes y socios para que construyan chips complementarios.

«NVLink abre un nuevo mundo de oportunidades para que los clientes construyan chips y sistemas semipersonalizados que aprovechen las plataformas y los ecosistemas de NVIDIA».

Jensen Huang, CEO de NVIDIA.


NVIDIA Grace CPU Superchip

Otra de las novedades que se presentaron en la NVIDIA GTC fue el Superchip de GPU Grace, la primera CPU discreta para centros de datos de alto rendimiento.

Grace se compone de dos chips de CPU conectados a través de una interconexión de chip a chip NVLink de 900 gigabytes por segundo para formar una CPU de 144 núcleos con 1 terabyte por segundo de ancho de banda de memoria.

Grace es la CPU ideal para las infraestructuras de IA del mundo.


Un nuevo software para la IA

«Gracias a la aceleración desencadenada por la computación acelerada, el progreso de la IA es impresionante. La IA ha cambiado fundamentalmente lo que el software puede hacer y cómo se hace».

Jensen Huang, CEO de NVIDIA.

Google BERT para la comprensión del lenguaje, NVIDIA MegaMolBART para el descubrimiento de fármacos y DeepMind AlphaFold2 son avances derivados de esta aceleración de la IA. Huang recorrió los nuevos modelos de deep learning para la comprensión del lenguaje natural, la física, el diseño creativo, la animación de personajes e incluso, con NVCell, el diseño de chips.

«La IA va a toda velocidad en todas las direcciones: nuevas arquitecturas, nuevas estrategias de aprendizaje, modelos más grandes y robustos, nueva ciencia, nuevas aplicaciones, nuevas industrias… todo al mismo tiempo. NVIDIA se encuentra con las manos en la masa para acelerar la adopción de todos los avances de la IA y el machine learning en todos los sectores».

Jensen Huang, CEO de NVIDIA.


NVIDIA AI Platform

La plataforma de IA de NVIDIA está recibiendo importantes actualizaciones, entre las que destacan:

  • Triton Inference Server.
  • El framework NeMo Megatron 0.9, para el entrenamiento de grandes modelos lingüísticos.
  • El framework Maxine, para la mejora de la calidad de audio y vídeo.

Fuente: NVIDIA

La plataforma incluye NVIDIA AI Enterprise 2.0, un conjunto de herramientas y frameworks de análisis de datos e inteligencia artificial de extremo a extremo y nativo de la nube, optimizado y certificado por NVIDIA y compatible con los principales centros de datos y plataformas en la nube.

«Hemos actualizado 60 SDKs en esta GTC. Para nuestros 3 millones de desarrolladores, científicos e investigadores de IA y decenas de miles de startups y empresas, los mismos sistemas de NVIDIA que ejecutan son ahora más rápidos».

Jensen Huang, CEO de NVIDIA.
  • Microsoft Translator acelera las comunicaciones globales con funciones de traducción en tiempo real impulsadas por NVIDIA Triton.
  • AT&T acelera los equipos de data science con el software NVIDIA RAPIDS que facilita el procesamiento de billones de registros.

Los SDK de NVIDIA están al servicio de los sectores de la salud, la energía, el transporte, el comercio minorista, las finanzas, los medios de comunicación y el entretenimiento.


La próxima evolución: Omniverse para mundos virtuales

A gran escala, un gemelo digital es un mundo virtual que está conectado al mundo físico. Y en el contexto de Internet, es la siguiente evolución.

El software NVIDIA Omniverse para construir gemelos digitales, y los nuevos sistemas NVIDIA OVX serán esenciales para la IA orientada a la acción.

«Al igual que la NASA y Amazon, nosotros y nuestros clientes de robótica y automatización industrial somos conscientes de la importancia de los gemelos digitales y de Omniverse».

Jensen Huang, CEO de NVIDIA.

OVX ejecutará gemelos digitales de Omniverse para simulaciones a gran escala con múltiples sistemas autónomos que operan en el mismo espacio-tiempo. La columna vertebral de OVX es su estructura de red; dijo Huang al anunciar la plataforma de infraestructura de red de datos de alto rendimiento NVIDIA Spectrum-4.

NVIDIA Spectrum-4, la primera plataforma de red integral de 400 Gbps del mundo, está compuesta por la familia de switches Spectrum-4, NVIDIA ConnectX-7 SmartNIC, NVIDIA BlueField-3 DPU y el software de infraestructura de centros de datos NVIDIA DOCA. Además, permite simular con precisión el espacio y el tiempo en la plataforma NVIDIA Omniverse™ para la colaboración y simulación de diseños en 3D.

Fuente: NVIDIA

«Una nueva era de tecnologías en la nube a escala masiva, como Omniverse, requiere una transformación de la arquitectura de los centros de datos. El rendimiento y la seguridad de la plataforma Spectrum-4 equiparán los centros de datos para impulsar descubrimientos revolucionarios que amplíen los límites de lo posible en beneficio de la sociedad.»

Kevin Deierling, Vicepresidente de Redes de NVIDIA.

Y para que Omniverse sea accesible a un número aún mayor de usuarios, Huang ha anunciado Omniverse Cloud. Ahora, con sólo unos pocos clics, los colaboradores pueden conectarse a través de Omniverse en la nube.


La próxima ola de IA:


Vehículos autónomos

Las nuevas capacidades de simulación desencadenarán la próxima ola de IA; robots capaces de idear, planificar y actuar.

El sistema de vehículos autónomos NVIDIA DRIVE es esencialmente un chófer de IA. Por otro lado, Hyperion 8 (la arquitectura de hardware de NVIDIA para coches autónomos en la que se basa NVIDIA DRIVE) puede lograr una conducción autónoma completa con un conjunto de sensores de 360 grados, radar, lidar y ultrasonidos.

Hyperion 8 se instalará en los coches de Mercedes-Benz a partir de 2024 y en los de Jaguar Land Rover en 2025.

Jensen Huang, CEO de NVIDIA.

Huang presentó también NVIDIA Orin, un ordenador centralizado que actúa como motor de vehículos eléctricos de nueva generación, robotaxis, lanzaderas y camiones; e Hyperion 9, que incluye SoC DRIVE Atlan para duplicar el rendimiento de la arquitectura basada en DRIVE Orin, y que se comercializará en 2026.


Investigación

Clara Holoscan pone a trabajar el músculo de computación utilizado en DRIVE para dar soporte a instrumentos médicos y sensores en tiempo real, como los ultrasonidos de RF, el vídeo quirúrgico 4K, las cámaras de alto rendimiento y los láseres.

Huang mostró un vídeo de Holoscan acelerando las imágenes de un microscopio de lámina de luz, que crea una «película» de células en movimiento y división. Normalmente se tarda un día entero en procesar los 3 TB de datos que producen estos instrumentos en una hora.

Fuente: NVIDIA

Sin embargo, en el Centro de Bioimagen Avanzada de la UC Berkeley, los investigadores que utilizan Holoscan pueden procesar estos datos en tiempo real; lo que les permite autoenfocar el microscopio mientras realizan los experimentos.


Robots industriales

NVIDIA también está trabajando con clientes y desarrolladores que están construyendo robots para fabricación, comercio, sanidad, agricultura, construcción, aeropuertos y ciudades enteras.

Las plataformas robóticas de NVIDIA se componen de Metropolis e Isaac:

  • Metropolis es un robot fijo que sigue cosas en movimiento.
  • Isaac es una plataforma para cosas que se mueven.

Para ayudar a los robots a navegar por espacios interiores (fábricas y almacenes) NVIDIA anunció Isaac Nova Orin, basada en Jetson AGX Orin, una plataforma de referencia de computación y sensores de última generación para acelerar el desarrollo y la implantación de robots móviles autónomos.

Huang mostró cómo PepsiCo utiliza conjuntamente Metropolis y un gemelo digital Omniverse:

Fuente: NVIDIA


Cuatro sectores, cinco dinámicas

NVIDIA anunció nuevos productos en sus cuatro sectores principales: hardware, software, plataformas (NVIDIA HPC, NVIDIA AI y NVIDIA Omniverse) y marcos de aplicación de la IA y la robótica; y repasó las cinco dinámicas que están dando forma a cada uno de ellos:

  • Los aumentos de velocidad.
  • Los transformadores que aceleran la IA.
  • Los centros de datos que se convierten en fábricas de IA, lo que está aumentando exponencialmente la demanda de sistemas robóticos.
  • Los gemelos digitales para la próxima era de la IA.

Huang señaló que Omniverse ha generado todos los renderizados y simulaciones vistos en la NVIDIA GTC.

Como cierre de la conferencia, un impresionante vídeo elaborado por el equipo creativo de NVIDIA permite a los espectadores hacer un viaje más a Omniverse para disfrutar de un sorprendente número musical de jazz ambientado en el corazón del campus de NVIDIA que incluye un cameo del homólogo digital de Huang: Toy Jensen.

Fuente: NVIDIA


Fuente: NVIDIA.

GRACE: EL NUEVO SUPERCHIP DE NVIDIA PARA CPU DISCRETA

GRACE: EL NUEVO SUPERCHIP DE NVIDIA PARA CPU DISCRETA

144 núcleos de alto rendimiento y 1 terabyte/segundo de memoria; Grace duplica el rendimiento y la eficiencia energética de los chips

NVIDIA presentó en la conferencia GTC del pasado 22 de marzo su primera CPU discreta para centros de datos basada en Arm® Neoverse™. Diseñada para la infraestructura de IA y la computación de alto rendimiento, Grace proporciona el mayor rendimiento y el doble de ancho de banda de memoria y eficiencia energética en comparación con los principales chips para servidores de la actualidad.

grace-cpu-superchip
Fuente: NVIDIA

NVIDIA Grace™ CPU Superchip está formado por dos chips conectados a través de NVLink®-C2C, una nueva interconexión de alta velocidad y baja latencia entre chips.

Grace complementa el primer módulo integrado de CPU-GPU de NVIDIA, el superchip Grace Hopper, anunciado el año pasado y diseñado para servir a aplicaciones de HPC e IA a gran escala en combinación con una GPU basada en la arquitectura NVIDIA Hopper™. Ambos superchips comparten la misma arquitectura de CPU subyacente, así como la interconexión NVLink-C2C.

«Ha surgido un nuevo tipo de data center: las fábricas de IA que procesan y refinan montañas de datos para producir inteligencia. El Superchip CPU Grace ofrece el mayor rendimiento, ancho de banda de memoria y plataformas de software y brillará como la CPU de la infraestructura de IA del mundo».

Jensen Huang, CEO de NVIDIA.


Presentando la plataforma de CPU de NVIDIA

Creado para proporcionar el más alto rendimiento, Grace contiene 144 núcleos Arm en un solo núcleo; ofreciendo un rendimiento 1,5 veces superior en comparación con la CPU dual que se entrega con el DGX™ A100 actualmente.

Este Superchip de CPU también proporciona una eficiencia energética y un ancho de banda de memoria líderes en el sector gracias a su innovador sistema de memoria con código de corrección de errores para lograr el mejor equilibrio entre velocidad y consumo de energía.

Además, está basado en la última arquitectura para centros de datos, Arm®v9. Combinando el rendimiento de los núcleos de un solo hilo con la nueva generación de extensiones vectoriales Arm, el superchip aportará ventajas inmediatas.

Grace ejecutará todas los paquetes de software de computación de NVIDIA, incluidas NVIDIA RTX™, NVIDIA HPC, NVIDIA AI y Omniverse. El superchip, junto con NVIDIA ConnectX®-7 NIC, ofrecen la flexibilidad de ser configurados en los servidores como sistemas independientes de solo CPU o como servidores acelerados por GPU con una, dos, cuatro u ocho GPUs basadas en arquitectura Hopper; lo que permite a los clientes optimizar el rendimiento para sus cargas de trabajo específicas.


Grace está diseñado para aplicaciones de IA, HPC, Cloud e hiperescala

Grace CPU Superchip destacará en las aplicaciones más exigentes de HPC, IA, análisis de datos, computación científica y computación a hiperescala con su máximo rendimiento, ancho de banda de memoria, eficiencia energética y capacidad de configuración.

Sus 144 núcleos y ancho de banda de memoria de 1TB/s proporcionarán un rendimiento sin precedentes para las aplicaciones de HPC basadas en la CPU.

NVIDIA está trabajando con los principales clientes de HPC, supercomputación, hiperescala y cloud para el superchip de CPU Grace. Se espera que tanto éste como Grace Hopper estén disponibles en el primer semestre de 2023.


Consulta todas las novedades de la conferencia GTC22.


Fuente: NVIDIA.

ARQUITECTURA NVIDIA HOPPER: ACELERANDO LA PROGRAMACIÓN DINÁMICA

ARQUITECTURA NVIDIA HOPPER: ACELERANDO LA PROGRAMACIÓN DINÁMICA

La arquitectura NVIDIA Hopper acelerará la programación dinámica, una técnica de resolución de problemas, con las nuevas instrucciones DPX.

DPX, un conjunto de instrucciones integrado en las GPU H100 de NVIDIA, ayudará a los desarrolladores a escribir código para conseguir una mayor velocidad en los algoritmos de programación dinámica en múltiples sectores, impulsando los flujos de trabajo para el diagnóstico de enfermedades, la simulación cuántica, el análisis de gráficos y la optimización de rutas.

Fuente: NVIDIA


Entendiento la arquitectura NVIDIA Hopper: ¿Qué es la programación dinámica?

Desarrollada en la década de 1950, la programación dinámica es una técnica utilizada para resolver problemas complejos a través de la recursión y la memoización.

  • La recursión consiste en dividir un problema en sub-problemas más sencillos, lo que ahorra tiempo y esfuerzo computacional.
  • En la memoización, se almacenan las respuestas a estos sub-problemas, que se reutilizan varias veces al resolver el problema principal. Se trata de una técnica de optimización que acelera los tiempos de cálculo y aumenta la eficiencia; esto se debe a que los sub-problemas no tienen que volver a calcularse cuando se necesiten más adelante en el problema principal.

Las instrucciones DPX aceleran los algoritmos de programación dinámica hasta 7 veces en una GPU con arquitectura Hopper (NVIDIA H100), en comparación con las GPU basadas en la arquitectura Ampere. En un nodo con cuatro GPU H100, esa aceleración puede incrementarse aún más.


Casos de uso: sanidad, robótica, computación cuántica y data science

La programación dinámica se utiliza habitualmente en muchos algoritmos de optimización, procesamiento de datos y ómicas.


Ómicas

La ómica abarca una serie de campos biológicos que incluyen la genómica (centrada en el ADN), la proteómica (centrada en las proteínas) y la transcriptómica (centrada en el ARN). Todos estos campos, fundamentales para la investigación de enfermedades y el descubrimiento de fármacos, se basan en análisis algorítmicos que pueden acelerarse con instrucciones DPX.

Por ejemplo, los algoritmos de programación dinámica Smith-Waterman y Needleman-Wunsch se utilizan para la alineación de secuencias de ADN, la clasificación de proteínas y el plegamiento de proteínas. Ambos utilizan un método de puntuación para medir el grado de alineación de las secuencias genéticas de diferentes muestras.

Smith-Waterman produce resultados muy precisos, pero requiere más recursos informáticos y tiempo que otros métodos de alineación. Así, utilizando las instrucciones DPX en un nodo con cuatro GPU NVIDIA H100, los científicos pueden acelerar este proceso 35 veces para conseguir un procesamiento en tiempo real, en el que el trabajo de llamada de bases y alineación se realiza al mismo ritmo que la secuenciación del ADN.

Esta aceleración ayudará a democratizar el análisis genómico en los hospitales de todo el mundo, lo que permitirá proporcionar a los pacientes una medicina personalizada.


Optimización de rutas

Encontrar la ruta óptima para múltiples piezas en movimiento es esencial para los robots autónomos que se desplazan por un almacén dinámico, o incluso para un emisor que transfiere datos a múltiples receptores en una red informática.

Para abordar este problema de optimización, los desarrolladores recurren a Floyd-Warshall, un algoritmo de programación dinámica que se utiliza para encontrar las distancias más cortas entre todos los puntos de destinos en un mapa o gráfico. En un servidor con cuatro GPUs NVIDIA H100, la aceleración de Floyd-Warshall se multiplica por 40 en comparación con un servidor tradicional de dos núcelos con sólo CPU.

De este modo, combinado con el software de logística NVIDIA cuOpt AI, el aumento de la velocidad en la optimización de rutas podría utilizarse para aplicaciones en tiempo real en fábricas, vehículos autónomos o algoritmos de mapeo y enrutamiento en gráficos abstractos.

Fuente: NVIDIA


Simulación cuántica

Un campo muy prometedor es el de la computación cuántica.

La programación dinámica se utiliza en algoritmos de optimización de tensores para la simulación cuántica. Las instrucciones DPX podrían ayudar a los desarrolladores a acelerar el proceso de identificación de la orden de contracción tensorial adecuada.


Optimización de consultas SQL

Otra posible aplicación es la ciencia de los datos o data science.

Los científicos de datos que trabajan con el lenguaje de programación SQL suelen tener que realizar varias operaciones de «unión» en un conjunto de tablas. La programación dinámica ayuda a encontrar un orden óptimo para estas uniones, lo que ahorra tiempo de ejecución y, por tanto, acelera las consultas SQL.


NVIDIA presentó la nueva arquitectura Hopper en la conferencia GTC22. Consulta todas las novedades.


Fuente: NVIDIA.