UNIVERSAL SCENE DESCRIPTION (USD) Y NVIDIA OMNIVERSE: UN NUEVO HORIZONTE EN LA COLABORACIÓN 3D

UNIVERSAL SCENE DESCRIPTION (USD) Y NVIDIA OMNIVERSE: UN NUEVO HORIZONTE EN LA COLABORACIÓN 3D

omniverse-usd-resources


¿Qué es Universal Scene Description (USD)?

Universal Scene Description (USD) es un marco y ecosistema extensible diseñado para describir, componer, simular y colaborar en entornos tridimensionales.

Inicialmente desarrollado por Pixar Animation Studios, USD, también conocido como OpenUSD, supera la noción de ser simplemente un formato de archivo. Se trata de una descripción de escenas 3D de código abierto, que se emplea en la creación e intercambio de contenido 3D entre diversas herramientas.

Su asombroso poder y versatilidad lo han erigido en un estándar de la industria, no solo en la comunidad de efectos visuales, sino también en ámbitos como la arquitectura, el diseño, la robótica, la manufactura y otras disciplinas.


USD en NVIDIA

USD constituye el fundamento de NVIDIA Omniverse, una plataforma de cómputo componible que facilita la creación de flujos de trabajo y aplicaciones 3D basadas en USD. Omniverse conecta una amplia gama de herramientas de creación de contenido entre sí y con la tecnología de trazado de rayos NVIDIA RTX en tiempo real.

NVIDIA ha expandido este ecosistema mediante el desarrollo de nuevas herramientas, la integración de tecnologías y la provisión de ejemplos y tutoriales. Esta labor incluye la colaboración con un ecosistema de socios, entre ellos Pixar, Adobe, Apple y Autodesk, con el propósito de evolucionar USD hasta convertirlo en uno de los componentes esenciales y en el lenguaje predominante del metaverso.

Esta demo técnica muestra la potencia de la tecnología RTX en la plataforma Omniverse. Ha sido creada por un equipo de artistas y desarrolladores de NVIDIA Omniverse utilizando activos de USD, junto con trazado de rayos en tiempo real. El resultado es una simulación interactiva basada en la física con los coches RC más realistas jamás renderizados. Fuente: NVIDIA.


Explora las bibliotecas y herramientas preconstruidas de USD


Prueba USDView desde el Lanzador de Omniverse

USDView, desarrollado por Pixar, se presenta como una herramienta valiosa para cargar, visualizar e inspeccionar archivos OpenUSD.

Esta aplicación resulta una de las maneras más eficaces de adentrarse en la comprensión de Universal Scene Description. NVIDIA facilita USDView ya preconstruido y configurado para comenzar sin demora.

Descarga USDView y consulta la documentación para ampliar tus conocimientos.


Descarga las bibliotecas y herramientas preconstruidas de USD

Las bibliotecas USD solo están disponibles en forma de código fuente a través de Pixar. Con el fin de simplificar este proceso, NVIDIA ofrece bibliotecas preconstruidas junto con el conjunto de herramientas USD para su descarga. Este paquete brinda al usuario el apoyo necesario para iniciar el desarrollo de herramientas que aprovechen las ventajas de USD.


Descarga el paquete Python usd-core en PyPI

El paquete usd-core también está a tu disposición si lo que deseas experimentar con la API de Python o si únicamente requieres las funciones esenciales de USD para la lectura y escritura de etapas y capas.

USD viene preconstruido y solo es necesario ejecutar «pip install» para disponer de él.


Crea con MDL en Universal Scene Description

Universal Scene Description no establece preferencias en cuanto a la representación de propiedades de materiales. NVIDIA se esfuerza por permitir que los artistas desarrollen materiales destinados a una renderización de calidad cinematográfica, mediante un proceso automatizado que genera sombreadores más simples, pero que conservan su alta calidad en tiempo real.

casita con árboles
Fuente: NVIDIA

Con este propósito, NVIDIA ha diseñado un Lenguaje de Definición de Materiales (MDL) de código abierto y compatible con las GPU, complementado por un destilador que simplifica los sombreadores para aplicaciones de vista previa y realidad virtual (VR). El SDK de MDL de NVIDIA ha sido adoptado por varios desarrolladores de aplicaciones, entre ellos Adobe, ChaosGroup y Unreal Engine de Epic.

Para potenciar los flujos de trabajo basados en MDL, NVIDIA también ha creado una especificación para hacer referencia a MDL en USD y ha desarrollado complementos para Omniverse.


Fuente: NVIDIA.

GTC SEP22: EL CEO DE NVIDIA PRESENTA LA NUEVA GENERACIÓN DE GPU RTX Y LOS FLUJOS DE TRABAJO DE IA EN LA NUBE

GTC SEP22: EL CEO DE NVIDIA PRESENTA LA NUEVA GENERACIÓN DE GPU RTX Y LOS FLUJOS DE TRABAJO DE IA EN LA NUBE


En el arranque de la GTC sep22, Jensen Huang desvela los avances de la comprensión del lenguaje natural, el metaverso, los juegos y las tecnologías de IA que afectan a sectores que van desde el transporte y la sanidad hasta las finanzas y el entretenimiento.

Los nuevos servicios en la nube para apoyar los flujos de trabajo de IA y el lanzamiento de una nueva generación de GPU GeForce RTX. Estos han sido los protagonistas de la conferencia magistral de la GTC sep22 de NVIDIA; que ha estado repleta de nuevos sistemas y softwares.

La computación está avanzando a velocidades increíbles. El motor que impulsa este cohete es la computación acelerada y su combustible es la IA.

Jensen Huang, CEO de NVIDIA.

Jensen Huang presentando la GTC sep22

Huang relacionó las nuevas tecnologías con nuevos productos y nuevas oportunidades; desde el aprovechamiento de la IA para deleitar a los jugadores con gráficos nunca vistos, hasta la construcción de campos de pruebas virtuales donde las mayores empresas del mundo puedan perfeccionar sus productos.

Las empresas obtendrán nuevas y potentes herramientas para aplicaciones de HPC con sistemas basados en la CPU Grace y el superchip Grace Hopper. Los jugadores y creadores obtendrán nuevos servidores OVX impulsados por las GPU Ada Lovelace L40 para centros de datos. Los investigadores y científicos informáticos obtendrán nuevas funciones de modelos de lenguaje de gran tamaño con el servicio NeMo de NVIDIA LLM. Y la industria automovilística recibe Thor, un nuevo cerebro con un asombroso rendimiento de 2.000 teraflops.

Huang destacó cómo importantes socios y clientes de una variedad de sectores están implementando las tecnologías de NVIDIA. Por ejemplo, Deloitte, la mayor empresa de servicios profesionales del mundo, va a ofrecer nuevos servicios basados en NVIDIA AI y NVIDIA Omniverse.


Un «salto cuántico» en esta GTC sep22: GPU GeForce RTX 40 series

Lo primero que se presentó en la GTC sep22 fue el lanzamiento de la nueva generación de GPU GeForce RTX Serie 40 con tecnología Ada, que Huang calificó de «salto cuántico» que allana el camino a los creadores de mundos totalmente simulados.

Huang presentando la GPU 4090
Fuente: NVIDIA

Huang presentó a su audiencia Racer RTX, una simulación totalmente interactiva y enteramente trazada por rayos, con toda la acción modelada físicamente.

Los avances de Ada incluyen un nuevo multiprocesador de flujo, un nuevo RT con el doble de rendimiento de intersección de rayos y triángulos y un nuevo Tensor Core con el motor de transformación Hopper FP8 y 1,4 petaflops de potencia de procesamiento tensorial.

Ada también presenta la última versión de la tecnología NVIDIA DLSS: DLSS 3. Que utiliza la IA para generar nuevos fotogramas comparándolos con los anteriores para entender cómo está cambiando una escena. El resultado: aumentar el rendimiento de los juegos hasta 4 veces con respecto al renderizado por fuerza bruta.

DLSS 3 ha recibido el apoyo de muchos de los principales desarrolladores de juegos del mundo, con más de 35 juegos y aplicaciones que han anunciado su compatibilidad.

DLSS 3 es uno de nuestros mayores inventos en materia de renderizado neuronal

Jensen Huang, CEO de NVIDIA.


Una nueva generación de GPU GeForce RTX

Esta tecnología ayuda a ofrecer 4 veces más rendimiento de procesamiento con la nueva GeForce RTX 4090 frente a su precursora, la RTX 3090 Ti. La nueva «campeona de los pesos pesados» tiene un precio inicial de 1.599 dólares y estará disponible el 12 de octubre.

Además, la nueva GeForce RTX 4080 se lanzará en noviembre con dos configuraciones:

  • La GeForce RTX 4080 de 16 GB, con un precio de 1.199 dólares, tiene 9.728 núcleos CUDA y 16 GB de memoria Micron GDDR6X de alta velocidad. Con DLSS 3, es dos veces más rápida en los juegos actuales que la GeForce RTX 3080 Ti, y más potente que la GeForce RTX 3090 Ti a menor potencia.
  • La GeForce RTX 4080 12GB tiene 7.680 núcleos CUDA y 12 GB de memoria Micron GDDR6X, y con DLSS 3 es más rápida que la RTX 3090 Ti, la GPU insignia de la generación anterior. Su precio es de 899 dólares.

Otra novedad de esta GTC sep22 es que NVIDIA Lightspeed Studios utilizó Omniverse para reimaginar Portal, uno de los juegos más célebres de la historia. Con NVIDIA RTX Remix, un conjunto de herramientas asistidas por IA, los usuarios pueden modificar sus juegos favoritos, lo que les permite aumentar la resolución de las texturas y los activos, y dar a los materiales propiedades físicamente precisas.

Portal
Fuente: NVIDIA


Impulsando los avances de la IA: la GPU H100

Relacionando los sistemas y el software con las tendencias tecnológicas generales, Huang explicó que los grandes modelos de lenguaje, o LLM; y los sistemas de recomendación son los dos modelos de IA más importantes en la actualidad.

Y los grandes modelos de lenguaje basados en el modelo de deep learning Transformer, presentado por primera vez en 2017, se encuentran ahora entre las áreas más vibrantes para la investigación en IA y son capaces de aprender a entender el lenguaje humano sin supervisión o conjuntos de datos etiquetados.

Un solo modelo preentrenado puede realizar múltiples tareas, como la respuesta a preguntas, el resumen de documentos, la generación de textos, la traducción e incluso la programación de software. Hopper está en plena producción y pronto se convertirá en el motor de las fábricas de inteligencia artificial del mundo

Jensen Huang, CEO de NVIDIA.

Grace Hopper, que combina la CPU Grace para centros de datos basada en Arm con las GPU Hopper, con su capacidad de memoria rápida 7 veces mayor, supondrá un «salto de gigante» para los sistemas de recomendación. Los sistemas que incorporen Grace Hopper estarán disponibles en el primer semestre de 2023.


Tejiendo el metaverso: la GPU L4

La próxima evolución de internet, denominada metaverso, se ampliará con el 3D.

Omniverse es la plataforma de NVIDIA para crear y ejecutar aplicaciones del metaverso. La conexión y simulación de estos mundos requerirá nuevos ordenadores potentes y flexibles. Y los servidores OVX de NVIDIA están pensados para escalar estas aplicaciones. Los sistemas OVX de segunda generación de NVIDIA estarán equipados con las GPU para Ada Lovelace L40.


Thor para vehículos autónomos, robótica, instrumentos médicos y más

En los vehículos actuales, la seguridad activa, el aparcamiento, el control del conductor, las cámaras de los retrovisores, el clúster y el ordenador de a bordo son gestionados por distintos ordenadores. En el futuro, estarán a cargo de un software que mejorará con el tiempo y que se ejecutará en un ordenador centralizado.

Y en este sentido, Huang presentó DRIVE Thor, que combina el motor transformador de Hopper, la GPU de Ada y la sorprendente CPU de Grace.

El nuevo superchip Thor ofrece 2.000 teraflops de rendimiento, sustituyendo a Atlan en la hoja de ruta de DRIVE; y proporcionando una transición perfecta desde DRIVE Orin, que tiene 254 TOPS de rendimiento y se encuentra actualmente en los vehículos de producción.

Thor será el procesador para la robótica, los instrumentos médicos, la automatización industrial y los sistemas de inteligencia artificial de vanguardia.

Jensen Huang, CEO de NVIDIA.


3,5 millones de desarrolladores, 3.000 aplicaciones aceleradas

Existe un ecosistema de software con más de 3,5 millones de desarrolladores que están creando unas 3.000 aplicaciones aceleradas utilizando los 550 kits de desarrollo de software, o SDK, y los modelos de IA de NVIDIA. Y está creciendo rápidamente. En los últimos 12 meses, NVIDIA ha actualizado más de 100 SDK y ha introducido 25 nuevos.

Los nuevos SDK aumentan la capacidad y el rendimiento de los sistemas que ya poseen nuestros clientes, al tiempo que abren nuevos mercados para la computación acelerada.

Jensen Huang, CEO de NVIDIA.


Nuevos servicios para la IA y los mundos virtuales

Basados en la arquitectura de transformadores, los grandes modelos lingüísticos pueden aprender a entender significados y lenguajes sin supervisión ni conjuntos de datos etiquetados, lo que desbloquea nuevas y notables capacidades.

Para facilitar a los investigadores la aplicación de esta «increíble» tecnología, Huang anunció Nemo LLM, un servicio en la nube gestionado por NVIDIA que permite adaptar los LLM preentrenados para realizar tareas específicas. Y para acelerar el trabajo de los investigadores de fármacos y biociencia, también se anunció BioNeMo LLM, un servicio para crear LLMs que comprendan sustancias químicas, proteínas y secuencias de ADN y ARN.

Huang también detalló NVIDIA Omniverse Cloud; una infraestructura que conecta las aplicaciones Omniverse que se ejecutan en la nube, en las instalaciones o en un dispositivo.

Los nuevos contenedores de Omniverse ya están disponibles para su implantación en la nube :

  • Replicator. Para la generación de datos sintéticos.
  • Farm. Para el escalado de granjas de renderizado.
  • Isaac Sim. Para la construcción y el entrenamiento de robots de IA.

Omniverse está siendo adoptado e implementado por importantes compañías en todo el mundo:

  • Lowe’s. Tiene casi 2.000 puntos de venta, utiliza Omniverse para diseñar, construir y operar gemelos digitales de sus tiendas.
  • Charter, proveedor de telecomunicaciones de 50.000 millones de dólares; y HeavyAI, proveedor de análisis de datos interactivos. Están utilizando Omniverse para crear gemelos digitales de las redes 4G y 5G de Charter.
  • GM. está creando un gemelo digital de su estudio de diseño de Michigan en Omniverse, en el que pueden colaborar diseñadores, ingenieros y comercializadores.

Lowe's digital twin
Lowe’s está utilizando Omniverse para diseñar, construir y operar gemelos digitales de sus tiendas. Fuente: NVIDIA


Nuevo Jetson Orin Nano para robótica

Jensen Huang anunció también Jetson Orin Nano, un diminuto ordenador para robótica que es 80 veces más rápido que el anterior y superpopular Jetson Nano.

Jetson Orin Nano ejecuta la pila de robótica NVIDIA Isaac y presenta el marco acelerado por GPU ROS 2, y NVIDIA Iaaac Sim, una plataforma de simulación de robótica.


Nuevas herramientas para servicios de vídeo e imagen

La mayor parte del tráfico mundial de Internet es vídeo, y los flujos de vídeo generados por los usuarios se verán cada vez más aumentados por efectos especiales de IA y gráficos por ordenador, explicó Huang.

Los avatares se encargarán de la visión por ordenador, la inteligencia artificial del habla, la comprensión del lenguaje y los gráficos por ordenador en tiempo real y a escala de la nube

Jensen Huang, CEO de NVIDIA.

Para posibilitar nuevas innovaciones en la intersección de los gráficos en tiempo real, la IA y las comunicaciones, Huang anunció que NVIDIA ha estado creando librerías de aceleración como CV-CUDA, un motor de ejecución en la nube llamado UCF Unified Computing Framework, Omniverse ACE Avatar Cloud Engine y una aplicación de muestra llamada Tokkio para avatares de atención al cliente (chatbots).


GTC sep22: esto es solo el comienzo

En la GTC sep22 hemos anunciado nuevos chips, nuevos avances en nuestras plataformas y, por primera vez, nuevos servicios en la nube. Estas plataformas impulsan nuevos avances en IA, nuevas aplicaciones de IA y la próxima ola de IA para la ciencia y la industria

Jensen Huang, CEO de NVIDIA.

GTC sep22


Fuente: NVIDIA

¿QUÉ ES EDGE COMPUTING?

¿QUÉ ES EDGE COMPUTING?


Edge Computing es la práctica de procesar los datos físicamente más cerca de su origen.

Edge computing
Fuente: NVIDIA

Smart cities. Cirugías a distancia. Vehículos totalmente autónomos. altavoces domésticos controlados por voz… Todas estas tecnologías innovadoras son posibles gracias al edge computing.


¿Qué es edge computing?

Edge Computing (traducido a español sería algo así como computación de borde o perimentral) es la práctica de trasladar la potencia de cálculo físicamente más cerca del lugar donde se generan los datos; normalmente, un dispositivo o sensor de IoT. Se denomina así por la forma en que la potencia de cálculo se lleva al «borde», al «extremo», al «límite» de un dispositivo o red. Edge computing se utiliza para procesar los datos más rápidamente, aumentar el ancho de banda y garantizar la autonomía de los datos.

Edge computing process
Fuente: NVIDIA

Al procesar los datos en el extremo de la red, edge computing reduce la necesidad de que grandes cantidades de datos viajen entre los servidores, la nube y los dispositivos o ubicaciones de borde. Esto resuelve los problemas de infraestructura que se encuentran en el procesamiento de datos convencional, como la latencia y el ancho de banda. Esto es especialmente importante para aplicaciones modernas como la ciencia de datos y la inteligencia artificial.


Casos de uso

Por ejemplo, los equipos industriales avanzados cuentan cada vez con más sensores inteligentes alimentados por procesadores con capacidad de IA que pueden hacer inferencias en el borde (edge AI). Estos sensores vigilan los equipos y la maquinaria cercana para alertar a los supervisores de cualquier anomalía que pueda poner en peligro la seguridad, la continuidad y la eficacia de las operaciones. En este caso de uso, el hecho de que los procesadores de IA estén físicamente presentes en el emplazamiento industrial, da lugar a una menor latencia y que los equipos industriales reaccionen más rápidamente a su entorno.

La retroalimentación instantánea que ofrece edge computing es especialmente crítica para las aplicaciones en las que la seguridad humana es un factor importante; como ocurre con los coches autónomos, donde el ahorro de milisegundos de procesamiento de datos y tiempos de respuesta puede ser clave para evitar accidentes. O en los hospitales, donde los médicos dependen de datos precisos y en tiempo real para tratar a sus pacientes.

Edge computing puede utilizarse en todos los lugares en los que lo sensores recogen datos; desde tiendas de venta al por menor y hospitales para cirugías a distancia, hasta almacenes con una logística inteligente de la cadena de suministro y fábricas con inspecciones de control de calidad.


¿Cómo funciona edge computing?

Edge computing funciona procesando los datos lo más cerca posible de su fuente o usuario final. Mantiene los datos, las aplicaciones y la potencia de cálculo lejos de una red o un centro de datos centralizados.

Tradicionalmente, los datos producidos por los sensores suelen ser revisados manualmente por humanos, se dejan sin procesar o se envían a la nube o a un data center para ser procesados y luego devueltos al dispositivo. Confiar únicamente en las revisiones manuales da lugar a procesos más lentos y menos eficientes. La computación en la nube proporciona recursos informáticos; sin embargo, el viaje y el procesamiento de los datos suponen una gran carga para el ancho de banda y la latencia.


Ancho de banda y latencia

  • El ancho de banda es la velocidad a la que se transfieren los datos por Internet. Cuando los datos se envían a la nube viajan a través de una red de área amplia, que puede ser muy cara debido a su cobertura global y a las elevadas necesidades de ancho de banda. Cuando los datos se procesan en el borde, se pueden utilizar redes de área local, lo que supone un mayor ancho de banda con menores costes.
  • La latencia es el retraso en el envío de información de un punto a otro. Se reduce cuando se procesa en el borde, porque los datos producidos por los sensores y dispositivos IoT ya no necesitan enviar datos a una nube centralizada para ser procesados. Incluso en las redes de fibra óptica más rápidas, los datos no pueden viajar más rápido que la velocidad de la luz.

Al llevar a cabo edge computing se reduce la latencia y se incrementa el ancho de banda, lo que da como resultado información y acciones más rápidas.

edge-computing-graphics
Fuente: NVIDIA

Edge computing puede ejecutarse en uno o varios sistemas para acortar la distancia entre el lugar donde se recogen y procesan los datos, reducir los cuellos de botella y acelerar las aplicaciones. Una infraestructura de borde ideal también implica una plataforma de software centralizada que pueda gestionar de forma remota todos los sistemas de borde en una sola interfaz.


¿Por qué es necesaria esta técnica computacional?

Hoy en día, tres tendencias tecnológicas están convergiendo y creando casos de uso que requieren que las organizaciones consideren edge computing: IoT, IA y 5G.


IoT

Con la proliferación de dispositivos IoT llegó la expansión de big data que empezaron a generar las empreas. A medida que las organizaciones aprovechaban la recopilación de datos de todos los aspectos de sus negocios, se dieron cuenta de que sus aplicaciones no estaban construidas para manejar tales volúmenes de datos.

Además, se percataron de que la infraestructura para transferir, almacenar y procesar todos estos datos era extremadamente cara y difícil de gestionar. Esta puede ser la razón por la que solo se procesa una parte de los datos recopilados de los dispositivos IoT (25% en algunos casos).

Y el problema se agrava aún más. En la actualidad hay 40.000 millones de dispositivos IoT y las predicciones indican que podrían aumentar al billón en 2022. A medida que crece el número de dispositivos IoT y aumenta la cantidad de datos que hay que transferir, almacenar y procesar, las organizaciones recurren más a edge computing para reducir los costes necesarios para utilizar los mismos datos en los modelos de computación en la nube.


IA

La IA representa un sinfín de posibilidades y beneficios para las empresas, como la capacidad de obtener información en tiempo real. Las empresas están descubriendo que su infraestructura de nube actual no puede cumplir con los requisitos que requieren los nuevos casos de uso para la IA.

Cuando las organizaciones tienen limitaciones de ancho de banda y latencia, tienen que recortar la cantidad de datos que alimentan a sus modelos. Y esto da lugar a modelos más débiles.


5G

Las redes 5G, diez veces más rápidas que las 4G, están construidas para permitir que cada nodo sirva a cientos de dispositivos; aumentando así las posibilidades de los servicios habilitados por la IA en las ubicaciones de borde.

Con la potente, rápida y fiable capacidad de procesamiento de edge computing, las empresas pueden explorar nuevas oportunidades de negocio, obtener información en tiempo real, aumentar la eficiencia operativa y mejorar la experiencia del usuario.


¿Cuáles son los beneficios de edge computing?

  • Menor latencia. Al procesar en el borde de una red, se reducen o eliminan los viajes de datos, lo que acelera la IA. Esto abre la puerta a casos de uso con modelos de IA más complejos, como los vehículos autónomos y la realidad aumentada.
  • Reducción de costes. El uso de una LAN para el procesamiento de datos significa que las organizaciones pueden acceder a un mayor ancho de banda y almacenamiento a un menor coste que con la computación en la nube. Además, como el procesamiento se realiza en el borde, no es necesario enviar tantos datos a la nube o al data center para su procesamiento posterior.
  • Precisión de los modelos. La IA se basa en modelos de alta precisión, especialmente para los casos de uso que requieren respuestas instantáneas. Cuando el ancho de banda de una red es demasiado bajo, se soluciona reduciendo el tamaño de los datos utilizados para la inferencia. Esto suele dar como resultado imágenes reducidas, fotogramas omitidos en vídeo y frecuencias de muestreo reducidas en audio. Cuando se despliega en el borde, los bucles de retroalimentación de datos pueden utilizarse para mejorar la precisión del modelo de IA y se pueden ejecutar varios modelos simultáneamente, lo que da lugar a una mejor comprensión de los mismos.
  • Mayor alcance. Internet es necesario para la computación en la nube; pero con edge computing los datos se procesan sin acceso a internet, lo que amplía su alcance a lugares anteriormente inaccesibles.
  • Autonomía de los datos. Cuando los datos se procesan en el lugar donde se recogen, las organizaciones pueden mantenerlos dentro de la LAN y el firewall de la empresa. Esto se traduce en una menor exposición a los ataques de ciberseguridad de la nube y a las estrictas y cambiantes leyes de protección de datos.


Casos de uso en todas las industrias

Edge computing puede aportar inteligencia en tiempo real a las empresas de todos los sectores.

edge-computing-uses
Fuente: NVIDIA


Comercio minorista

Ante la rápida evolución de la demanda, el comportamiento y las expectativas de los consumidores, los minoristas más grandes del mundo recurren a la IA avanzada para ofrecer mejores experiencias a los usuarios.

Con edge computing los minoristas pueden aumentar su agilidad mediante:

  • Reducción de las pérdidas. Con cámaras y sensores inteligentes en los comercios que aprovecha edge computing para analizar datos, se pueden identificar y prevenir casos de errores, desperdicios, daños y robos.
  • Mejora de la gestión del inventario. Las aplicaciones de edge computing pueden utilizar cámaras para alertar cuándo baja el stock, evitando así las posibles roturas.
  • Optimización de la experiencia de compra. Con el rápido procesamiento de datos de edge computing, los minoristas pueden implementar pedidos por voz para que los compradores puedan buscar fácilmente artículos, pedir información sobre productos y hacer pedidos online utilizando altavoces u otros dispositivos inteligentes.


Smart cities

Ciudades, campus universitarios, estadios y centros comerciales son algunos ejemplos de lugares que han empezado a utilizar la IA para transformarse en espacios inteligentes. Esto se traduce en una mayor eficiencia desde el punto de vista operativo, seguridad y accesibilidad.

Edge computing se ha utilizado para transformar las operaciones y mejorar la seguridad en todo el mundo en áreas como:

  • Reducción de la congestión del tráfico. Las ciudades utilizan computer vision para identificar, analizar y optimizar el tráfico; disminuir los costes relacionados con los atascos; y minimizar el tiempo que los conductores pasan en el vehículo.
  • Supervisión de la seguridad en las playas. Detectar los posibles peligros en las playas, como la resaca, las corrientes y las condiciones peligrosas del mar, permite a las autoridades poner en marcha procedimientos para salvar vidas.
  • Aumento de la eficiencia de las operaciones de las aerolíneas y los aeropuertos. Una aplicación de análisis de vídeo con IA ayuda a las aerolíneas y los aeropuertos a tomar mejores decisiones de forma más rápida en cuanto a capacidad, sostenibilidad y seguridad.


Industria

Las fábricas y las empresas automovilísticas están generando datos de sensores que pueden utilizarse de forma cruzada para mejorar los servicios. Algunos casos de uso para promover la eficiencia y la productividad en la fabricación son:

  • Mantenimiento predictivo: Detección temprana de anomalías y predicción de cuándo van a fallar las máquinas para evitar tiempos de inactividad.
  • Control de calidad. Detectar defectos en los productos y alertar al personal al instante para reducir los residuos y mejorar la eficiencia de la fabricación.
  • Seguridad de los trabajadores. Uso de una red de cámaras y sensores equipados con análisis de vídeo con IA para que los fabricantes puedan identificar a los trabajadores en condiciones inseguras e intervenir rápidamente para evitar accidentes.


Sanidad

La combinación de edge computing e IA está transformando la atención sanitaria. La IA «en el borde» proporciona a los trabajadores sanitarios las herramientas que necesitan para mejorar la eficiencia operativa, garantizar la seguridad y ofrecer una experiencia asistencial de la mayor calidad posible.

Dos ejemplos muy claros de edge computing en este sector son:

  • Los quirófanos. Los modelos de IA construidos sobre imágenes en streaming y sensores en dispositivos médicos están ayudando a:
    • La adquisición y reconstrucción de imágenes.
    • La optimización del flujo de trabajo para el diagnóstico y la planificación de la terapia.
    • La medición de órganos y tumores.
    • La orientación de la terapia quirúrgica.
    • La visualización y monitorización en tiempo real durante las cirugías.
  • Los hospitales. Los hospitales inteligentes están utilizando tecnologías como la monitorización de pacientes, la detección de enfermedades, la IA conversacional, la estimación de la frecuencia cardíaca, los escáneres radiológicos, etc. Utilizando computer vision se puede ayudar a notificar al personal sanitario cuándo un paciente se mueve o se cae de una cama del hospital.


El futuro de edge computing

La capacidad de obtener información más rápida puede suponer un ahorro de tiempo, costes e incluso vidas. Por ello, las empresas están aprovechando los datos generados por los miles de millones de sensores de IoT que se encuentran en las tiendas, en las calles de las ciudades y en los hospitales para crear espacios inteligentes.

Pero para ello, las organizaciones necesitan sistemas de edge computing que ofrezcan una computación potente y distribuida, una gestión remota segura y sencilla y compatibilidad con las tecnologías líderes del sector.

El mercado de edge computing tendrá un valor de 251.000 millones de dólares en 2025, y se espera que siga creciendo cada año con una tasa de crecimiento anual del 16,4%.

La evolución de la IA, el IoT y el 5G seguirá catalizando la adopción de edge computing. El número de casos de uso y los tipos de cargas de trabajo desplegados «en el borde» crecerán. En la actualidad, los casos de uso más frecuentes giran en torno a computer vision. Sin embargo, hay muchas oportunidades sin explorar en áreas de trabajo como el procesamiento del lenguaje natural, los sistemas de recomendación y la robótica.

Las posibilidades «en el borde» son realmente ilimitadas.


Fuente: NVIDIA.

META TRABAJA CON NVIDIA PARA CONSTRUIR UN SUPERORDENADOR DE INVESTIGACIÓN EN IA

META TRABAJA CON NVIDIA PARA CONSTRUIR UN SUPERORDENADOR DE INVESTIGACIÓN EN IA


El superordenador de IA de Meta, el mayor sistema para clientes de NVIDIA DGX A100 hasta la fecha, proporcionará a los investigadores de «Meta AI» 5 exaflops de rendimiento de IA y cuenta con sistemas NVIDIA de última generación, tejido InfiniBand y software que permite la optimización en miles de GPU.

«Meta Platforms» ha elegido las tecnologías de NVIDIA para lo que cree que será su sistema de investigación más potente hasta la fecha.

NVIDIA-DGX-SuperPod-1280x680-1-19-22
Fuente: NVIDIA

El AI Research SuperCluster (RSC) ya está entrenando nuevos modelos para avanzar en la IA. Una vez desplegado por completo, se espera que el RSC de Meta sea la mayor instalación de sistemas NVIDIA DGX A100 de un cliente.

«Esperamos que el RSC nos ayude a crear sistemas de IA totalmente nuevos que puedan, por ejemplo, realizar traducciones de voz en tiempo real a grandes grupos de personas, cada una de las cuales habla un idioma diferente, para que puedan colaborar sin problemas en un proyecto de investigación o jugar juntos a un juego de realidad aumentada».

Meta (blog)


Meta entrena los modelos más grandes de IA

Cuando el RSC esté completamente construido, a finales de año, Meta pretende utilizarlo para entrenar modelos de IA con más de un billón de parámetros. Esto podría suponer un avance en campos como el procesamiento del lenguaje natural para tareas como la identificación de contenidos nocivos en tiempo real.

Además del rendimiento a escala, Meta aboga por la fiabilidad extrema, la seguridad, la privacidad y la flexibilidad para manejar una amplia gama de modelos de IA como sus criterios clave para RSC.

Meta RSC supercomputer
El superclúster de investigación de IA de Meta cuenta con cientos de sistemas NVIDIA DGX conectados a una red NVIDIA Quantum InfiniBand para acelerar el trabajo de sus equipos de investigación de IA.


La infraestructura de Meta

El nuevo superordenador de IA utiliza actualmente 760 sistemas NVIDIA DGX A100 como nodos de cálculo. Estos sistemas cuentan con un total de 6.080 GPU NVIDIA A100 conectadas a una red InfiniBand NVIDIA Quantum de 200 Gb/s para ofrecer 1.895 petaflops de rendimiento TF32.

A pesar de los desafíos de COVID-19, RSC tardó solo 18 meses en pasar de ser una idea sobre el papel a un superordenador de IA en funcionamiento; gracias, en parte, a la tecnología NVIDIA DGX A100 en la base de Meta RSC.

Penguin Computing es el socio de NVIDIA Partner Network para RSC. Además de los 760 sistemas DGX A100 y la red InfiniBand, Penguin proporciona servicios gestionados e infraestructura optimizada para la IA de Meta; compuesta por 46 petabytes de almacenamiento en caché con sus sistemas Altus. Pure storage FlasBlade y FlasArray//C proporcionan las capacidades de almacenamiento all-flash de alto rendimiento y escalabilidad necesarias para impulsar el RSC.


Aumento del rendimiento x20

Es la segunda vez que Meta elige las tecnologías de NVIDIA como base de su infraestructura de investigación. En 2017, Meta construyó la primera generación de dicha infraestructura de IA con 22.000 GPUs NVIDIA V100 Tensor Core que manejan 35.000 trabajos de entrenamiento de IA al día.

Las primeras pruebas de Meta mostraron que RSC puede entrenar grandes modelos de PNL 3 veces más rápido y ejecutar trabajos de visión por ordenador 20 veces más rápido que el sistema anterior.

En una segunda fase, a finales de año, RSC ampliará a 16.000 GPUs que proporcionarán 5 exaflops de rendimiento de IA de precisión mixta. Además, Meta pretende ampliar el sistema de almacenamiento de RSC para ofrecer hasta un exabyte de datos a 16 terabytes por segundo.


Una arquitectura escalable

Las tecnologías de IA de NVIDIA están disponibles para empresas de cualquier tamaño.

NVIDIA DGX, que incluye una pila completa de software de IA, se amplía fácilmente desde un único sistema hasta un SuperPOD.

Fuente: NVIDIA


Fuente: NVIDIA

NOVEDADES OMNIVERSE 2022: EL ECOSISTEMA DE NVIDIA SE MULTIPLICA POR 10, CON NUEVAS FUNCIONES Y SERVICIOS PARA DESARROLLADORES, EMPRESAS Y CREADORES

NOVEDADES OMNIVERSE 2022: EL ECOSISTEMA DE NVIDIA SE MULTIPLICA POR 10, CON NUEVAS FUNCIONES Y SERVICIOS PARA DESARROLLADORES, EMPRESAS Y CREADORES


Nuevas versiones de la plataforma y sus aplicaciones; lanzamiento de pruebas de Omniverse Enterprise llave en mano; nuevas conexiones con la robótica, la automatización industrial, el diseño 3D y el renderizado.

Más de 150.000 personas han descargado ya NVIDIA Omniverse para dar el salto a la transformación de los flujos de trabajo de diseño 3D y alcanzar nuevas cotas de simulaciones en tiempo real y con gran precisión física.

Omniverse ecosystem
Fuente: NVIDIA

NVIDIA anunció en el Keynote de su evento anual GTC nuevas versiones y actualizaciones para Omniverse (incluidos los últimos conectores y librerías añadidos a la plataforma); que multiplican por 10 el ecosistema y hacen que esta herramienta sea aún más accesible para creadores, desarrolladores, diseñadores, ingenieros e investigadores de todo el mundo.

NVIDIA Omniverse Enterprise está ayudando a las principales empresas a mejorar sus procesos y flujos de trabajo creativos. Por ejemplo, entre los nuevos clientes de Omniverse Enterprise se encuentran Amazon, DB Netze, DNEG, Kroger, Lowe’s y PepsiCo; que están utilizando la plataforma para construir gemelos digitales físicamente precisos o desarrollar experiencias inmersivas realistas para los clientes.


Mejora la creación de contenidos con nuevas conexiones y bibliotecas

El ecosistema Omniverse se está expandiendo más allá del diseño y la creación de contenidos. En un año, las conexiones y las formas de integrarse con la plataforma se han multiplicado por 10.

  • Nuevas conexiones de terceros: Adobe Substance 3D Material Extension y Painter Connector, Epic Games Unreal Engine Connector y Maxon Cinema 4D. Permitirán flujos de trabajo sincronizados entre aplicaciones de terceros y Omniverse.
  • Nuevos importadores CAD: su tarea es la de convertir los 26 formatos comunes de CAD al lenguaje USD (Universal Scene Description) para facilitar los flujos de trabajo de fabricación y diseño en Omniverse.
  • Nuevas integraciones de bibliotecas de recursos: los recursos de TurboSquid by Shutterstock, Sketchfab y Reallusion ActorCore están ahora disponibles dentro de los navegadores de recursos de Omniverse Apps para que los usuarios puedan buscar, arrastrar y soltar cerca de 1 millón de recursos 3D.
  • Nueva compatibilidad y soporte con Hydra: los usuarios pueden integrar y alternar entre sus renderizadores favoritos soportados por Hydra y Omniverse RTX Renderer dentro de Omniverse Apps. La versión beta para Chaos V-Ray, Maxon Redshift y OYOY Octane ya está disponible; y se espera, próximamente, la de Blender Cycles y Autodesk Arnold.

Hydra
Fuente: NVIDIA

También hay nuevas conexiones con desarrolladores de software de automatización industrial y gemelos digitales. Bentley Systems, la empresa de software de ingeniería de infraestructuras, ha anunciado la disponibilidad de Lumen RT. En definitiva, este software pone a disposición de unos 39.000 clientes de Bentley Systems una visualización de precisión física a escala industrial. Ipolog, un desarrollador de software de fábrica, logística y planificación, ha lanzado tres nuevas conexiones a la plataforma. Esto, unido al creciente ecosistema de robótica de Isaac Sim, permite a empresas como BMW Group desarrollar mejor gemelos digitales integrales.


Ampliación de funciones y disponibilidad de Omniverse Enterprise

Pronto llegarán nuevas actualizaciones a la plataforma, incluidas las últimas versiones de Kit 103, Create and View 2022.1, Farm y DeepSearch.

Omniverse Enterprise en NVIDIA LaunchPad ya está disponible en nueve regiones del mundo. LaunchPad ofrece a los profesionales del diseño y a los revisores de proyectos un acceso instantáneo y gratuito a Omniverse Enterprise Labs, lo que les ayuda a tomar decisiones más rápidas y seguras sobre el software y la infraestructura.


Los clientes impulsan la innovación con Omniverse Enterprise

Amazon cuenta con más de 200 instalaciones robotizadas que gestionan millones de paquetes cada día. En otras palabras, se trata de una operación compleja que requiere más de medio millón de robots móviles para apoyar la logística del almacén. Gracias a Omniverse Enterprise e Isaac Sim, Amazon Robotics está construyendo con IA gemelos digitales de sus almacenes para optimizar el diseño y el flujo del almacén y entrenar soluciones robóticas más inteligentes.

Fuente: NVIDIA

PepsiCo está estudiando el uso de gemelos digitales impulsados por Omniverse Enterprise y Metropolis para mejorar la eficiencia y la sostenibilidad medioambiental de su cadena de suministro de más de 600 centros de distribución en 200 mercados regionales.

“NVIDIA Omniverse nos ayudará a agilizar las operaciones de la cadena de suministro y a reducir el uso de energía y residuos, al tiempo que avanzamos en nuestra misión hacia la sostenibilidad. Cuando estudiemos nuevos productos y procesos, utilizaremos gemelos digitales para simular y probar modelos y entornos en tiempo real antes de aplicar los cambios a los centros de distribución físicos”

Qi Wang, vicepresidente de Investigación y Desarrollo de PepsiCo.

Fuente: NVIDIA

Por su parte, Lowe’s Innovation Labs está explorando cómo Omniverse puede ayudar a desbloquear la próxima generación de sus tiendas. Está utilizando la plataforma para ampliar los límites de lo que es posible en los gemelos digitales, la simulación y las herramientas avanzadas que eliminan la fricción para los clientes y los asociados.

Kroger tiene previsto utilizar la herramienta para optimizar la eficiencia y los procesos de las tiendas con la simulación de tiendas como gemelos digitales.


Subiendo el listón de los gemelos digitales industriales

NVIDIA presentó en el GTC NVIDIA OVX, una arquitectura de sistemas de computación diseñada para impulsar gemelos digitales a gran escala. NVIDIA OVX está diseñada para realizar simulaciones complejas que se ejecutarán en Omniverse; lo que permitirá a diseñadores, ingenieros y planificadores crear gemelos digitales físicamente precisos y entornos de simulación masivos y fieles a la realidad.


Últimas tecnologías y funciones de Omniverse

Las principales novedades y capacidades anunciadas para Omniverse incluyen:

  • Nuevas herramientas para desarrolladores: Omniverse Code, una aplicación que sirve como entorno de desarrollo integrado para los desarrolladores; permite a los usuarios crear fácilmente sus propias extensiones, aplicaciones o microservicios de Omniverse.
  • DeepSearch: un nuevo servicio de búsqueda basado en IA que permite a los usuarios buscar rápidamente en bibliotecas masivas de recursos 3D sin etiquetar utilizando lenguaje natural o imágenes.
  • Omniverse Replicator: un marco de trabajo para generar datos sintéticos 3D físicamente precisos para acelerar el entrenamiento y la precisión de las redes de percepción. (Disponible en Omniverse Code para que los desarrolladores puedan construir sus propios motores de datos sintéticos específicos de dominio).
  • OmniGraph, ActionGraph y AnimGraph: importantes novedades que controlan el comportamiento y la animación.
  • Omniverse Avatar: una plataforma que utiliza la tecnología de IA y simulación para permitir a los desarrolladores construir avatares personalizados, inteligentes y realistas.
  • Aplicación Omniverse XR: una configuración de Omniverse View optimizada para la realidad virtual que permite a los usuarios experimentar sus escenas 3D de máxima fidelidad con trazado de rayos RTX (ray tracing).
  • Nuevas versiones de Omniverse Kit, Create, View y Machinima.


Omniverse Cloud

Omniverse Cloud es un conjunto de servicios en la nube que ofrece a artistas, creadores, diseñadores y desarrolladores acceso instantáneo a la plataforma NVIDIA Omniverse para la colaboración y simulación de diseños 3D.

  • Nucleus Cloud: una herramienta de uso compartido que permite a los artistas acceder a grandes escenas 3D y editarlas desde cualquier lugar; sin necesidad de transferir enormes conjuntos de datos.
  • Omniverse Create: una aplicación para que diseñadores técnicos, artistas y creadores construyan mundos 3D de forma interactiva y en tiempo real.
  • Omniverse View: una aplicación para que los usuarios no técnicos puedan ver las escenas de Omniverse en streaming con toda la capacidad de simulación y renderización utilizando la plataforma NVIDIA GeForce NOW, impulsada por las GPU NVIDIA RTX en la nube.

nvidia-omniverse-cloud
Fuente: NVIDIA


PUESTA EN MARCHA

“Los diseñadores que trabajan a distancia colaboran como si estuvieran en el mismo estudio; los planificadores de fábrica trabajan dentro de un gemelo digital de la planta real para diseñar un nuevo flujo de producción; los ingenieros de software prueban una nueva versión del software en el gemelo digital de un coche autoconducido antes de lanzarlo a circulación. Se avecina una nueva ola de trabajo que solo puede realizarse en mundos virtuales; Omniverse Cloud conectará a decenas de millones de diseñadores y creadores y a miles de millones de futuras IA y sistemas robóticos”.

Jensen Huang, fundador y consejero delegado de NVDIA.

En su discurso de presentación en el GTC, Huang mostró una demo del futuro del diseño en la que tres diseñadores reales y un diseñador IA especializado en Omniverse Avatar colaboraban virtualmente en Omniverse Cloud, realizando cambios de diseño en un proyecto arquitectónico.

El equipo conversó utilizando una herramienta estándar de conferencia web, mientras estaban conectados en una escena alojada en Nucleus Cloud. Uno de los diseñadores ejecutó la aplicación Omniverse View en su estación de trabajo con tecnología RTX; mientras que los otros dos transmitieron Omniverse View desde GeForce NOW a su portátil y Tablet.

“En KPF, líder mundial en diseño arquitectónico, valoramos la capacidad de nuestros diseñadores para colaborar de la forma más fluida posible; poniendo a su disposición tecnologías en la nube cuando las necesitan. Omniverse Cloud encaja perfectamente en esa práctica con la promesa de sobresalir en nuestras capacidades de colaboración de diseño visual y 3D al permitir a nuestros equipos trabajar en Omniverse desde cualquier dispositivo y en cualquier lugar”.

Cobus Bothma, director de Investigación Aplicada de Kohn Pedersen Fox Associates.

Aún, la colección completa de servicios de Omniverse Cloud está en desarrollo.


Fuente: blog NVIDIA y NVIDIA news.

NVIDIA Y ASUSTEK: EL PRIMER SISTEMA HPC DE TAIWÁN PARA INVESTIGACIÓN MÉDICA

NVIDIA Y ASUSTEK: EL PRIMER SISTEMA HPC DE TAIWÁN PARA INVESTIGACIÓN MÉDICA


Las dos compañías tecnológicas se asocian para impulsar la investigación médica en el país asiático

NVIDIA y Asustek Computer, compañía taiwanesa, han anunciado en Abril el inicio de una colaboración con el Instituto Nacional de Investigación Sanitaria de Taiwán (NHRI) para llevar a cabo el desarrollo del primer supercomputador de investigación biomédica basado en IA del país.

Asustek y NVIDIA se ocuparán de aportar la tecnología de IA en la nube y los servidores de computación de alto rendimiento (HPC). Por otro lado, el NHRI se encargará de proporcionar los datos necesarios sobre la investigación sanitaria, según afirma un artículo publicado en Digitimes Asia.

NVIDIA y Asustek presentan su colaboración con el NHRI
Fuente: HPCwire

Jonney Shih, presidente de Asustek, sostiene que el fruto de dicha alianza será la construcción del primer supercomputador del país dedicado a la investigación biomédica. Para ello se aprovechará la tecnología de supercomputadores de IA de NVIDIA, los modelos de IA y las aplicaciones de computación analítica. Lo mismo se hará con la investigación del NHRI, la plataforma de IA HPC en la nube de Asustek y los servicios de asesoramiento de mantenimiento de Taiwan Web Service (TWS).

Con el fin de impulsar la eficiencia de la investigación de IA del NHRI, Shih afirma que se utilizarán distintos recursos. Entre ellos, destaca el análisis multiómico, la identificación de imágenes médicas y el software de desarrollo de medicamentos y vacunas.

«Además de desarrollar soluciones de HPC para la salud de precisión, la investigación médica y el desarrollo de vacunas, Asustek también trabajará con el NHRI para acelerar el desarrollo de aplicaciones de IA en la industria biomédica de Taiwán, centrándose en los grandes datos para la atención sanitaria y los modelos de IA biomédica»

Digitimes Asia


Antecedentes tecnológicos en Taiwán

En 2018, Asustek se convirtió en proveedor de software del supercomputador Taiwania 2. La compañía informa que desde entonces, ha asignado ingenieros de IA en cloud a la investigación, el desarrollo y la integración del software del sistema. Taiwania 2 ocupa el puesto 54 en la última lista Top500, que representa los supercomputadores más potentes del mundo. En cuanto a la lista Green500, que refleja el nivel de eficiencia energética de los sistemas listados en la lista anterior, ocupa el 34.

Por su parte, el CEO de NVIDIA Jensen Huang, es de origen Taiwanés-americano, por lo que la isla siempre ha sido un gran punto de referencia para la compañía. En Marzo de 2021, la empresa anunció que establecería en Taiwán la base de NVIDIA Inception, su programa de startups de IA y ciencia de datos, convirtiéndose así en el primer centro de su categoría en todo Asia.


Descubre las soluciones de HPC con la tecnología de NVIDIA