GEMELOS DIGITALES

GEMELOS DIGITALES


¿Qué es un gemelo digital?

Un gemelo digital es una representación virtual, una simulación realista de la física y los materiales de un activo o sistema físico del mundo real, que se actualiza continuamente.

Los gemelos digitales no son solo para personas y objetos inanimados. Pueden ser una representación virtual de la arquitectura de redes informáticas utilizada como caja de arena para simulaciones de ciberataques. Pueden, también, replicar el proceso de un centro logístico para probar las interacciones entre humanos y robots antes de activar determinadas funciones del robot en entornos reales. Las aplicaciones son tan amplias como la imaginación.

En definitiva, los gemelos digitales están revolucionando las operaciones de las empresas en todo el mundo, siendo el COVID 19 un catalizador para la adopción de gemelos digitales en industrias específicas.

Fuente: NVIDIA


¿Qué está impulsando a los gemelos digitales?

El internet de las cosas (IoT – Internet of Things) está acelerando a los gemelos digitales, ayudándoles a compartir datos con las máquinas y dispositivos conectados y viceversa. Esto se debe a que los gemelos digitales son versiones simuladas por ordenador, siempre activas y actualizadas, de las cosas o procesos físicos conectados al IoT del mundo real que representan.

Los gemelos digitales son representaciones virtuales que pueden captar la física de las estructuras y las condiciones cambiantes internas y externas, medidas por una miríada de sensores conectados impulsados por la computación de borde. También pueden ejecutar simulaciones dentro de las virtualizaciones para probar los problemas y buscar mejoras a través de las actualizaciones del servicio.

El desarrollo de la robótica y los vehículos autónomos son solo un par del creciente número de ejemplos utilizados en los gemelos digitales para imitar equipos y entornos físicos.

«Los vehículos autónomos a un nivel muy simple son robots que operan en el mundo abierto, esforzándose por evitar el contacto con cualquier cosa», afirma Rev Lebaredian, vicepresidente de tecnología de Omniverse y Tecnología de Simulación de NVIDIA. «Con el tiempo, tendremos sofisticados robots autónomos que trabajarán junto a los humanos en diferentes entornos, como una cocina, manipulando cuchillos y otras herramientas peligrosas. Necesitamos gemelos digitales de los mundos en los que se va a operar, para poder enseñar de forma segura en el mundo virtual a los robots antes de transferir su inteligencia al mundo real».


Gemelos digitales en entornos virtuales 3D

Los mundos virtuales 3D compartidos están reuniendo a la gente para colaborar en gemelos digitales.

Fuente: NVIDIA

El universo virtual 3D interactivo se hace muy evidente en los juegos. Juegos sociales en línea como el Fortnite y el mundo virtual generado por los usuarios de Roblox ofrecen una visión del potencial de las interacciones.

Las videoconferencias en Realidad Virtual (RV), con participantes que existen como avatares de sí mismos en una sala de conferencias virtual compartida, son un paso hacia la realización de las posibilidades para la empresa.

Actualmente, existen herramientas para desarrollar cada uno de estos mundos virtuales compartidos en una plataforma de colaboración virtual compartida dentro de este entorno.


Omniverse Replicator para simulaciones de gemelos digitales

En la GTC organizada el pasado noviembre, NVIDIA presentó Omniverse Replicator para ayudar a desarrollar gemelos digitales.

Omniverse Replicator es un motor de generación de datos sintéticos que produce datos simulados físicamente para entrenar redes neuronales profundas.

Además, la compañía presentó dos implementaciones del motor para aplicaciones que generan datos sintéticos: NVIDIA DRIVE Sim, un mundo virtual para albergar el gemelo digital de los vehículos autónomos y NVIDIA Isaac Sim, un mundo virtual para el gemelo digital de los robots de manipulación.

Los vehículos y robots autónomos desarrollados con estos datos pueden dominar habilidades en una serie de entornos virtuales antes de aplicarlas en el mundo real.

Fuente: NVIDIA

Basado en la descripción de escena universal de Pixar y la tecnología NVIDIA RTX, NVIDIA Omniverse es la primera plataforma de simulación escalable y físicamente precisa para múltiples GPU’s.

Omniverse ofrece a los usuarios la posibilidad de conectarse a múltiples ecosistemas de software, como Epic Games Unreal Engine, Reallusion, OnShape, Blender y Adobe, que pueden ayudar a millones de usuarios.

La plataforma de desarrollo de referencia es modular y puede ampliarse fácilmente.

Los equipos de NVIDIA han recurrido a la plataforma para crear aplicaciones de simulación básicas, como la ya mencionada NVIDIA Isaac Sim, para robótica y generación de datos sintéticos; NVIDIA DRIVE Sim, que permite recrear escenarios de conducción del mundo real en un entorno virtual para poder probar y desarrollar casos de uso poco frecuentes y peligrosos. Además, como el simulador conoce a la perfección la verdad del terreno en cualquier escena, los datos del simulador pueden utilizarse para entrenar las redes neuronales profundas utilizadas en la percepción de los vehículos autónomos; NVIDIA Metrópolis para análisis de vídeo inteligente; y el kit de desarrollo de software NVIDIA Aerial, que lleva a los entornos las redes de acceso inalámbrico 5G aceleradas por la GPU y definidas por software, así como el software de terceros para que los usuarios y las empresas puedan seguir utilizando sus propias herramientas.


¿Cómo se conectan los gemelos digitales?

La implementación de la IA de los gemelos digitales en el mundo real requiere una plataforma de despliegue para manejar las actualizaciones de todas las máquinas y dispositivos.

Por ello, NVIDIA Fleet Command permite que los centros logísticos, las fábricas, los minoristas y muchos otros implementen actualizaciones de IA de forma remota.


¿Cómo están avanzando los gemelos digitales?

Los gemelos digitales permiten la autonomía de las cosas. Pueden utilizarse para controlar de forma autónoma un homólogo físico.

Por ejemplo, un fabricante de coches eléctricos puede utilizar un gemelo digital para realizar simulaciones de software. Cuando estas simulaciones muestren mejoras en el rendimiento del coche o resuelvan un problema, pueden enviarse al vehículo físico.

Passive Logic (startup) ofrece una plataforma de IA para diseñar y operar de forma autónoma los componentes de IoT de los edificios. Su motor de IA entiende cómo funcionan los componentes del edificio y puede realizar simulaciones de los sistemas del mismo. La plataforma puede tomar múltiples puntos de datos y tomar decisiones de control para optimizar las operaciones de forma autónoma. A partir de ahí, compara la ruta de control óptima con los datos reales de los sensores, aplica el aprendizaje automático y aprende mejoras sobre el funcionamiento del edificio a lo largo del tiempo.


La historia de los gemelos digitales

La NASA comenzó con la idea del gemelo digital ya en la década de 1960.

La NASA había creado simuladores de sistemas en la nave Apolo 13 que podían recibir actualizaciones de la nave real en el espacio exterior a través de las telecomunicaciones, lo que permitió a los ingenieros realizar simulaciones de situaciones antes de la partida de los astronautas. Gracias a esto, los ingenieros pudieron seleccionar los problemas consultando los modelos y salvando la misión del desastre.


Tipos de gemelos digitales


Sims de ciudades inteligentes

Las ciudades inteligentes son ya una realidad. Gracias a las cámaras de vídeo, la computación de borde y la IA, las ciudades son capaces de comprenderlo todo, desde el aparcamiento hasta el flujo de tráfico y los patrones de delincuencia. Los planificadores urbanos pueden estudiar los datos para ayudar a elaborar y mejorar los diseños de las ciudades.

Fuente: NVIDIA

Los gemelos digitales de las ciudades inteligentes permiten una mejor planificación de la construcción y mejoras constantes de los municipios. Las ciudades inteligentes están construyendo réplicas en 3D de sí mismas para realizar simulaciones de mejora; y estas mejoras pueden aplicarse en el mundo real.

NVIDIA Metrópolis es un marco de aplicaciones, un conjunto de herramientas para desarrolladores y un amplio ecosistema de socios especializados que ayudan a los desarrolladores y proveedores de servicios a instrumentar mejor el espacio físico y a construir infraestructuras y espacios más inteligentes a través de la visión con IA.

Fuente: NVIDIA


Gemelos de simulación de La Tierra

Los gemelos digitales se están aplicando incluso a la modelización del clima. Jensen Huang (CEO de NVIDIA), reveló sus planes de construir el superordenador de IA más potente del mundo capaz de predecir el cambio climático. Llamado Earth-2 o E-2, el sistema crearía un gemelo digital de La Tierra en Omniverse.

Por otra parte, la Unión Europea ha puesto en marcha Destination Earth, un esfuerzo por construir una simulación digital del planeta. El plan es ayudar a los científicos a trazar con precisión la evolución del clima y los fenómenos meteorológicos extremos. También se prevé tener en cuenta las mediciones del impacto ambiental de las actividades humanas y planificar cuestiones relacionadas con la alimentación y el agua.

Se prevé que el proyecto de gemelo digital de Destination Earth requiera un sistema con 20.000 GPU para funcionar a escala completa. Los conocimientos de simulación pueden permitir a los científicos desarrollar y probar escenarios, lo que puede ayudar a fundamentar las decisiones políticas y la planificación del desarrollo sostenible.

El objetivo es que la plataforma de modelización digital esté operativa en 2023 y que el gemelo digital esté en funcionamiento en 2027.


Simulación de redes en centros de datos

Las redes son un área en la que los gemelos digitales están reduciendo el tiempo inactividad de los centros de datos.

Con el tiempo, las redes se han vuelto más complicadas. La escala de las redes, el número de nodos y la interoperabilidad entre los componentes se suman a su complejidad, afectando a las operaciones de preproducción y puesta en marcha.

Los gemelos digitales de red aceleran los despliegues iniciales al probar previamente el enrutamiento, la seguridad, la automatización y la supervisión en la simulación. También mejoran las operaciones en curso, lo que reduce tiempos de mantenimiento.

Las operaciones de red también han evolucionado hacia capacidades más avanzadas con el uso de API y la automatización.

La plataforma de simulación de infraestructuras NVIDIA Air permite a los ingenieros de redes albergar gemelos digitales de las redes de los centros de datos.

Fuente: NVIDIA


Desplegando el 5G con gemelos digitales

Ericsson, proveedor de equipos y servicios de telecomunicaciones, está combinando décadas de experiencia en simulación de redes de radio con NVIDIA Omniverse Enterprise.

La compañía está construyendo gemelos digitales a escala de ciudad para ayudar a simular con precisión la interacción entre las microcélulas y torres 5G y su entorno para maximizar el rendimiento y la cobertura.


Gemelos digitales en la fabricación de automóviles

El Grupo BMW, que cuenta con 31 fábricas en todo el mundo, está colaborando con NVIDIA en la creación de gemelos digitales. El fabricante de automóviles alemán está confiando en NVIDIA Omniverse Enterprise para ejecutar simulaciones de fábrica con el fin de optimizar sus operaciones.

Fuente: NVIDIA

Sus fábricas ofrecen unas 2.100 configuraciones posibles de un nuevo vehículo.

Alrededor del 99% de los vehículos producidos en las fábricas de BMW son configuraciones personalizadas, lo que crea desafíos para mantener los materiales almacenados en la línea de montaje. Es por ello que BMW Group utiliza también la plataforma robótica NVIDIA Isaac para desplegar una flota de robots para la logística con el fin de mejorar la distribución de materiales en su entorno de producción.

Estos robots de asistencia humana (que se ponen en escenarios de simulación con humanos digitales en la preproducción) permiten a la compañía probar con seguridad las aplicaciones de los robots en la planta del gemelo digital antes de lanzarse a la producción.

Las simulaciones virtuales también permiten a la empresa optimizar la línea de montaje, así como la ergonomía y la seguridad de los trabajadores. Expertos en planificación de distintas regiones pueden conectarse virtualmente con NVIDIA Omniverse, permitiendo a los equipos de diseño 3D de todo el mundo trabajar simultáneamente en varias suites de software en un espacio virtual compartido.

NVIDIA Omniverse Enterprise permite crear gemelos digitales para muchas aplicaciones industriales diferentes.


Arquitectura, ingeniería y construcción

Los equipos de diseño de edificios se enfrentan a una creciente demanda de colaboración eficiente, una iteración más rápida de los renders y expectativas de simulación precisa y fotorrealismo.

Estas exigencias pueden ser aún más difíciles cuando los equipos están dispersos por todo el mundo.

La creación de gemelos digitales en Omniverse para que arquitectos, ingenieros y equipos de construcción evalúen juntos los diseños puede acelerar el ritmo de desarrollo, ayudando a que los contratos se ejecuten a tiempo.

Los equipos de Omniverse pueden reunirse virtualmente en una única plataforma interactiva para desarrollar rápidamente modelos arquitectónicos.


Venta al por menor y cumplimiento de los pedidos

A día de hoy, los centros logísticos cuentan con robots para ayudar a los trabajadores a evitar lesiones y aumentar su eficiencia. Estos centros son entornos llenos de cámaras que funcionan gracias a la IA y la computación de borde para recoger, tirar y embalar los productos.

El uso de los gemelos digitales supone poder realizar simulaciones para eliminar cuellos de botella y otros problemas logísticos.

Fuente: NVIDIA


Gemelos digitales en la industria energética

Siemens Energy confía en Omniverse para crear gemelos digitales que apoyen el mantenimiento predictivo de las centrales eléctricas. Un gemelo digital puede reducir el tiempo de inactividad y ahorrar a los proveedores de servicios públicos unos 1.700 millones de dólares al año.

Utilizando los marcos de software NVIDIA Modulus, Siemens Energy puede simular los efectos corrosivos del calor, el agua y otras condiciones sobre el metal a lo largo del tiempo para ajustar las necesidades de mantenimiento.


Exploración de hidrocarburos

Las compañías petroleras se enfrentan a enormes riesgos (tanto financieros como medioambientales) a la hora de explotar yacimientos o revalorizar campos en fase de producción.

Los gemelos digitales para las simulaciones de yacimientos pueden ahorrar muchos millones de dólares y evitar problemas medioambientales. Mediante aplicaciones de software técnico, estas empresas pueden modelar cómo fluyen el agua y los hidrocarburos bajo el suelo en medio de los pozos. Esto les permite evaluar situaciones potencialmente problemáticas y estrategias de producción virtuales en superordenadores.

Como resultado de evaluar los riesgos de antemano en los gemelos digitales, estas empresas de exploración pueden minimizar las pérdidas al comprometerse con nuevos proyectos. Las versiones del mundo real en producción también pueden optimizarse para obtener mejores resultados basándose en los análisis de su gemelo digital.


Eficiencia en los aeropuertos

Los gemelos digitales permiten a los aeropuertos mejorar la experiencia de los clientes. Por ejemplo, las cámaras podrían supervisar la Administración de Seguridad en el Transporte y aplicar IA para analizar posibles cuellos de botella en horas punta. Éstos podrían abordarse en modelos digitales y luego trasladarse a la producción para reducir la pérdida de vuelos. El vídeo de la gestión de equipajes puede evaluarse para mejorar las formas en el entorno digital y garantizar que el equipaje llegue a tiempo.

Fuente: NVIDIA

Los cambios de rumbo de los aviones también salen beneficiados con los gemelos digitales. Muchos proveedores dan servicio a los aviones que llegan para que den la vuelta y vuelvan a la pista de despegue. El vídeo puede ayudar a las aerolíneas a rastrear a estos proveedores para garantizar entregas oportunas. Los gemelos digitales pueden analizar la coordinación de servicios para optimizar los flujos de trabajo antes de cambiar las cosas.

Las aerolíneas pueden hacer que sus proveedores se responsabilicen de llevar a cabo sus actividades con rapidez. Los servicios de catering, limpieza, reabastecimiento de combustible, recogida de basura y otros proveedores de servicios, tienen acuerdos con las aerolíneas para ayudar a que los aviones sigan funcionando a tiempo. Todas estas actividades pueden ejecutarse en simulaciones en el mundo digital y luego aplicarse a la programación en producción para obtener resultados en el mundo real que ayuden a reducir los retrasos en las salidas.


¿Cuál es el futuro de los gemelos digitales?

Los avances de la última década en las GPU, la IA y las plataformas de software están acelerando la adopción de los gemelos digitales. Además, la creciente penetración de la realidad virtual y la realidad aumentada acelerarán aún más esta labor.

Se espera que las ventas mundiales de gafas de RV aumenten de 7 millones en 2021 a más de 28 millones en 2025. Esto significa un número mucho mayor de consumidores de contenido virtual, que podrán acceder a Omniverse, lo que impulsará los avances de los gemelos digitales.

Hace años que se habla de mundos virtuales y gemelos digitales. Estamos justo al principio de esta transición a la realidad.

Rev Lebaredian, Videpresidente de Omniverse y Tecnología de Simulación en NVIDIA.

Abróchate el cinturón para la aventura.


GLOSARIO

  • Ciudad inteligente (smart city): ciudad que utiliza el potencial de la tecnología y la innovación para promover un desarrollo sostenible y mejorar la calidad de vida de sus ciudadanos de manera más eficiente.
  • Computación de borde: infraestructura de computación distribuida que hace que las aplicaciones empresariales se acerquen a los orígenes de datos, como dispositivos de IoT o servidores locales de borde.
  • Datos sintéticos: información que generan las simulaciones por computadora como alternativa a los datos del mundo real. En otras palabras, los datos sintéticos se crean en mundos digitales en lugar de recopilarse o medirse en el mundo real.
  • Descripción de escena universal de Pixar (USD): las canalizaciones capaces de producir películas gráficas por computadora y juegos normalmente generan, almacenan y transmiten grandes cantidades de datos 3D. Pues bien, a estos datos se les llama descripción de escena.
  • Internet de las cosas (Internet of Things – IoT): interconexión digital de objetos cotidianos con internet. En definitiva, es una conexión de internet más con objetos que con personas.
  • Realidad Aumentada (RA): conjunto de tecnologías que permiten que un usuario visualice parte del mundo real a través de un dispositivo tecnológico con información gráfica añadida.
  • Realidad Virtual (RV): entorno de escenas u objetos simulados de apariencia real. Es decir, un entorno generado mediante tecnología informática que crea en el usuario la sensación de estar inmerso en él.


Fuente: NVIDIA.

HPC: COMPUTACIÓN DE ALTO RENDIMIENTO

HPC: COMPUTACIÓN DE ALTO RENDIMIENTO

¿Qué es la computación de alto rendimiento (HPC)?

 

La computación de alto rendimiento (HPC – High Performance Computing) es la capacidad de procesar datos y realizar cálculos complejos a gran velocidad utilizando varios ordenadores y dispositivos de almacenamiento.

Comparativamente, un equipo de sobremesa con un procesador de 3 GHz puede realizar unos 3.000 millones de cálculos por segundo, mientras que, con las soluciones HPC, se pueden realizar cuatrillones de cálculos por segundo.

 

 

De esta forma, un servidor para HPC es capaz de resolver algunos de los principales problemas en el mundo de la ciencia, la ingeniería y los negocios mediante simulaciones, modelos y análisis. Algunos ejemplos son: el descubrimiento de nuevos componentes de medicamentos para combatir enfermedades como el cáncer, la simulación de dinámicas moleculares para la creación de nuevos materiales o el pronóstico de cambios climáticos.

Los tipos de soluciones HPC más conocidos son:

    • Computación paralela. Es un conjunto de sistemas simples con varios procesadores trabajando simultáneamente sobre la misma tarea.
    • Computación distribuida. Es una red de ordenadores conectados que funcionan de manera colaborativa para realizar diferentes tareas.
    • Computación en malla o Grid. Es un sistema de computación distribuida que coordina computadoras de diferente hardware y software para procesar una tarea con gran cantidad de recursos y poder de procesamiento.

¿Cómo funciona la HPC?

 

Para procesar la información en HPC, existen dos métodos principales: el procesamiento en serie y el procesamiento en paralelo. Veamos cada uno de ellos.

Procesamiento en serie

 

Es el que realizan las unidades de procesamiento central (CPU). Estas dividen una gran carga de trabajo compartida en tareas más pequeñas que se comunican continuamente. Cada núcleo de CPU realiza solo una tarea a la vez. Una de las funciones del procesamiento en serie es la ejecución de aplicaciones básicas como el procesamiento de textos.

Procesamiento en serie

Procesamiento en paralelo

 

Es el que realizan la unidades de procesamiento gráfico (GPU). Estas son capaces de realizar diferentes operaciones aritméticas de forma simultánea por medio de una matriz de datos. Las cargas de trabajo paralelas son problemas de computación divididos en tareas sencillas e independientes que se pueden ejecutar a la vez sin apenas comunicaciones entre ellas. Una de las funciones del procesamiento en paralelo es la ejecución de aplicaciones de aprendizaje automático (Machine Learning), como el reconocimiento de objetos en vídeos.

Procesamiento en paralelo

El futuro de la HPC

 

Cada vez más empresas e instituciones están recurriendo a la HPC. Como resultado, se prevé que el mercado de este tipo de servidores crezca hasta los 50.000 millones de dólares en 2023. Además, gran parte de ese crecimiento se verá reflejado en la implementación de la HPC en la nube, que reduce de forma considerable los costes de una empresa al no ser necesaria la inversión en infraestructuras de centros de datos.

De igual forma, gracias a los avances tecnológicos tanto en procesamiento como en rendimiento, pronto se dará un nuevo paso en la era de la supercomputación: la exaescala, con la que se podrán realizar 10^18 (1.000.000.000.000.000.000) operaciones por segundo.

Exaescala

HPC en Azken Muga

 

Finalmente, incorporando la tecnología más avanzada en proceso, conectividad y almacenamiento, los servidores de Azken Muga satisfacen las necesidades de sus clientes, que buscan acelerar sus resultados de negocio con una infraestructura optimizada y realizar sus tareas de manera más rápida, fiable y asequible.

Soluciones

 

Ficha T10G Dual Xeon Scalable HPC 10 GPU PCIe 4.0                 Ficha T10G Dual AMD EPYC™ HPC 10 GPU

 

FICHA TÉCNICA T10G Dual AMD EPYC™ HPC 10 GPU

 

 


GLOSARIO
  • Supercomputadora: el tope de gama en HPC, según la evolución de los estándares de rendimiento.
  • Computación heterogénea: arquitectura de HPC que optimiza las capacidades de procesamiento en serie (CPU) y en paralelo (GPU).
  • Memoria: donde se almacenan los datos en un sistema HPC para acceder a ellos rápidamente.
  • Petaescala: supercomputadora diseñada para realizar mil billones (10^15) de cálculos por segundo.
  • Exaescala: supercomputadora diseñada para realizar un trillón (10^18) de cálculos por segundo.
  • FLOPS: unidades de potencia de procesamiento de las computadoras (operaciones de punto flotante por segundo). “FLOPS” describe una velocidad de procesamiento teórica: para hacer posible esa velocidad es necesario enviar datos a los procesadores de forma continua. Por lo tanto, el procesamiento de los datos se debe tener en cuenta en el diseño del sistema. La memoria del sistema, junto con las interconexiones que unen los nodos de procesamiento entre sí, impactan en la rapidez con la que los datos llegan a los procesadores.

 

 


Fuente: AMD.

AMD EPYC 7003 Servers: Workload Powerhouse

AMD EPYC 7003 Servers: Workload Powerhouse

Optimiza y soporta cualquier carga de trabajo con los nuevos servidores ASUS equipados con los últimos procesadores AMD EPYC™ 7003, desde la densidad de la GPU, la alta densidad de varios nodos hasta los servidores diseñados para IA, HPC, virtualización y análisis de datos. Con un diseño renovado para procesadores de doble o único zócalo y una arquitectura equilibrada con la CPU, te beneficiarás de mayores densidades de núcleos, hilos y memoria que ofrecen mejoras de rendimiento de dos dígitos, por no hablar de la mejora de la conectividad. En pocas palabras, los últimos servidores ASUS EPYC 7003 elevan el rendimiento para satisfacer las demandas de las empresas y los centros de datos modernos.

Sistemas recomendados para Dinámica Molecular

Sistemas recomendados para Dinámica Molecular

El funcionamiento e interacción de las biomoléculas es fundamental para comprender las enfermedades, desarrollar nuevos fármacos
y la administración de tratamientos médicos.

La microscopía electrónica criogénica (cryo-EM) es un método de obtención de imágenes que permite la observación directa de las proteínas en estado nativo o casi nativo sin tintes ni fijadores, lo que permite a los investigadores estudiar las estructuras celulares, los virus y los complejos proteicos con detalle molecular.

Esta reconstrucción de estructuras tridimensionales y de resolución casi atómica de biomoléculas suele requerir miles de imágenes y una compleja computación, lo que dificulta la obtención de estructuras de alta resolución.

La crioelectrónica puede ayudar a superar este reto. Su éxito dependerá de una mayor adopción, del aumento del tamaño de los datos, de la maduración del mercado y del auge del deep learning.

 

CONJUNTOS DE DATOS MASIVOS

El alcance y la complejidad de los datos de cryo-EM han aumentado enormemente con los avances en la automatización y la tecnología visual.
Las cámaras con mayor sensibilidad capturan imágenes a velocidades de cuadro más rápidas. Con la mejora de la preparación de las muestras, la automatización de la adquisición de datos y los tiempos de funcionamiento de los instrumentos, los requisitos para el procesamiento de datos y la computación siguen aumentando.

Por ejemplo, en un experimento típico, a menudo se necesitan entre 1.000 y 8.000 imágenes, capturadas a partir de 4 a 8 terabytes (TB) de datos de imágenes sin procesar, para generar mapas de alta resolución de una sola partícula.

En los últimos años, casi todos los pasos de los flujos de trabajo de una sola partícula que requieren un gran esfuerzo informático de trabajo de una sola partícula se han adaptado para aprovechar los procesadores de la GPU, que acortan drásticamente los tiempos de procesamiento. Para seguir el ritmo del aumento del tamaño de los datos, las aplicaciones de crioelectrónica deben optimizarse para las GPU de gama alta.

LA MADURACIÓN DEL MERCADO

Tradicionalmente, el procesamiento de los datos de las imágenes criogénicas para descubrir las estructuras de las proteínas y crear
mapas 3D de alta resolución requiere la intervención de expertos, conocimientos estructurales previos y semanas de cálculos en costosos clusters informáticos.

A medida que se generaliza, la crioelectrónica está fomentando la demanda de software comercial, de grado comercial y no experto. Estas soluciones de software implican el uso de algoritmos para automatizar tareas especializadas y que requieren mucho tiempo.

INFUSIÓN DE EL DEEP LEARNING

La selección de partículas de proteínas individuales en micrografías de cryo-EM es un paso importante en el análisis de partículas individuales. Es un reto identificar las partículas debido a la baja relación señal-ruido y a las enormes variaciones que se producen en los complejos macromoleculares biológicos.

Aprovechando el aprendizaje sin etiqueta positiva, un pequeño número de ejemplos de proyecciones de proteínas puede entrenar una red neuronal para detectar proteínas de cualquier tamaño o forma. Topaz, una aplicación de código abierto con esta capacidad, detecta muchas más partículas que otros métodos de software sometidos a prueba. Gracias a las GPU de NVIDIA, se reduce drásticamente la cantidad de datos que hay que etiquetar manualmente.

LAS GPUs EN EL WORKFLOW DE CRYO-EM

Los métodos de cryo-EM están abriendo oportunidades para explorar la complejidad de las estructuras macromoleculares de formas antes inconcebibles. Desde los sistemas de investigación en fase inicial hasta los grandes centros de datos, las GPU están permitiendo acelerar el flujo de trabajo de principio a fin. Al optimizar las cargas de trabajo clave para la adquisición de datos y la reconstrucción de una sola partícula, las GPU siguen proporcionando vías para lograr avances científicos y sanitarios.

Con el cálculo basado en la GPU y el aprendizaje profundo, los avances en la crioelectrónica aumentarán su fiabilidad y rendimiento y, en última instancia, su adopción y éxito.

T-Series Cryo-EM

 

Presentamos T-Series Cryo-EM, una estación de trabajo equipada con las últimas GPUs de NVIDIA® RTX™, con procesadores Intel® Xeon® Scalable Processors y la preinstalación de una pila de software orientado a la Microscopía Electrónica.

Las GPUs NVIDIA® permiten a los investigadores de Cryo-EM aprovechar la potencia de las GPUs no sólo para acelerar las tareas de refinamiento y clasificación, sino también para reducir aún más la carga computacional gracias a la elevada densidad de cálculo de las GPUs.

Nuestro objetivo es el de proporcionar al sector de Investigación en Biología una solución de computación intensiva y por consiguiente el facilitar a los investigadores recursos para los procesos de Cryo-EM que son intensivos desde el punto de vista computacional, como la clasificación de imágenes y el refinamiento de alta resolución..

W64 Molecular Dynamics

Ofrecemos un superordenador de Dinámica Molecular en formato desktop. Estación de trabajo de dinámica molecular «plug and play» con las últimas GPU NVIDIA® RTX™, preinstaladas con la pila de software de dinámica molecular.

Hoy en día, aplicaciones de simulación de dinámica molecular como AMBER, GROMACS, NAMD y LAMMPS, entre otras, requieren de GPUs potentes. Cuanto más potente sea la estación de trabajo de la GPU, más rápido se ejecutarán las simulaciones más largas en menos tiempo.

W45 Data Science

 

W45 Data Science, un sistema que le ofrece el rendimiento que necesita para transformar grandes cantidades de datos en información y crear experiencias de cliente sorprendentes, potenciadas por NVIDIA® para la ciencia de datos. Construida para combinar la potencia de las GPU NVIDIA® RTX™ con el software acelerado de ciencia de datos CUDA-X AI, ofreciendo así una nueva generación de estaciones de trabajo totalmente integradas para la ciencia de datos.

Hoy en día, la ciencia de datos y el aprendizaje automático se han convertido en el segmento informático más grande del mundo. Modestas mejoras en la precisión de los modelos de análisis se convierten en miles de millones en el balance final. Para crear los mejores modelos, los científicos de datos se esfuerzan en entrenar, evaluar, iterar y reentrenar a fin de ofrecer modelos de rendimiento y resultados de alta precisión. Con RAPIDS™, los procesos que tardaban días tardan minutos, lo que facilita y acelera la creación e implementación de modelos de generación de valores.

RAPIDS es un paquete de bibliotecas de software de código abierto e interfaces API para ejecutar canalizaciones de ciencia de datos por completo en las GPU, que puede reducir los tiempos de entrenamiento de días a minutos. Basado en NVIDIA® CUDA-X AI™, RAPIDS conjuga años de desarrollo en gráficos, aprendizaje automático, deep learning, computación de alto rendimiento (HPC) y mucho más.

W45 Data Science, configurada para garantizar el máximo nivel de compatibilidad, capacidad y fiabilidad. Obtenga hasta 96GB de memoria gráfica local ultrarrápida para manejar los conjuntos de datos más grandes y las cargas de trabajo más intensas. Aproveche lo último en tecnología de trazado de rayos para una visualización local de alto rendimiento y configure el acceso remoto para obtener la máxima flexibilidad. Con NVIDIA® RTX™ puede maximizar la productividad, reducir el tiempo de conocimiento y el coste de los proyectos científicos.

W45 Data Science es una estación única para cualquier profesional, una plataforma común para HPC, Inteligencia Artificial, Simulación, Visualización y Análisis en una sola supercomputadora.

PRUEBA DE HARDWARE: AMD THREADRIPPER 3990X

PRUEBA DE HARDWARE: AMD THREADRIPPER 3990X

Adán Martín [Fundador y Director de 3D Collective SL]: «Para mí es muy importante contar con una maquina actualizada que me permita realizar mi trabajo con comodidad y eficiencia, por esta razón suelo actualizar mi hardware una vez cada 2 años para tratar de contar siempre con las mejores herramientas disponibles.

A principios de 2018 hice una review de la que se convertiría en mi maquina de trabajo por 2 años, un AMD threadripper 1950X. Era mi primera experiencia con AMD en muchos años y no estaba muy seguro de que el nuevo micro de AMD fuera a cumplir con las expectativas, pero el 1950X me demostró que las cosas habían cambiado y he estado muy satisfecho con mi compra desde entonces.

Pero ahora toca actualizar nuevamente equipos y tenia grandes dudas entre los nuevos AMD Threadripper 3990X y 3970X ¿Merecería la pena apostar por el 3990X a pesar de elevado coste?. ¿Seria mejor optar por una maquina con una velocidad base más alta como el 3970X?.

Al final me decidí por el 3970X pero poco después Azken Muga me ha prestado una de sus Workstations W64 con un 3990X para que pueda probarla y me ha parecido que puede ser interesante para vosotros ver como rinde este monstruo en tareas de render comparado con el 3970X. Las dos maquinas han sido montadas por Azken y tienen componentes equiparables en cuanto a placa base, memorias, sistema de refrigeración, etc. así que creo que podemos hacer una comparativa más o menos justa.

Antes de comenzar, deciros que esto no pretende ser un análisis exhaustivo de las maquinas porque no soy un experto en hardware, yo me dedico al 3D como todos sabéis y simplemente he probado las maquinas en las tareas que suelen ocupar mi día a día y he sacado mis conclusiones. Os tocará a vosotros sacar las vuestras.»

Azken Review: Programa ASUS CSM

Azken Review: Programa ASUS CSM

En este artículo queremos hacer una review de dos productos realmente interesantes de Asus. En primer lugar, un software de gestión centralizada de IT para entornos datacenter, enterprise y PYME llamado ASUS Control Center y, por otro lado, la gama de placas base pertenecientes al programa CSM.

En nuestro entorno de pruebas y por gentileza de Asus hemos utilizado las placas base CSM modelos Asus PRO H310M-R R2.0WI-FI/CSM y Asus PRO A320M-RWI-FI/CSM. Estas placas son especialmente adecuadas para nuestro artículo ya que incluye una licencia de uso para ACC edición CSM.

Los productos pertenecientes al programa CSM están pensados para entornos empresariales y entre otras ventajas sobre la gama de productos de consumo, ofrecen un ciclo de vida de 36 meses, la máxima disponibilidad y notificación de cambios. Como nota adicional, Asus asegura que lleva en marcha más de 16 años en otros países con gran éxito.

 

En el caso del modelo Asus PRO H310M-R R2.0WI-FI/CSM, es una placa basada en un chipset H310 de Intel con soporte para procesadores hasta i7 de 8ª generación con gráficos integrados, en un formato Micro-ATX, con conectividad PCIe 3.0, Ethernet 1Gbit, Wifi Dual band integrado y Bluetooth 5.0. También incluye audio y soporte hasta 32GB de memoria DDR4.

En el caso de la placa Asus PRO A320M-RWI-FI/CSM, está basada en un chipset AMD 320 y socket AM4 con soporte para procesadores Ryzen de 3ª generación hasta 8 cores y gráficos integrados Radeon Vega. Igual que la anterior en un formato Micro-ATX, con conectividad PCIe 3.0, Ethernet 1Gbit, Wifi Dual band integrado y Bluetooth 5.0. También incluye audio y soporte hasta 32GB de memoria DDR4.

Pero lo que realmente diferencia a estos productos es que están especialmente dirigidas al sector profesional, a entornos IT empresarial y gama Enterprise. Por ejemplo, incluyen mecanismos de fiabilidad 24/7, recuperación automática de BIOS, registro de errores en BIOS, una construcción especialmente sólida anti-humedad y corrosión. También disponen de garantía de disponibilidad a largo plazo y soporte postventa mejorado.

Asus Control Center

Asus Control Center o ACC es una plataforma de gestión centralizada para entornos de IT que permite la gestión y monitorización de servidores Asus, estaciones de trabajo y productos de gama consumer como portátiles, equipos de sobremesa, Pc´s All-in-one y cartelería digital.

El producto está diseñado para ser especialmente intuitivo y fácil de usar, y entre otras funciones permite el deployment de aplicaciones remotas, programar tareas de mantenimiento, monitorización hardware y software, y muchas más funciones imprescindibles para una gestión eficiente del entorno IT y datacenter. Algo muy interesante es que no sólo funciona con máquinas físicas, sino también con máquinas virtuales siendo compatible con Hypervisors como VMWare. Todo por supuesto gestionado de manera segura. En el momento de escribir este artículo existen 3 versiones de ACC, Classic, CSM y Enterprise, adaptados a las necesidades y tamaño de cualquier organización.

El funcionamiento de ACC está basada en unos agentes que se instalan y se ejecutan en los equipos que queremos gestionar. Estos agentes recolectan y registran información que podemos visualizar a través de una consola de gestión basada en web.

Para empezar lo primero que hay que hacer es poner en marcha ACC. Este primer paso es extraordinariamente sencillo y fácil, ya que ACC está basado en una máquina virtual VM Linux compatible con VMware, Hyper-V y Oracle VirtualBox que Asus suministra a través de una imagen OVA y que se puede poner en marcha en cualquier equipo que cumpla los requisitos mínimos de 4vCPU, 8GB de memoria RAM, 100GB de HD.

En nuestras pruebas decidimos usar Virtual Box por la inmediatez, facilidad de instalación y uso en cualquier equipo con Windows o Linux. Hemos seguido la documentación de Asus ACC, la cual está perfectamente detallada y funciona correctamente para instalar Oracle Virtual Box y poner en marcha ACC.

Una vez completado el setup inicial de la VM y el arranque, se ejecuta un asistente que nos permitirá realizar la configuración inicial básica, incluyendo datos como el nombre de la compañía, zona horaria, passwords de acceso y direcciones IP, tal y como vemos en las siguientes pantallas:

A partir de este momento ya somos capaces de acceder a ACC mediante cualquier navegador de internet y que nos permitirá acceder a todas las funciones de Asus ACC. Para acceder escribimos en la barra de direcciones del navegador la dirección IP o hostname con el siguiente formato, en nuestro caso:

https://192.168.0.187/ACC

Ojo que las mayúsculas de “ACC” son importantes.

Como último paso antes de acceder a ACC, nos solicitará un usuario y un password. Una vez dentro visualizaremos una pantalla similar a esta, que es un resumen del sistema que estemos monitorizando:

En este momento no veremos datos útiles, esto es normal ya que no hay sistemas que monitorizar, los cuales debemos ir añadiendo. Antes de añadir sistemas a ACC, es necesario prepararlos activando ciertas configuraciones de software muy sencillas como activar .NET framework 3.5 y algunos settings de compartición de ficheros e impresoras. Hay que tener en cuenta que ACC NO es compatible con sistemas Windows Home Edition o inferiores.

A continuación, podremos añadir equipos desde la pestaña “Deployment” y “Add”, seguimos los pasos y nuestros sistemas irán apareciendo en la consola, también podemos añadir muchos sistemas de una vez lo cual facilita enormemente los grandes deployments.

Como hemos dicho anteriormente, una parte muy interesante es la posibilidad de integrarlo en infraestructuras virtualizadas vía VMWare, esto lo podemos hacer desde la opción “Agentless Management”, aunque para tener disponible esta opción es necesario disponer de una licencia “Enterprise”.

 

A partir de este momento tendremos acceso a toda la potencia y versatilidad de la solución, algunos ejemplos:

Overview general de una máquina:

Información del estado de uso del hardware de manera gráfica e intuitiva:

Gestión de inventario:

Actualización de BIOS:

Gestión de software y servicios:

Funciones de seguridad como impedir el uso de USB o modificación del registro:

 Y muchas más funciones necesarias para la gestión eficaz de infraestructura de IT.

Adicionalmente algunas posibilidades que lo hacen extremadamente atractivo por ejemplo para Datacenters es la integración con Intel Datacenter manager, que permite gestionar y programar el consumo de la infraestructura.