PROCESADORES AMD: ARQUITECTURA THREADRIPPER Y TECNOLOGÍA 3D V-CACHE

PROCESADORES AMD: ARQUITECTURA THREADRIPPER Y TECNOLOGÍA 3D V-CACHE


Procesadores AMD Ryzen Threadripper

Los procesadores AMD Threadripper son los más potentes en la historia de AMD, con hasta 64 núcleos y 128 subprocesos. Y cada vez son más los usuarios y empresas que aprovechan todo su potencial en CAD, VFX y postproducción, edición de vídeo, juegos y desarrollo, renderizado 3D y más.

AMD Threadripper PRO
Fuente: AMD

Estos procesadores están diseñados para que artistas, arquitectos e ingenieros puedan hacer más en menos tiempo:


Rendimiento

Los profesionales del sector necesitan una workstation que les dé un rendimiento confiable con una seguridad de nivel empresarial, manejabilidad y capacidad de ampliación.

En base a varias pruebas de rendimiento realizadas por AMD con diferentes herramientas, llegaron a los siguientes resultados:

Pruebas de rendimiento
Fuente: AMD


Arquitectura

Los nuevos procesadores AMD Ryzen Threadripper PRO 5000 serie WX se han fabricado con tecnología de procesos de 7nm para ofrecer una densidad de núcleos de CPU inigualable en cargas de trabajo profesionales. Además, la plataforma ofrece un rendimiento líder en la industria, eliminando los cuellos de botella.

Estos procesadores pueden trabajar con 128 carriles PCIe 4.0, alcanzando el doble de rendimiento de E/S que PCIe 3.0. También admiten diversas configuraciones avanzadas en estaciones de trabajo.


Seguridad, memoria y compatibilidad

Con AMD Shadow Stack, un sistema de seguridad sólido, se refuerza la protección contra los ataques de flujo de control.

Por otro lado, AMD Memory Guard cifra la memoria del sistema en tiempo real para protegerla contra ataques físicos en caso de robo o pérdida de la computadora portátil.

En cuanto a la compatibilidad, todos los procesadores Ryzen PRO de AMD incorporan un paquete de funciones de manejabilidad sólidas que están diseñadas para simplificar la implementación, creación de imágenes y administración que sea compatible con la infraestructura actual, de modo que se puedan realizar las siguientes acciones:

  • Actualizar y reparar dispositivos en red de manera remota.
  • Supervisar, restaurar y actualizar sistemas.
  • Solucionar problemas de clientes, tanto en banda como fuera de ella.


Los sistemas de Azken: WX50

WX50


Tecnología AMD 3D V-Cache

Las aplicaciones de computación de alto rendimiento (HPC) son cada vez más importantes, tanto a nivel profesional como personal. Por ello, la demanda de una mayor capacidad de procesamiento está creciendo cada vez más rápido. El futuro de la informática depende de innovaciones avanzadas de encapsulado que permitan seguir elevando el rendimiento de los procesadores; y es aquí donde entra la tecnología de AMD.

La necesidad de brindar un rendimiento de CPU para data centers de alto nivel obliga a AMD a generar una nueva solución. Entonces surge 3D V-Cache. Se trata de la primera tecnología de CPU x86 con verdadero apilado de chips 3D.


Llega AMD 3D V-Cache

Los tan distintivos procesadores AMD EPYC de 3ª generación con AMD 3D V-Cache han sido desarrollados para brindar un rendimiento revolucionario con determinadas cargas de trabajo críticas de diseño de productos y de computación técnica; y cambiarán la automatización de diseño electrónico (EDA), la dinámica de fluidos por computadora (CFD) y el análisis de elementos finitos (FEA).

AMD 3D V-Cache
Fuente: AMD

En estos procesadores, los chiplets apilados ofrecen el triple de caché L3 que los demás procesadores, pues pasan de 256 MB a 768 MB. Además, las unidades lógicas y la memoria se colocan una encima de la otra, en lugar de distribuirlas, por lo que la latencia es mucho menor. Al triplicar la caché L3, estos procesadores pueden brindar hasta un 66% de ventaja en cuanto a trabajos de simulación EDA RTL por día para aplicaciones de computación técnica en comparación con los procesadores AMD EPYC de 3ª generación con la misma cantidad de núcleos pero sin 3D V-Cache.

Con los componentes apilados en 3D para reducir al mínimo la latencia, con un mayor ancho de banda gracias al triple de caché L3 y con la eficiencia térmica resultante, los procesadores AMD EPYC de 3ª generación ofrecen un rendimiento revolucionario, en especial para el diseño de ingeniería y productos, que es una de las cargas de trabajo de mayor procesamiento.

AMD 3D V-Cache permitirá a los equipos acelerar las simulaciones y las repeticiones de diseños; y también mejorar la fidelidad de las creaciones, lo cual libera a los equipos de diseño para que trabajen de forma más veloz y ofrezcan productos de mayor calidad a los clientes.


Los sistemas de Azken: T10G Dual AMD EPYC HPC 10x GPU PCIe 4.0

T10G Dual AMD EPYC HPC 10x GPU PCIe 4.0


Fuente: AMD (Threadripper | 3D V-Cache)

EDITECA: LOS PERFILES MÁS DEMANDADOS EN ARQUITECTURA E INGENIERÍA

EDITECA: LOS PERFILES MÁS DEMANDADOS EN ARQUITECTURA E INGENIERÍA

En Editeca en particular y en el sector de la arquitectura y la ingeniería en general, se encuentran ante una situación atópica:

A las empresas les cuesta encontrar perfiles adecuados a sus ofertas de trabajo.

Rafael González Del Castillo, director de Editeca.

Edificios

Esto solo había ocurrido antes de que explotara la burbuja de las crisis inmobiliaria en 2008. Entonces, ¿estamos ante una nueva burbuja? Quizás estemos trabajando más por los meses que no trabajamos durante la pandemia o por el retraso en la entrega de materiales, comenta Rafael.

Como escuela de arquitectura e ingeniería enfocada a la metodología BIM, recibimos más ofertas de empleo que los alumnos y ex alumnos que buscan trabajo. Estamos en una época de pleno empleo.

Rafael González Del Castillo, director de Editeca.


Los perfiles de Editeca

Sin embargo, siempre existirán perfiles que busquen trabajo y empresas que busquen trabajadores; por eso, Editeca está dispuesta a recoger todas las ofertas de trabajo que recibe:

  • Coordinadores BIM.
  • Programadores (arquitectos e ingenieros que sepan programar).
  • BIM Managers.
  • Modeladores especializados en alguna disciplina específica (normalmente, instalaciones).

Estos son los perfiles que más se demandan, pero si damos un paso más, destacaríamos los nuevos perfiles que se van a demandar de aquí a unos pocos años:

  • Arquitectos virtuales.
  • Gestores de BIG Data en construcción.
  • Programadores BIM.
  • Expertos en eficiencia energética.

Evidentemente, para poder desarrollar las tareas de estos perfiles, son necesarios sistemas hardware muy potentes para poder gestionar modelos BIM o poder experimentar en tiempo real una escena virtual en VR. Como, por ejemplo:

Para convertirse en los perfiles que hemos comentado, hace falta formación y experiencia, por eso, recomendamos los cursos de Editeca. Están especializados en todas las nuevas tecnologías aplicadas a BIM, empezando por Autodesk REVIT y terminando con formaciones más enfocadas a la dirección de proyectos, como el curso de BIM Manager.

Está claro que estamos en un mundo de cambio constante y la formación debe ser continua. Debemos estar actualizados con los avances en visualización, programación y modelado para seguir a la última, optimizando nuestro flujo de trabajo.


Post en colaboración con Editeca. Visita su web y consulta su oferta formativa.

RENDERING: LA COMPUTACIÓN DE LA ANIMACIÓN Y EL DISEÑO

RENDERING: LA COMPUTACIÓN DE LA ANIMACIÓN Y EL DISEÑO

Hace una semanas, hablábamos de HPC o Computación de Alto Rendimiento. En el post de hoy, lo hacemos de rendering, un tipo de computación que, a diferencia de la anterior, da mucha más importancia a la imagen que a los datos.

Veamos en qué consiste el rendering y qué tipos y técnicas lo componen:


¿Qué es rendering?

Rendering, render o renderizado es un concepto muy utilizado en computación que hacer referencia a la transformación de un modelo 3D en una imagen realista 2D.

En otras palabras, es el proceso de obtención de imágenes digitales extraídas de un modelo tridimensional a través de un software dedicado. La finalidad de estas imágenes es simular un objeto o un ambiente de manera fotorrealista.

Este término, que suele ser utilizado en su versión inglesa, es frecuente, sobre todo, en la jerga de los profesionales de la animación audiovisual y los diseñadores 3D; aunque la traducción que mejor se puede ajustar al castellano es «interpretación», haciendo referencia a que la computadora interpreta una escena tridimensional y la representa en una imagen bidimensional.

Una de las partes más importantes del rendering es el motor de renderizado, gracias al cual, es posible imitar un espacio real formado por distintos materiales, texturas, colores, estructuras poligonales, iluminación, reflexión, refracción y ray tracing.


Tipos de rendering

Los principales tipos de rendering son los siguientes:


Renderización en tiempo real

Las imágenes se calculan a tal velocidad, que el proceso de conversión de los modelos 3D en imágenes 2D sucede en tiempo real.

Este tipo de rendering se utiliza mucho en los videojuegos y en gráficos interactivos.


Renderización offline

En este caso, la velocidad no es esencial, por lo que el proceso se lleva a cabo a través de cálculos realizados normalmente con CPUs multi-core.

La característica principal de este tipo de rendering es que, a diferencia del anterior, no existe la imprevisibilidad.

Por eso, es más común en proyectos de animación mucho más complejos visualmente y con un alto nivel de fotorrealismo.


Técnicas de visualización de rendering

Existen cinco técnicas principales de visualización en el renderizado. Veámoslas a continuación:


Scan line

Es una de las técnicas más antiguas. Se encarga de fusionar el algoritmo que determina las superficies con el algoritmo que determina las sombras de las mismas. Por otro lado, trabaja con una línea de escaneo a la vez.


Z-Buffer

Se trata de un algoritmo que determina las superficies visibles.

Utiliza las siguientes estructuras de datos:

  • z-buffer: para cada pixel, mantiene la coordenada z más cercana al espectador.
  • frame-buffer: contiene los datos relativos a los colores de los pixeles del z-buffer.

Esta técnica solo se puede aplicar en un polígono cada vez (cuando escanea un polígono, no se puede acceder a la información del resto).


Ray casting

Detecta las superficies visibles y funciona de la siguiente manera: hace partir los rayos del ojo (un rayo por cada píxel) y encontrar el primer objeto que bloquea ese recorrido. Además, es capaz de gestionar superficies sólidas, como esferas o conos.

Por ello, si un rayo alcanza una determinada superficie, esta se podrá diseñar gracias al ray casting.


Ray tracing

Funciona de manera muy parecida al ray casting, pero añadiendo un modelo de iluminación a la escena que tiene en cuenta las reflexiones y las refracciones que experimenta la luz. Esto hace que se consigan unos impresionantes resultados fotorrealistas.

En resumen, el ray tracing simula el recorrido que hace la radiación luminosa hasta llegar al espectador.


Radiosity

Añade todavía más fotorrealismo a la escena al tener en cuenta la inter reflexión entre los diferentes objetos que se encuentran en la misma.

Por ejemplo, cuando una superficie tiene un componente de luz reflectora, esta técnica es capaz de conseguir que esta superficie (por su fenómeno físico de reflexión) ilumine también las superficies cercanas a ella.


Rendering en Azken Muga

En Azken Muga integramos los últimos avances tecnológicos de cálculo distribuido y certificamos las arquitecturas con los principales motores de Render.

Proveemos de soluciones de render a los mejores estudios de animación y VFX nacionales.


Soluciones de rendering


GLOSARIO

  • 2D o espacio bidimensional: módulo geométrico de la proyección plana y física del universo donde vivimos. Tiene dos dimensiones (ancho y largo), pero no cuenta con profundidad. Los planos son bidimensionales y solo pueden contener cuerpos unidimensionales o bidimensionales.
  • 3D o espacio tridimensional: espacio que cuenta con tres dimensiones: anchura, largura y altura (o profundidad).
  • Computación: área de la ciencia que se encarga de estudiar la administración de métodos, técnicas y procesos con el fin de almacenar, procesar y transmitir información y datos en formato digital.
  • Píxel: es la menor unidad homogénea en color que forma parte de una imagen digital.


Fuente: BibLus

HPC: COMPUTACIÓN DE ALTO RENDIMIENTO

HPC: COMPUTACIÓN DE ALTO RENDIMIENTO

¿Qué es la computación de alto rendimiento (HPC)?

 

La computación de alto rendimiento (HPC – High Performance Computing) es la capacidad de procesar datos y realizar cálculos complejos a gran velocidad utilizando varios ordenadores y dispositivos de almacenamiento.

Comparativamente, un equipo de sobremesa con un procesador de 3 GHz puede realizar unos 3.000 millones de cálculos por segundo, mientras que, con las soluciones HPC, se pueden realizar cuatrillones de cálculos por segundo.

 

 

De esta forma, un servidor para HPC es capaz de resolver algunos de los principales problemas en el mundo de la ciencia, la ingeniería y los negocios mediante simulaciones, modelos y análisis. Algunos ejemplos son: el descubrimiento de nuevos componentes de medicamentos para combatir enfermedades como el cáncer, la simulación de dinámicas moleculares para la creación de nuevos materiales o el pronóstico de cambios climáticos.

Los tipos de soluciones HPC más conocidos son:

    • Computación paralela. Es un conjunto de sistemas simples con varios procesadores trabajando simultáneamente sobre la misma tarea.
    • Computación distribuida. Es una red de ordenadores conectados que funcionan de manera colaborativa para realizar diferentes tareas.
    • Computación en malla o Grid. Es un sistema de computación distribuida que coordina computadoras de diferente hardware y software para procesar una tarea con gran cantidad de recursos y poder de procesamiento.

¿Cómo funciona la HPC?

 

Para procesar la información en HPC, existen dos métodos principales: el procesamiento en serie y el procesamiento en paralelo. Veamos cada uno de ellos.

Procesamiento en serie

 

Es el que realizan las unidades de procesamiento central (CPU). Estas dividen una gran carga de trabajo compartida en tareas más pequeñas que se comunican continuamente. Cada núcleo de CPU realiza solo una tarea a la vez. Una de las funciones del procesamiento en serie es la ejecución de aplicaciones básicas como el procesamiento de textos.

Procesamiento en serie

Procesamiento en paralelo

 

Es el que realizan la unidades de procesamiento gráfico (GPU). Estas son capaces de realizar diferentes operaciones aritméticas de forma simultánea por medio de una matriz de datos. Las cargas de trabajo paralelas son problemas de computación divididos en tareas sencillas e independientes que se pueden ejecutar a la vez sin apenas comunicaciones entre ellas. Una de las funciones del procesamiento en paralelo es la ejecución de aplicaciones de aprendizaje automático (Machine Learning), como el reconocimiento de objetos en vídeos.

Procesamiento en paralelo

El futuro de la HPC

 

Cada vez más empresas e instituciones están recurriendo a la HPC. Como resultado, se prevé que el mercado de este tipo de servidores crezca hasta los 50.000 millones de dólares en 2023. Además, gran parte de ese crecimiento se verá reflejado en la implementación de la HPC en la nube, que reduce de forma considerable los costes de una empresa al no ser necesaria la inversión en infraestructuras de centros de datos.

De igual forma, gracias a los avances tecnológicos tanto en procesamiento como en rendimiento, pronto se dará un nuevo paso en la era de la supercomputación: la exaescala, con la que se podrán realizar 10^18 (1.000.000.000.000.000.000) operaciones por segundo.

Exaescala

HPC en Azken Muga

 

Finalmente, incorporando la tecnología más avanzada en proceso, conectividad y almacenamiento, los servidores de Azken Muga satisfacen las necesidades de sus clientes, que buscan acelerar sus resultados de negocio con una infraestructura optimizada y realizar sus tareas de manera más rápida, fiable y asequible.

Soluciones

 

Ficha T10G Dual Xeon Scalable HPC 10 GPU PCIe 4.0                 Ficha T10G Dual AMD EPYC™ HPC 10 GPU

 

FICHA TÉCNICA T10G Dual AMD EPYC™ HPC 10 GPU

 

 


GLOSARIO
  • Supercomputadora: el tope de gama en HPC, según la evolución de los estándares de rendimiento.
  • Computación heterogénea: arquitectura de HPC que optimiza las capacidades de procesamiento en serie (CPU) y en paralelo (GPU).
  • Memoria: donde se almacenan los datos en un sistema HPC para acceder a ellos rápidamente.
  • Petaescala: supercomputadora diseñada para realizar mil billones (10^15) de cálculos por segundo.
  • Exaescala: supercomputadora diseñada para realizar un trillón (10^18) de cálculos por segundo.
  • FLOPS: unidades de potencia de procesamiento de las computadoras (operaciones de punto flotante por segundo). “FLOPS” describe una velocidad de procesamiento teórica: para hacer posible esa velocidad es necesario enviar datos a los procesadores de forma continua. Por lo tanto, el procesamiento de los datos se debe tener en cuenta en el diseño del sistema. La memoria del sistema, junto con las interconexiones que unen los nodos de procesamiento entre sí, impactan en la rapidez con la que los datos llegan a los procesadores.

 

 


Fuente: AMD.

AMD EPYC 7003 Servers: Workload Powerhouse

AMD EPYC 7003 Servers: Workload Powerhouse

Optimiza y soporta cualquier carga de trabajo con los nuevos servidores ASUS equipados con los últimos procesadores AMD EPYC™ 7003, desde la densidad de la GPU, la alta densidad de varios nodos hasta los servidores diseñados para IA, HPC, virtualización y análisis de datos. Con un diseño renovado para procesadores de doble o único zócalo y una arquitectura equilibrada con la CPU, te beneficiarás de mayores densidades de núcleos, hilos y memoria que ofrecen mejoras de rendimiento de dos dígitos, por no hablar de la mejora de la conectividad. En pocas palabras, los últimos servidores ASUS EPYC 7003 elevan el rendimiento para satisfacer las demandas de las empresas y los centros de datos modernos.

Sistemas recomendados para Dinámica Molecular

Sistemas recomendados para Dinámica Molecular

El funcionamiento e interacción de las biomoléculas es fundamental para comprender las enfermedades, desarrollar nuevos fármacos
y la administración de tratamientos médicos.

La microscopía electrónica criogénica (cryo-EM) es un método de obtención de imágenes que permite la observación directa de las proteínas en estado nativo o casi nativo sin tintes ni fijadores, lo que permite a los investigadores estudiar las estructuras celulares, los virus y los complejos proteicos con detalle molecular.

Esta reconstrucción de estructuras tridimensionales y de resolución casi atómica de biomoléculas suele requerir miles de imágenes y una compleja computación, lo que dificulta la obtención de estructuras de alta resolución.

La crioelectrónica puede ayudar a superar este reto. Su éxito dependerá de una mayor adopción, del aumento del tamaño de los datos, de la maduración del mercado y del auge del deep learning.

 

CONJUNTOS DE DATOS MASIVOS

El alcance y la complejidad de los datos de cryo-EM han aumentado enormemente con los avances en la automatización y la tecnología visual.
Las cámaras con mayor sensibilidad capturan imágenes a velocidades de cuadro más rápidas. Con la mejora de la preparación de las muestras, la automatización de la adquisición de datos y los tiempos de funcionamiento de los instrumentos, los requisitos para el procesamiento de datos y la computación siguen aumentando.

Por ejemplo, en un experimento típico, a menudo se necesitan entre 1.000 y 8.000 imágenes, capturadas a partir de 4 a 8 terabytes (TB) de datos de imágenes sin procesar, para generar mapas de alta resolución de una sola partícula.

En los últimos años, casi todos los pasos de los flujos de trabajo de una sola partícula que requieren un gran esfuerzo informático de trabajo de una sola partícula se han adaptado para aprovechar los procesadores de la GPU, que acortan drásticamente los tiempos de procesamiento. Para seguir el ritmo del aumento del tamaño de los datos, las aplicaciones de crioelectrónica deben optimizarse para las GPU de gama alta.

LA MADURACIÓN DEL MERCADO

Tradicionalmente, el procesamiento de los datos de las imágenes criogénicas para descubrir las estructuras de las proteínas y crear
mapas 3D de alta resolución requiere la intervención de expertos, conocimientos estructurales previos y semanas de cálculos en costosos clusters informáticos.

A medida que se generaliza, la crioelectrónica está fomentando la demanda de software comercial, de grado comercial y no experto. Estas soluciones de software implican el uso de algoritmos para automatizar tareas especializadas y que requieren mucho tiempo.

INFUSIÓN DE EL DEEP LEARNING

La selección de partículas de proteínas individuales en micrografías de cryo-EM es un paso importante en el análisis de partículas individuales. Es un reto identificar las partículas debido a la baja relación señal-ruido y a las enormes variaciones que se producen en los complejos macromoleculares biológicos.

Aprovechando el aprendizaje sin etiqueta positiva, un pequeño número de ejemplos de proyecciones de proteínas puede entrenar una red neuronal para detectar proteínas de cualquier tamaño o forma. Topaz, una aplicación de código abierto con esta capacidad, detecta muchas más partículas que otros métodos de software sometidos a prueba. Gracias a las GPU de NVIDIA, se reduce drásticamente la cantidad de datos que hay que etiquetar manualmente.

LAS GPUs EN EL WORKFLOW DE CRYO-EM

Los métodos de cryo-EM están abriendo oportunidades para explorar la complejidad de las estructuras macromoleculares de formas antes inconcebibles. Desde los sistemas de investigación en fase inicial hasta los grandes centros de datos, las GPU están permitiendo acelerar el flujo de trabajo de principio a fin. Al optimizar las cargas de trabajo clave para la adquisición de datos y la reconstrucción de una sola partícula, las GPU siguen proporcionando vías para lograr avances científicos y sanitarios.

Con el cálculo basado en la GPU y el aprendizaje profundo, los avances en la crioelectrónica aumentarán su fiabilidad y rendimiento y, en última instancia, su adopción y éxito.

T-Series Cryo-EM

 

Presentamos T-Series Cryo-EM, una estación de trabajo equipada con las últimas GPUs de NVIDIA® RTX™, con procesadores Intel® Xeon® Scalable Processors y la preinstalación de una pila de software orientado a la Microscopía Electrónica.

Las GPUs NVIDIA® permiten a los investigadores de Cryo-EM aprovechar la potencia de las GPUs no sólo para acelerar las tareas de refinamiento y clasificación, sino también para reducir aún más la carga computacional gracias a la elevada densidad de cálculo de las GPUs.

Nuestro objetivo es el de proporcionar al sector de Investigación en Biología una solución de computación intensiva y por consiguiente el facilitar a los investigadores recursos para los procesos de Cryo-EM que son intensivos desde el punto de vista computacional, como la clasificación de imágenes y el refinamiento de alta resolución..

W64 Molecular Dynamics

Ofrecemos un superordenador de Dinámica Molecular en formato desktop. Estación de trabajo de dinámica molecular «plug and play» con las últimas GPU NVIDIA® RTX™, preinstaladas con la pila de software de dinámica molecular.

Hoy en día, aplicaciones de simulación de dinámica molecular como AMBER, GROMACS, NAMD y LAMMPS, entre otras, requieren de GPUs potentes. Cuanto más potente sea la estación de trabajo de la GPU, más rápido se ejecutarán las simulaciones más largas en menos tiempo.

W45 Data Science

 

W45 Data Science, un sistema que le ofrece el rendimiento que necesita para transformar grandes cantidades de datos en información y crear experiencias de cliente sorprendentes, potenciadas por NVIDIA® para la ciencia de datos. Construida para combinar la potencia de las GPU NVIDIA® RTX™ con el software acelerado de ciencia de datos CUDA-X AI, ofreciendo así una nueva generación de estaciones de trabajo totalmente integradas para la ciencia de datos.

Hoy en día, la ciencia de datos y el aprendizaje automático se han convertido en el segmento informático más grande del mundo. Modestas mejoras en la precisión de los modelos de análisis se convierten en miles de millones en el balance final. Para crear los mejores modelos, los científicos de datos se esfuerzan en entrenar, evaluar, iterar y reentrenar a fin de ofrecer modelos de rendimiento y resultados de alta precisión. Con RAPIDS™, los procesos que tardaban días tardan minutos, lo que facilita y acelera la creación e implementación de modelos de generación de valores.

RAPIDS es un paquete de bibliotecas de software de código abierto e interfaces API para ejecutar canalizaciones de ciencia de datos por completo en las GPU, que puede reducir los tiempos de entrenamiento de días a minutos. Basado en NVIDIA® CUDA-X AI™, RAPIDS conjuga años de desarrollo en gráficos, aprendizaje automático, deep learning, computación de alto rendimiento (HPC) y mucho más.

W45 Data Science, configurada para garantizar el máximo nivel de compatibilidad, capacidad y fiabilidad. Obtenga hasta 96GB de memoria gráfica local ultrarrápida para manejar los conjuntos de datos más grandes y las cargas de trabajo más intensas. Aproveche lo último en tecnología de trazado de rayos para una visualización local de alto rendimiento y configure el acceso remoto para obtener la máxima flexibilidad. Con NVIDIA® RTX™ puede maximizar la productividad, reducir el tiempo de conocimiento y el coste de los proyectos científicos.

W45 Data Science es una estación única para cualquier profesional, una plataforma común para HPC, Inteligencia Artificial, Simulación, Visualización y Análisis en una sola supercomputadora.