Administra, supervisa y optimiza tu infraestructura empresarial con la nube híbrida de Asus y Microsoft
La combinación de la tecnología de nube híbrida con soluciones basadas en software define una propuesta integral de ASUS.
Microsoft Azure Stack HCI fusiona la versatilidad de la nube híbrida con una plataforma de infraestructura hiperconvergente. De esta forma, unifica computación, almacenamiento y redes a través de definiciones basadas en software.
La colaboración entre ASUS y Microsoft ha dado lugar a una solución validada de Azure Stack HCI específicamente adaptada para sistemas de servidores ASUS, ofreciendo un rendimiento, escalabilidad y alta disponibilidad sin igual. La gestión de las implementaciones de HCI se vuelve más sencilla e integrada mediante la incorporación del Windows Admin Center.
Plataforma de centro de datos híbrida única
La singularidad de esta plataforma se aprecia en su soporte nativo para Azure, que permite ampliar el centro de datos, maximizando así las inversiones actuales y obteniendo nuevas capacidades híbridas integradas.
Infraestructura hiperconvergente sin precedentes
Las características hiperconvergentes marcan un hito en la escalabilidad del almacenamiento y la capacidad informática para los profesionales de TI, gracias a la tecnología de Windows Server 2022, lo que se traduce en un valor añadido más rápido.
Centro de administración de Windows
El Centro de Administración de Windows ofrece una interfaz única basada en navegador para la gestión remota de HCI, incorporando configuraciones definidas por software y el monitoreo de cargas de trabajo tanto locales como en Azure.
Capacidades de seguridad mejoradas
En términos de seguridad, se fortalece la protección y se minimiza el impacto de posibles amenazas de malware al aislar distintas cargas de trabajo en máquinas virtuales separadas, a través de un tejido de virtualización seguro.
NC Dual Xeon SP4/5-4B
Las configuraciones escalables en un sistema de 1U proporcionan aceleración optimizada para cargas de trabajo en centros de datos locales.
Perfecto para entornos de nube híbrida en informática financiera, aprendizaje automático, almacenamiento computacional y búsqueda y análisis de datos.
Los procesadores AMD Threadripper son los más potentes en la historia de AMD, con hasta 64 núcleos y 128 subprocesos. Y cada vez son más los usuarios y empresas que aprovechan todo su potencial en CAD, VFX y postproducción, edición de vídeo, juegos y desarrollo, renderizado 3D y más.
Fuente: AMD
Estos procesadores están diseñados para que artistas, arquitectos e ingenieros puedan hacer más en menos tiempo:
Rendimiento
Los profesionales del sector necesitan una workstation que les dé un rendimiento confiable con una seguridad de nivel empresarial, manejabilidad y capacidad de ampliación.
En base a varias pruebas de rendimiento realizadas por AMD con diferentes herramientas, llegaron a los siguientes resultados:
Fuente: AMD
Arquitectura
Los nuevos procesadores AMD Ryzen Threadripper PRO 5000 serie WX se han fabricado con tecnología de procesos de 7nm para ofrecer una densidad de núcleos de CPU inigualable en cargas de trabajo profesionales. Además, la plataforma ofrece un rendimiento líder en la industria, eliminando los cuellos de botella.
Estos procesadores pueden trabajar con 128 carriles PCIe 4.0, alcanzando el doble de rendimiento de E/S que PCIe 3.0. También admiten diversas configuraciones avanzadas en estaciones de trabajo.
Seguridad, memoria y compatibilidad
Con AMD Shadow Stack, un sistema de seguridad sólido, se refuerza la protección contra los ataques de flujo de control.
Por otro lado, AMD Memory Guard cifra la memoria del sistema en tiempo real para protegerla contra ataques físicos en caso de robo o pérdida de la computadora portátil.
En cuanto a la compatibilidad, todos los procesadores Ryzen PRO de AMD incorporan un paquete de funciones de manejabilidad sólidas que están diseñadas para simplificar la implementación, creación de imágenes y administración que sea compatible con la infraestructura actual, de modo que se puedan realizar las siguientes acciones:
Actualizar y reparar dispositivos en red de manera remota.
Supervisar, restaurar y actualizar sistemas.
Solucionar problemas de clientes, tanto en banda como fuera de ella.
Los sistemas de Azken: T-Series
Tecnología AMD 3D V-Cache
Las aplicaciones de computación de alto rendimiento (HPC) son cada vez más importantes, tanto a nivel profesional como personal. Por ello, la demanda de una mayor capacidad de procesamiento está creciendo cada vez más rápido. El futuro de la informática depende de innovaciones avanzadas de encapsulado que permitan seguir elevando el rendimiento de los procesadores; y es aquí donde entra la tecnología de AMD.
La necesidad de brindar un rendimiento de CPU para data centers de alto nivel obliga a AMD a generar una nueva solución. Entonces surge 3D V-Cache. Se trata de la primera tecnología de CPU x86 con verdadero apilado de chips 3D.
Llega AMD 3D V-Cache
Los tan distintivos procesadores AMD EPYC de 3ª generación con AMD 3D V-Cache han sido desarrollados para brindar un rendimiento revolucionario con determinadas cargas de trabajo críticas de diseño de productos y de computación técnica; y cambiarán la automatización de diseño electrónico (EDA), la dinámica de fluidos por computadora (CFD) y el análisis de elementos finitos (FEA).
Fuente: AMD
En estos procesadores, los chiplets apilados ofrecen el triple de caché L3 que los demás procesadores, pues pasan de 256 MB a 768 MB. Además, las unidades lógicas y la memoria se colocan una encima de la otra, en lugar de distribuirlas, por lo que la latencia es mucho menor. Al triplicar la caché L3, estos procesadores pueden brindar hasta un 66% de ventaja en cuanto a trabajos de simulación EDA RTL por día para aplicaciones de computación técnica en comparación con los procesadores AMD EPYC de 3ª generación con la misma cantidad de núcleos pero sin 3D V-Cache.
Con los componentes apilados en 3D para reducir al mínimo la latencia, con un mayor ancho de banda gracias al triple de caché L3 y con la eficiencia térmica resultante, los procesadores AMD EPYC de 3ª generación ofrecen un rendimiento revolucionario, en especial para el diseño de ingeniería y productos, que es una de las cargas de trabajo de mayor procesamiento.
AMD 3D V-Cache permitirá a los equipos acelerar las simulaciones y las repeticiones de diseños; y también mejorar la fidelidad de las creaciones, lo cual libera a los equipos de diseño para que trabajen de forma más veloz y ofrezcan productos de mayor calidad a los clientes.
Las dos compañías tecnológicas se asocian para impulsar la investigación médica en el país asiático
NVIDIA y Asustek Computer, compañía taiwanesa, han anunciado en Abril el inicio de una colaboración con el Instituto Nacional de Investigación Sanitaria de Taiwán (NHRI) para llevar a cabo el desarrollo del primer supercomputador de investigación biomédica basado en IA del país.
Asustek y NVIDIA se ocuparán de aportar la tecnología de IA en la nube y los servidores de computación de alto rendimiento (HPC). Por otro lado, el NHRI se encargará de proporcionar los datos necesarios sobre la investigación sanitaria, según afirma un artículo publicado en Digitimes Asia.
Fuente: HPCwire
Jonney Shih, presidente de Asustek, sostiene que el fruto de dicha alianza será la construcción del primer supercomputador del país dedicado a la investigación biomédica. Para ello se aprovechará la tecnología de supercomputadores de IA de NVIDIA, los modelos de IA y las aplicaciones de computación analítica. Lo mismo se hará con la investigación del NHRI, la plataforma de IA HPC en la nube de Asustek y los servicios de asesoramiento de mantenimiento de Taiwan Web Service (TWS).
Con el fin de impulsar la eficiencia de la investigación de IA del NHRI, Shih afirma que se utilizarán distintos recursos. Entre ellos, destaca el análisis multiómico, la identificación de imágenes médicas y el software de desarrollo de medicamentos y vacunas.
«Además de desarrollar soluciones de HPC para la salud de precisión, la investigación médica y el desarrollo de vacunas, Asustek también trabajará con el NHRI para acelerar el desarrollo de aplicaciones de IA en la industria biomédica de Taiwán, centrándose en los grandes datos para la atención sanitaria y los modelos de IA biomédica»
Digitimes Asia
Antecedentes tecnológicos en Taiwán
En 2018, Asustek se convirtió en proveedor de software del supercomputador Taiwania 2. La compañía informa que desde entonces, ha asignado ingenieros de IA en cloud a la investigación, el desarrollo y la integración del software del sistema. Taiwania 2 ocupa el puesto 54 en la última lista Top500, que representa los supercomputadores más potentes del mundo. En cuanto a la lista Green500, que refleja el nivel de eficiencia energética de los sistemas listados en la lista anterior, ocupa el 34.
Por su parte, el CEO de NVIDIA Jensen Huang, es de origen Taiwanés-americano, por lo que la isla siempre ha sido un gran punto de referencia para la compañía. En Marzo de 2021, la empresa anunció que establecería en Taiwán la base de NVIDIA Inception, su programa de startups de IA y ciencia de datos, convirtiéndose así en el primer centro de su categoría en todo Asia.
La computación de alto rendimiento (HPC – High Performance Computing) es la capacidad de procesar datos y realizar cálculos complejos a gran velocidad utilizando varios ordenadores y dispositivos de almacenamiento.
Comparativamente, un equipo de sobremesa con un procesador de 3 GHz puede realizar unos 3.000 millones de cálculos por segundo, mientras que, con las soluciones HPC, se pueden realizar cuatrillones de cálculos por segundo.
De esta forma, un servidor para HPC es capaz de resolver algunos de los principales problemas en el mundo de la ciencia, la ingeniería y los negocios mediante simulaciones, modelos y análisis. Algunos ejemplos son: el descubrimiento de nuevos componentes de medicamentos para combatir enfermedades como el cáncer, la simulación de dinámicas moleculares para la creación de nuevos materiales o el pronóstico de cambios climáticos.
Los tipos de soluciones HPC más conocidos son:
Computación paralela. Es un conjunto de sistemas simples con varios procesadores trabajando simultáneamente sobre la misma tarea.
Computación distribuida. Es una red de ordenadores conectados que funcionan de manera colaborativa para realizar diferentes tareas.
Computación en malla o Grid. Es un sistema de computación distribuida que coordina computadoras de diferente hardware y software para procesar una tarea con gran cantidad de recursos y poder de procesamiento.
¿Cómo funciona la HPC?
Para procesar la información en HPC, existen dos métodos principales: el procesamiento en serie y el procesamiento en paralelo. Veamos cada uno de ellos.
Procesamiento en serie
Es el que realizan las unidades de procesamiento central (CPU). Estas dividen una gran carga de trabajo compartida en tareas más pequeñas que se comunican continuamente. Cada núcleo de CPU realiza solo una tarea a la vez. Una de las funciones del procesamiento en serie es la ejecución de aplicaciones básicas como el procesamiento de textos.
Procesamiento en paralelo
Es el que realizan la unidades de procesamiento gráfico (GPU). Estas son capaces de realizar diferentes operaciones aritméticas de forma simultánea por medio de una matriz de datos. Las cargas de trabajo paralelas son problemas de computación divididos en tareas sencillas e independientes que se pueden ejecutar a la vez sin apenas comunicaciones entre ellas. Una de las funciones del procesamiento en paralelo es la ejecución de aplicaciones de aprendizaje automático (Machine Learning), como el reconocimiento de objetos en vídeos.
El futuro de la HPC
Cada vez más empresas e instituciones están recurriendo a la HPC. Como resultado, se prevé que el mercado de este tipo de servidores crezca hasta los 50.000 millones de dólares en 2023. Además, gran parte de ese crecimiento se verá reflejado en la implementación de la HPC en la nube, que reduce de forma considerable los costes de una empresa al no ser necesaria la inversión en infraestructuras de centros de datos.
De igual forma, gracias a los avances tecnológicos tanto en procesamiento como en rendimiento, pronto se dará un nuevo paso en la era de la supercomputación: la exaescala, con la que se podrán realizar 10^18 (1.000.000.000.000.000.000) operaciones por segundo.
HPC en Azken Muga
Finalmente, incorporando la tecnología más avanzada en proceso, conectividad y almacenamiento, los servidores de Azken Muga satisfacen las necesidades de sus clientes, que buscan acelerar sus resultados de negocio con una infraestructura optimizada y realizar sus tareas de manera más rápida, fiable y asequible.
Es un superordenador en formato rack 4U de doble zócalo que admite hasta diez tarjetas GPU de alto rendimiento. Con dos procesadores Intel Xeon Scalable de tercera generación y 32 módulos DIMM DDR4, proporcionando una extraordinaria potencia de cálculo heterogénea para una gran variedad de aplicaciones de computación científica de alto rendimiento basadas en la GPU, entrenamiento de IA, inferencia y aprendizaje profundo. Un servidor concebido para balancear mas de 190 TeraFlops en doble precisión. La mejor combinación de proceso CPU, almacenamiento y proceso paralelo sobre GPU, una arquitectura ideal que alberga hasta 10 GPUs NVIDIA® de última generación.
Servidor en formato rack de 4U con procesadores AMD EPYC™ 9004 series dual socket, hasta 192 núcleos Zen 4, 12 canales por socket de memoria RAM DDR5 y con el mayor rendimiento de conmutación con PCIe 5.0. Diseñado para las demandas de la infraestructura de IA empresarial, ofreciendo un rendimiento sin precedentes con GPU´s líderes del segmento, una interconexión de GPU más rápida, un mayor ancho de banda, la cual admite una configuración escalable de hasta ocho GPU´s de doble slot con la opción de NVIDIA NVLink® Bridge o AMD Infinity Fabric™ Link para permitir el escalado del rendimiento, lo que permite adaptarse a sus cargas de trabajo de IA y HPC.
GLOSARIO
Supercomputadora: el tope de gama en HPC, según la evolución de los estándares de rendimiento.
Computación heterogénea: arquitectura de HPC que optimiza las capacidades de procesamiento en serie (CPU) y en paralelo (GPU).
Memoria: donde se almacenan los datos en un sistema HPC para acceder a ellos rápidamente.
Petaescala: supercomputadora diseñada para realizar mil billones (10^15) de cálculos por segundo.
Exaescala: supercomputadora diseñada para realizar un trillón (10^18) de cálculos por segundo.
FLOPS: unidades de potencia de procesamiento de las computadoras (operaciones de punto flotante por segundo). “FLOPS” describe una velocidad de procesamiento teórica: para hacer posible esa velocidad es necesario enviar datos a los procesadores de forma continua. Por lo tanto, el procesamiento de los datos se debe tener en cuenta en el diseño del sistema. La memoria del sistema, junto con las interconexiones que unen los nodos de procesamiento entre sí, impactan en la rapidez con la que los datos llegan a los procesadores.