Azken Review: Programa ASUS CSM

Azken Review: Programa ASUS CSM

En este artículo queremos hacer una review de dos productos realmente interesantes de Asus. En primer lugar, un software de gestión centralizada de IT para entornos datacenter, enterprise y PYME llamado ASUS Control Center y, por otro lado, la gama de placas base pertenecientes al programa CSM.

En nuestro entorno de pruebas y por gentileza de Asus hemos utilizado las placas base CSM modelos Asus PRO H310M-R R2.0WI-FI/CSM y Asus PRO A320M-RWI-FI/CSM. Estas placas son especialmente adecuadas para nuestro artículo ya que incluye una licencia de uso para ACC edición CSM.

Los productos pertenecientes al programa CSM están pensados para entornos empresariales y entre otras ventajas sobre la gama de productos de consumo, ofrecen un ciclo de vida de 36 meses, la máxima disponibilidad y notificación de cambios. Como nota adicional, Asus asegura que lleva en marcha más de 16 años en otros países con gran éxito.

 

En el caso del modelo Asus PRO H310M-R R2.0WI-FI/CSM, es una placa basada en un chipset H310 de Intel con soporte para procesadores hasta i7 de 8ª generación con gráficos integrados, en un formato Micro-ATX, con conectividad PCIe 3.0, Ethernet 1Gbit, Wifi Dual band integrado y Bluetooth 5.0. También incluye audio y soporte hasta 32GB de memoria DDR4.

En el caso de la placa Asus PRO A320M-RWI-FI/CSM, está basada en un chipset AMD 320 y socket AM4 con soporte para procesadores Ryzen de 3ª generación hasta 8 cores y gráficos integrados Radeon Vega. Igual que la anterior en un formato Micro-ATX, con conectividad PCIe 3.0, Ethernet 1Gbit, Wifi Dual band integrado y Bluetooth 5.0. También incluye audio y soporte hasta 32GB de memoria DDR4.

Pero lo que realmente diferencia a estos productos es que están especialmente dirigidas al sector profesional, a entornos IT empresarial y gama Enterprise. Por ejemplo, incluyen mecanismos de fiabilidad 24/7, recuperación automática de BIOS, registro de errores en BIOS, una construcción especialmente sólida anti-humedad y corrosión. También disponen de garantía de disponibilidad a largo plazo y soporte postventa mejorado.

Asus Control Center

Asus Control Center o ACC es una plataforma de gestión centralizada para entornos de IT que permite la gestión y monitorización de servidores Asus, estaciones de trabajo y productos de gama consumer como portátiles, equipos de sobremesa, Pc´s All-in-one y cartelería digital.

El producto está diseñado para ser especialmente intuitivo y fácil de usar, y entre otras funciones permite el deployment de aplicaciones remotas, programar tareas de mantenimiento, monitorización hardware y software, y muchas más funciones imprescindibles para una gestión eficiente del entorno IT y datacenter. Algo muy interesante es que no sólo funciona con máquinas físicas, sino también con máquinas virtuales siendo compatible con Hypervisors como VMWare. Todo por supuesto gestionado de manera segura. En el momento de escribir este artículo existen 3 versiones de ACC, Classic, CSM y Enterprise, adaptados a las necesidades y tamaño de cualquier organización.

El funcionamiento de ACC está basada en unos agentes que se instalan y se ejecutan en los equipos que queremos gestionar. Estos agentes recolectan y registran información que podemos visualizar a través de una consola de gestión basada en web.

Para empezar lo primero que hay que hacer es poner en marcha ACC. Este primer paso es extraordinariamente sencillo y fácil, ya que ACC está basado en una máquina virtual VM Linux compatible con VMware, Hyper-V y Oracle VirtualBox que Asus suministra a través de una imagen OVA y que se puede poner en marcha en cualquier equipo que cumpla los requisitos mínimos de 4vCPU, 8GB de memoria RAM, 100GB de HD.

En nuestras pruebas decidimos usar Virtual Box por la inmediatez, facilidad de instalación y uso en cualquier equipo con Windows o Linux. Hemos seguido la documentación de Asus ACC, la cual está perfectamente detallada y funciona correctamente para instalar Oracle Virtual Box y poner en marcha ACC.

Una vez completado el setup inicial de la VM y el arranque, se ejecuta un asistente que nos permitirá realizar la configuración inicial básica, incluyendo datos como el nombre de la compañía, zona horaria, passwords de acceso y direcciones IP, tal y como vemos en las siguientes pantallas:

A partir de este momento ya somos capaces de acceder a ACC mediante cualquier navegador de internet y que nos permitirá acceder a todas las funciones de Asus ACC. Para acceder escribimos en la barra de direcciones del navegador la dirección IP o hostname con el siguiente formato, en nuestro caso:

Ojo que las mayúsculas de “ACC” son importantes.

Como último paso antes de acceder a ACC, nos solicitará un usuario y un password. Una vez dentro visualizaremos una pantalla similar a esta, que es un resumen del sistema que estemos monitorizando:

En este momento no veremos datos útiles, esto es normal ya que no hay sistemas que monitorizar, los cuales debemos ir añadiendo. Antes de añadir sistemas a ACC, es necesario prepararlos activando ciertas configuraciones de software muy sencillas como activar .NET framework 3.5 y algunos settings de compartición de ficheros e impresoras. Hay que tener en cuenta que ACC NO es compatible con sistemas Windows Home Edition o inferiores.

A continuación, podremos añadir equipos desde la pestaña “Deployment” y “Add”, seguimos los pasos y nuestros sistemas irán apareciendo en la consola, también podemos añadir muchos sistemas de una vez lo cual facilita enormemente los grandes deployments.

Como hemos dicho anteriormente, una parte muy interesante es la posibilidad de integrarlo en infraestructuras virtualizadas vía VMWare, esto lo podemos hacer desde la opción “Agentless Management”, aunque para tener disponible esta opción es necesario disponer de una licencia “Enterprise”.

 

A partir de este momento tendremos acceso a toda la potencia y versatilidad de la solución, algunos ejemplos:

Overview general de una máquina:

Información del estado de uso del hardware de manera gráfica e intuitiva:

Gestión de inventario:

Actualización de BIOS:

Gestión de software y servicios:

Funciones de seguridad como impedir el uso de USB o modificación del registro:

 Y muchas más funciones necesarias para la gestión eficaz de infraestructura de IT.

Adicionalmente algunas posibilidades que lo hacen extremadamente atractivo por ejemplo para Datacenters es la integración con Intel Datacenter manager, que permite gestionar y programar el consumo de la infraestructura.

Asus Pro E800 G4

Asus Pro E800 G4

Una estación monoprocesadora MultiCore en el Top de la gama Asus Certified Workstations, Asus Pro E800 G4 está diseñada para profesionales creativos, ofreciendo un rendimiento superior para el renderizado en tiempo real, simulaciones complejas y cargas de trabajo de datos con los últimos procesadores Intel Xeon W Serie 3200 y hasta cuatro tarjetas gráficas profesionales NVIDIA o AMD. Está construido para durar, certificado por múltiples proveedores de software independientes (ISV) y preparado para romper todas las expectativas de rendimiento.

Cuenta con arquitectura Intel Mesh de baja latencia y alto ancho de banda. Integra tecnología Intel Turbo Boost 2.0 consiguiendo frecuencias máximas de 4,3 GHz en sus hasta 28 núcleos CPU, capaz de redireccionar 1.536GB de memoria RAM.

El ancho de banda del bus PCIe con 68 canales (lanes) PCIe, son capaces de gestionar hasta 4 GPUs de la gama más alta .

Productividad eficiente con velocidad ultrarrápida

 

Dedique menos tiempo a esperar y más tiempo al diseño.
Con el soporte para hasta cuatro tarjetas gráficas, configuraciones RAID NVMe SSD y redes LAN duales de 10GbE, la Pro E800 G4 mejora su productividad al proporcionar velocidades ultrarrápidas para tareas que requieren un alto rendimiento, como el renderizado y el trabajo con archivos de gran tamaño.

Soporte para cuatro GPUs, ancho de banda más rápido

 

Pro E800 G4 admite hasta cuatro tarjetas gráficas de dos pisos con refrigeración activa o pasiva, cada una de las cuales admite un ancho de banda de enlace PCIe Gen 3 x16 para garantizar animaciones rápidas y fluidas y la representación de modelos. También es compatible con las últimas tarjetas gráficas NVIDIA® Quadro® para proporcionar la potencia necesaria para ejecutar aplicaciones de diseño, modelado, investigación médica y procesamiento de simulaciones y renderizado.

Certificación de Proveedor de Software Independiente (ISV)

Entendemos la importancia de la compatibilidad, y que el Pro E800 G4 debe estar listo para alimentar las aplicaciones que usted necesita. ASUS trabaja en estrecha colaboración con numerosos proveedores de software independientes para probar y verificar la compatibilidad con nuestro hardware. Estas certificaciones ISV proporcionan la tranquilidad que su organización necesita para estar segura de que la Pro E800 G4 funcionará de forma fiable y eficaz para sus necesidades.

Creación de contenido

NVIDIA Quadro RTX™ junto con la arquitectura Turing de NVIDIA aceleran todos los esfuerzos creativos, desde la renderización en tiempo real con calidad cinematográfica hasta el modelado fotorrealista de objetos y entornos complejos, repletos de sombras, reflejos y refracciones instantáneas.

Machine Learning

Asus Pro E800 G4 es compatible con 4 NVIDIA® Tesla® para aliviar la carga del procesador, permitiendo que las operaciones matemáticas masivamente paralelas sean gestionadas de forma más eficiente por las multi-GPU, lo que a su vez acelera la formación de las redes neuronales. La Pro E800 G4 también tiene hasta ocho bahías de unidad sin herramientas, por lo que está equipada para albergar las grandes cantidades de almacenamiento generadas por las operaciones de machine-learning.

Arquitectura, Ingeniería y Construcción

Asus Pro E800 G4 tiene el potencial de acelerar sus flujos de trabajo de arquitectura, ingeniería y construcción (AEC), con soporte para procesadores Intel® Xeon® W-3200 y cuatro gráficos NVIDIA® o AMD®. Este rendimiento extremo le permite completar proyectos BIM y CAD en un tiempo récord, y con la máxima fiabilidad y precisión.

Análisis de datos

Con hasta 28 núcleos de procesador Intel® Xeon® W-3200, la Pro E800 G4 es capaz de proporcionar una potencia de cálculo fenomenal para el análisis de datos. La BIOS se ha ajustado específicamente para dar a los científicos de datos el potencial de romper las barreras de rendimiento, acelerando el análisis de los modelos espaciales 3D y las extracciones de características para desbloquear nuevos conocimientos. La Pro E800 G4 también ha sido rigurosamente probada y está lista para funcionar 24/7 sin interrupciones.

Gestión Remota

La Workstation Pro E800 G4 cuenta con un ASMB9-iKVM integrado para proporcionar funciones completas de administración fuera de banda para la administración remota a nivel de hardware. Soporta actualizaciones remotas de la BIOS, control de ventiladores, KVMs, grabación de video y captura de BSOD, proporcionando monitorización remota y diagnósticos las 24 horas del día, incluso si el sistema operativo está desconectado o fuera de línea, a través de una interfaz gráfica basada en la web y fácil de usar que funciona con todos los navegadores principales.

Puertos y Ranuras

Preparado para los procesadores Intel® Xeon® W-3200

Azken Muga recibe la condecoración AI CHAMPION 2019

Azken Muga recibe la condecoración AI CHAMPION 2019

Azken Muga AICHAMPION 2019

 

En Agosto de 2019, en Azken Muga fuimos nominados para participar en el programa AI CHAMPIONS 2019 organizado por NVIDIA (EMEA) y NetApp.

Tras unos meses de trabajo, recibimos la invitación al evento de San Francisco (EEUU) y en cuya entrega de premios, fuimos condecorados con el galardón de AI CHAMPION OF THE YEAR 2019.

Es un orgullo desde Azken Muga recibir este tipo de reconocimientos ya que, como primer y único Elite Partner de NVIDIA en España, compartimos la misma pasión por la tecnología que es capaz de cambiar la vida de las personas y seguro que seguiremos creciendo y logrando éxitos juntos.

Nvidia Tesla T4

Nvidia Tesla T4

 

 

NVIDIA T4 lleva aceleración por GPU a los servidores empresariales líderes en el mundo.

 

Las GPUs profesionales NVIDIA T4 y las librerías de aceleración CUDA-X preparan los Data Center para las diversas y complejas cargas de trabajo actuales que incluyen HPC Deep Learning tanto entrenamiento como inferencia, machine learning, data analytics, encoding y visualización gráfica. Con el soporte de la plataforma NGC (Nvidia GPU Cloud), los equipos de TI pueden construir infraestructuras de Data Center acelerados por GPU estándar con la mayoría de los fabricantes de servidores del mundo como ASUS Server.

Con respecto a la configuraciones clásica de CPU (Ver: Nota al pie) con NVIDIA T4 obtenemos:

  • Hasta un 33% más de rendimiento en infraestructuras de escritorio virtual (VDI).
  • Hasta 35x veces más rápido en Machine Learning.
  • Hasta 10 veces más rápido en entrenamiento en Deep Learning.
  • Hasta 40 veces más rápido para obtener información sobre la inferencia de Deep Learning.

(Nota el pie de pagina)

Aceleración en Deep Learning

 

Si bien el Deep Learning ha llegado bastante recientemente al mercado de la IA, las compañías han estado utilizando el Deep Learning para recopilar información a partir de datos durante décadas. La GPU del centro de datos NVIDIA T4 puede acelerar estas técnicas de aprendizaje automático utilizando RAPIDS, un conjunto de bibliotecas de open source para la preparación de datos y Deep Learning en la  GPU. Usando herramientas de desarrollo familiares como Python, una GPU T4 puede acelerar el aprendizaje de la máquina hasta 35X en comparación con un servidor solo para CPU, incluidos algoritmos como XGBoost, PCA, K-means, k-NN, DBScan y tSVD.

 

Los Tensor cores de Turing aceleran NVIDIA T4 en servidores profesionales.

 

NVIDIA T4 se basa en la revolucionaria tecnología Tensor Core de NVIDIA Turing ™ con computación de precisión múltiple para Workloads de AI. Al potenciar el rendimiento innovador de FP32 y FP16 a  INT8, así como a INT4, T4 ofrece un rendimiento de inferencia hasta 40 veces mayor que las CPU,  para capacitación, un solo servidor con dos GPU T4 reemplaza nueve servidores de CPU de doble socket.

Los desarrolladores pueden utilizar los Tensor Core de Turing directamente a través de las bibliotecas de software NVIDIA CUDA-X AI integrándose con todos los frameworks de AI. Construidas sobre CUDA, el modelo de programación paralelo de NVIDIA, las librerías CUDA-X proporcionan optimizaciones para los requisitos informáticos específicos de inteligencia artificial, máquinas autónomas, computación de alto rendimiento y gráficos.

 

Experiencias excepcionales de VDI con NVIDIA T4

 

Los servidores principales equipados con NVIDIA T4 están certificados por nuestros socios para el software de GPU virtual, lo que garantiza que los usuarios disfruten de experiencias de escritorio virtual de alta calidad desde cualquier lugar y en cualquier dispositivo. Desde trabajadores y profesionales móviles hasta diseñadores e ingenieros, NVIDIA T4 combinada con el software virtual de NVIDIA GPU – NVIDIA GRID® Virtual PC (GRID vPC) y NVIDIA Quadro® Virtual Data Center Workstation (Quadro vDWS), puede acelerar la experiencia VDI, ofreciendo hasta un 33 % de mejora de rendimiento que los entornos VDI solo para CPU.

Los servidores profesionales están preparados para NGC

Los contenedores NGC están preconstruidos y altamente optimizados para la computación de GPU. Ofrecen la experiencia incomparable de NVIDIA y el apoyo al ecosistema para los frameworks de Deep Learning, el software RAPIDS, NVIDIA TensorRT ™ y más de 600 aplicaciones informáticas de alto rendimiento.  NGC de NVIDIA permite a todos los fabricantes de servidores validar los contenedores NGC en sus plataformas para brindar a los administradores de Data Center la confianza para implementar despliegues hyper-escalables y elásticos de su infraestructura.

 

INFERENCIA TIEMPO REAL

La capacidad de respuesta es clave para la participación del usuario en servicios tales como inteligencia artificial conversacional, sistemas de recomendación y búsqueda visual. A medida que los modelos aumentan en precisión y complejidad, entregar la respuesta correcta en el momento requiere una capacidad de cómputo exponencialmente mayor. T4 ofrece hasta 40 veces más rendimiento, por lo que se pueden atender más solicitudes en tiempo real.

 

Rendimiento de transcodificación de video

 

A medida que el volumen de los videos online continúa creciendo exponencialmente, la demanda de soluciones para buscar de manera eficiente y obtener información del video también continúa creciendo. Tesla T4 ofrece un rendimiento innovador para aplicaciones de video AI, con motores de transcodificación de hardware dedicados que ofrecen el doble de rendimiento de decodificación que las GPU de generaciones anteriores. T4 puede decodificar hasta 38 streams de video en HD total, lo que facilita la integración del aprendizaje profundo escalable en los canales de video para ofrecer servicios de video innovadores e inteligentes.

NVIDIA Tesla T4 Specifications

Performance

 

  • Turing Tensor Cores: 320
  • NVIDIA CUDA® cores: 2,560
  • Single Precision Performance (FP32):8.1 TFLOPS
  • Mixed Precision (FP16/FP32): 65 FP16 TFLOPS
  • INT8 Precision: 130 INT8 TOPS
  • INT4 Precision: 260 INT4 TOPS
  • Interconnect: Gen3 – x16 PCIe

Memory:

 

  • Capacity:16 GB GDDR6
  • Bandwidth: 320+ GB/s

Power: 70 watts

NOTA:

VDI: GRID vPC probado en un servidor con 2x Intel Xeon Gold 6148 (20c, 2.4 GHz), GRID vPC con T4-1B (64 VM), VMware ESXi 6.7, NVIDIA vGPU Software (410.91 / 412.16), Windows 10 (1803) , 2 vCPU, 4 GB de RAM, resolución 1920×1080, monitor único, VMware Horizon 7.6 La experiencia del usuario se midió utilizando una herramienta de evaluación comparativa interna de NVIDIA que mide marcos remotos que ejecutan aplicaciones de productividad de oficina como Microsoft PowerPoint, Word, Excel, Chrome, visualización de PDF y video reproducción.

Machine Learning: nodos de la CPU (61 GB de memoria, 8 vCPU, plataforma de 64 bits), Apache Spark. Conjunto de datos CSV de 200 GB; La preparación de datos incluye uniones, transformaciones variables. Configuración del servidor GPU: Dual-Socket Xeon E5-2698 v4@3.6GHz, 20 GPU T4 en 5 nodos, cada uno con 4 GPU T4. Todos se ejecutan en la red InfiniBand, los datos de la CPU para XGBoost y los pasos de conversión de datos se estiman en base a los datos medidos para 20 nodos de la CPU, y reducen el tiempo de ejecución en un 60% para normalizar la capacitación en un conjunto de datos más pequeño en T4.

Deep Learning Training and Inference: GPU: Dual-Socket Xeon E5-2698 v4@3.6GHz. Servidores GPU: 2xT4s para entrenamiento, 1xT4 para inferencia, contenedor NGC 18.11-py3 con CUDA 10.0.130; NCCL 2.3.7, cuDNN 7.4.1.5; cuBLAS 10.0.130 | Controlador NVIDIA: 384.145.

 

AIshow 2019 | 3ª Edición de la conferencia y exposición de Inteligencia Artificial.

AIshow 2019 | 3ª Edición de la conferencia y exposición de Inteligencia Artificial.

Os avanzamos que del 29 al 30 de Octubre participaremos en AIshow, la primera conferencia y exposición enfocada exclusivamente en presentar las aplicaciones de la Inteligencia Artificial (IA) y en analizar las repercusiones que éstas tienen en las empresas.

AIshow reunirá a investigadores y profesionales de diversos campos con el propósito de explorar las interacciones y los impactos prácticos de la Inteligencia Artificial

AIshow es una cita ineludible para cualquier empresario o profesional del sector de la inteligencia artificial, MACHINE LEARNING & VISION BUSINESS INTELLIGENCE DATA & ANALYTICS entre otros campos. Año tras año, se consolida cómo la conferencia de Inteligencia Artificial (IA) para los expertos en Deep Learning, Big Data, y Data Scientist.

Ponencia patrocinada.

Martes 29 de Octubre 10:15-10:45

Miguel Martínez

Deep Learning Solution Architect at NVIDIA

RAPIDS – GPU Powered Machine Learning.

GPU acceleration has been at the heart of scientific computing and artificial intelligence for many years now. GPUs provide the computational power needed for the most demanding applications such as Deep Neural Networks, nuclear or weather simulation. Since the launch of RAPIDS in mid-2018, this vast computational resource has become available for Data Science workloads too.

The RAPIDS toolkit, which is now available on the Databricks Unified Analytics Platform, is a GPU-accelerated drop-in replacement for utilities such as Pandas/NumPy/ScikitLearn/XGboost. Through its use of Dask wrappers the platform allows for true, large scale computation with minimal, if any, code changes.

The goal of this talk is to discuss RAPIDS, its functionality and architecture, providing on many occasions several orders of magnitude acceleration versus its CPU-only counterparts.

BIO: Miguel Martínez es un arquitecto de soluciones en aprendizaje profundo de NVIDIA,  concentrado en RAPIDS.  Anteriormente profesor en Udacity’s Artificial Intelligence Nanodegree. Tiene una amplia trayectoria y experiencia en servicios financieros, principalmente enfocados en pagos y canales.