EDITECA: LOS PERFILES MÁS DEMANDADOS EN ARQUITECTURA E INGENIERÍA

EDITECA: LOS PERFILES MÁS DEMANDADOS EN ARQUITECTURA E INGENIERÍA

En Editeca en particular y en el sector de la arquitectura y la ingeniería en general, se encuentran ante una situación atópica:

A las empresas les cuesta encontrar perfiles adecuados a sus ofertas de trabajo.

Rafael González Del Castillo, director de Editeca.

Edificios

Esto solo había ocurrido antes de que explotara la burbuja de las crisis inmobiliaria en 2008. Entonces, ¿estamos ante una nueva burbuja? Quizás estemos trabajando más por los meses que no trabajamos durante la pandemia o por el retraso en la entrega de materiales, comenta Rafael.

Como escuela de arquitectura e ingeniería enfocada a la metodología BIM, recibimos más ofertas de empleo que los alumnos y ex alumnos que buscan trabajo. Estamos en una época de pleno empleo.

Rafael González Del Castillo, director de Editeca.


Los perfiles de Editeca

Sin embargo, siempre existirán perfiles que busquen trabajo y empresas que busquen trabajadores; por eso, Editeca está dispuesta a recoger todas las ofertas de trabajo que recibe:

  • Coordinadores BIM.
  • Programadores (arquitectos e ingenieros que sepan programar).
  • BIM Managers.
  • Modeladores especializados en alguna disciplina específica (normalmente, instalaciones).

Estos son los perfiles que más se demandan, pero si damos un paso más, destacaríamos los nuevos perfiles que se van a demandar de aquí a unos pocos años:

  • Arquitectos virtuales.
  • Gestores de BIG Data en construcción.
  • Programadores BIM.
  • Expertos en eficiencia energética.

Evidentemente, para poder desarrollar las tareas de estos perfiles, son necesarios sistemas hardware muy potentes para poder gestionar modelos BIM o poder experimentar en tiempo real una escena virtual en VR. Como, por ejemplo:

Para convertirse en los perfiles que hemos comentado, hace falta formación y experiencia, por eso, recomendamos los cursos de Editeca. Están especializados en todas las nuevas tecnologías aplicadas a BIM, empezando por Autodesk REVIT y terminando con formaciones más enfocadas a la dirección de proyectos, como el curso de BIM Manager.

Está claro que estamos en un mundo de cambio constante y la formación debe ser continua. Debemos estar actualizados con los avances en visualización, programación y modelado para seguir a la última, optimizando nuestro flujo de trabajo.


Post en colaboración con Editeca. Visita su web y consulta su oferta formativa.

RENDERING: LA COMPUTACIÓN DE LA ANIMACIÓN Y EL DISEÑO

RENDERING: LA COMPUTACIÓN DE LA ANIMACIÓN Y EL DISEÑO

Hace una semanas, hablábamos de HPC o Computación de Alto Rendimiento. En el post de hoy, lo hacemos de rendering, un tipo de computación que, a diferencia de la anterior, da mucha más importancia a la imagen que a los datos.

Veamos en qué consiste el rendering y qué tipos y técnicas lo componen:


¿Qué es rendering?

Rendering, render o renderizado es un concepto muy utilizado en computación que hacer referencia a la transformación de un modelo 3D en una imagen realista 2D.

En otras palabras, es el proceso de obtención de imágenes digitales extraídas de un modelo tridimensional a través de un software dedicado. La finalidad de estas imágenes es simular un objeto o un ambiente de manera fotorrealista.

Este término, que suele ser utilizado en su versión inglesa, es frecuente, sobre todo, en la jerga de los profesionales de la animación audiovisual y los diseñadores 3D; aunque la traducción que mejor se puede ajustar al castellano es «interpretación», haciendo referencia a que la computadora interpreta una escena tridimensional y la representa en una imagen bidimensional.

Una de las partes más importantes del rendering es el motor de renderizado, gracias al cual, es posible imitar un espacio real formado por distintos materiales, texturas, colores, estructuras poligonales, iluminación, reflexión, refracción y ray tracing.


Tipos de rendering

Los principales tipos de rendering son los siguientes:


Renderización en tiempo real

Las imágenes se calculan a tal velocidad, que el proceso de conversión de los modelos 3D en imágenes 2D sucede en tiempo real.

Este tipo de rendering se utiliza mucho en los videojuegos y en gráficos interactivos.


Renderización offline

En este caso, la velocidad no es esencial, por lo que el proceso se lleva a cabo a través de cálculos realizados normalmente con CPUs multi-core.

La característica principal de este tipo de rendering es que, a diferencia del anterior, no existe la imprevisibilidad.

Por eso, es más común en proyectos de animación mucho más complejos visualmente y con un alto nivel de fotorrealismo.


Técnicas de visualización de rendering

Existen cinco técnicas principales de visualización en el renderizado. Veámoslas a continuación:


Scan line

Es una de las técnicas más antiguas. Se encarga de fusionar el algoritmo que determina las superficies con el algoritmo que determina las sombras de las mismas. Por otro lado, trabaja con una línea de escaneo a la vez.


Z-Buffer

Se trata de un algoritmo que determina las superficies visibles.

Utiliza las siguientes estructuras de datos:

  • z-buffer: para cada pixel, mantiene la coordenada z más cercana al espectador.
  • frame-buffer: contiene los datos relativos a los colores de los pixeles del z-buffer.

Esta técnica solo se puede aplicar en un polígono cada vez (cuando escanea un polígono, no se puede acceder a la información del resto).


Ray casting

Detecta las superficies visibles y funciona de la siguiente manera: hace partir los rayos del ojo (un rayo por cada píxel) y encontrar el primer objeto que bloquea ese recorrido. Además, es capaz de gestionar superficies sólidas, como esferas o conos.

Por ello, si un rayo alcanza una determinada superficie, esta se podrá diseñar gracias al ray casting.


Ray tracing

Funciona de manera muy parecida al ray casting, pero añadiendo un modelo de iluminación a la escena que tiene en cuenta las reflexiones y las refracciones que experimenta la luz. Esto hace que se consigan unos impresionantes resultados fotorrealistas.

En resumen, el ray tracing simula el recorrido que hace la radiación luminosa hasta llegar al espectador.


Radiosity

Añade todavía más fotorrealismo a la escena al tener en cuenta la inter reflexión entre los diferentes objetos que se encuentran en la misma.

Por ejemplo, cuando una superficie tiene un componente de luz reflectora, esta técnica es capaz de conseguir que esta superficie (por su fenómeno físico de reflexión) ilumine también las superficies cercanas a ella.


Rendering en Azken Muga

En Azken Muga integramos los últimos avances tecnológicos de cálculo distribuido y certificamos las arquitecturas con los principales motores de Render.

Proveemos de soluciones de render a los mejores estudios de animación y VFX nacionales.


Soluciones de rendering


GLOSARIO

  • 2D o espacio bidimensional: módulo geométrico de la proyección plana y física del universo donde vivimos. Tiene dos dimensiones (ancho y largo), pero no cuenta con profundidad. Los planos son bidimensionales y solo pueden contener cuerpos unidimensionales o bidimensionales.
  • 3D o espacio tridimensional: espacio que cuenta con tres dimensiones: anchura, largura y altura (o profundidad).
  • Computación: área de la ciencia que se encarga de estudiar la administración de métodos, técnicas y procesos con el fin de almacenar, procesar y transmitir información y datos en formato digital.
  • Píxel: es la menor unidad homogénea en color que forma parte de una imagen digital.


Fuente: BibLus

HPC: COMPUTACIÓN DE ALTO RENDIMIENTO

HPC: COMPUTACIÓN DE ALTO RENDIMIENTO

¿Qué es la computación de alto rendimiento (HPC)?

 

La computación de alto rendimiento (HPC – High Performance Computing) es la capacidad de procesar datos y realizar cálculos complejos a gran velocidad utilizando varios ordenadores y dispositivos de almacenamiento.

Comparativamente, un equipo de sobremesa con un procesador de 3 GHz puede realizar unos 3.000 millones de cálculos por segundo, mientras que, con las soluciones HPC, se pueden realizar cuatrillones de cálculos por segundo.

 

 

De esta forma, un servidor para HPC es capaz de resolver algunos de los principales problemas en el mundo de la ciencia, la ingeniería y los negocios mediante simulaciones, modelos y análisis. Algunos ejemplos son: el descubrimiento de nuevos componentes de medicamentos para combatir enfermedades como el cáncer, la simulación de dinámicas moleculares para la creación de nuevos materiales o el pronóstico de cambios climáticos.

Los tipos de soluciones HPC más conocidos son:

    • Computación paralela. Es un conjunto de sistemas simples con varios procesadores trabajando simultáneamente sobre la misma tarea.
    • Computación distribuida. Es una red de ordenadores conectados que funcionan de manera colaborativa para realizar diferentes tareas.
    • Computación en malla o Grid. Es un sistema de computación distribuida que coordina computadoras de diferente hardware y software para procesar una tarea con gran cantidad de recursos y poder de procesamiento.

¿Cómo funciona la HPC?

 

Para procesar la información en HPC, existen dos métodos principales: el procesamiento en serie y el procesamiento en paralelo. Veamos cada uno de ellos.

Procesamiento en serie

 

Es el que realizan las unidades de procesamiento central (CPU). Estas dividen una gran carga de trabajo compartida en tareas más pequeñas que se comunican continuamente. Cada núcleo de CPU realiza solo una tarea a la vez. Una de las funciones del procesamiento en serie es la ejecución de aplicaciones básicas como el procesamiento de textos.

Procesamiento en serie

Procesamiento en paralelo

 

Es el que realizan la unidades de procesamiento gráfico (GPU). Estas son capaces de realizar diferentes operaciones aritméticas de forma simultánea por medio de una matriz de datos. Las cargas de trabajo paralelas son problemas de computación divididos en tareas sencillas e independientes que se pueden ejecutar a la vez sin apenas comunicaciones entre ellas. Una de las funciones del procesamiento en paralelo es la ejecución de aplicaciones de aprendizaje automático (Machine Learning), como el reconocimiento de objetos en vídeos.

Procesamiento en paralelo

El futuro de la HPC

 

Cada vez más empresas e instituciones están recurriendo a la HPC. Como resultado, se prevé que el mercado de este tipo de servidores crezca hasta los 50.000 millones de dólares en 2023. Además, gran parte de ese crecimiento se verá reflejado en la implementación de la HPC en la nube, que reduce de forma considerable los costes de una empresa al no ser necesaria la inversión en infraestructuras de centros de datos.

De igual forma, gracias a los avances tecnológicos tanto en procesamiento como en rendimiento, pronto se dará un nuevo paso en la era de la supercomputación: la exaescala, con la que se podrán realizar 10^18 (1.000.000.000.000.000.000) operaciones por segundo.

Exaescala

HPC en Azken Muga

 

Finalmente, incorporando la tecnología más avanzada en proceso, conectividad y almacenamiento, los servidores de Azken Muga satisfacen las necesidades de sus clientes, que buscan acelerar sus resultados de negocio con una infraestructura optimizada y realizar sus tareas de manera más rápida, fiable y asequible.

Soluciones

 

Ficha T10G Dual Xeon Scalable HPC 10 GPU PCIe 4.0                 Ficha T10G Dual AMD EPYC™ HPC 10 GPU

 

FICHA TÉCNICA T10G Dual AMD EPYC™ HPC 10 GPU

 

 


GLOSARIO
  • Supercomputadora: el tope de gama en HPC, según la evolución de los estándares de rendimiento.
  • Computación heterogénea: arquitectura de HPC que optimiza las capacidades de procesamiento en serie (CPU) y en paralelo (GPU).
  • Memoria: donde se almacenan los datos en un sistema HPC para acceder a ellos rápidamente.
  • Petaescala: supercomputadora diseñada para realizar mil billones (10^15) de cálculos por segundo.
  • Exaescala: supercomputadora diseñada para realizar un trillón (10^18) de cálculos por segundo.
  • FLOPS: unidades de potencia de procesamiento de las computadoras (operaciones de punto flotante por segundo). “FLOPS” describe una velocidad de procesamiento teórica: para hacer posible esa velocidad es necesario enviar datos a los procesadores de forma continua. Por lo tanto, el procesamiento de los datos se debe tener en cuenta en el diseño del sistema. La memoria del sistema, junto con las interconexiones que unen los nodos de procesamiento entre sí, impactan en la rapidez con la que los datos llegan a los procesadores.

 

 


Fuente: AMD.

AMD EPYC 7003 Servers: Workload Powerhouse

AMD EPYC 7003 Servers: Workload Powerhouse

Optimiza y soporta cualquier carga de trabajo con los nuevos servidores ASUS equipados con los últimos procesadores AMD EPYC™ 7003, desde la densidad de la GPU, la alta densidad de varios nodos hasta los servidores diseñados para IA, HPC, virtualización y análisis de datos. Con un diseño renovado para procesadores de doble o único zócalo y una arquitectura equilibrada con la CPU, te beneficiarás de mayores densidades de núcleos, hilos y memoria que ofrecen mejoras de rendimiento de dos dígitos, por no hablar de la mejora de la conectividad. En pocas palabras, los últimos servidores ASUS EPYC 7003 elevan el rendimiento para satisfacer las demandas de las empresas y los centros de datos modernos.

Sistemas recomendados para Dinámica Molecular

Sistemas recomendados para Dinámica Molecular

El funcionamiento e interacción de las biomoléculas es fundamental para comprender las enfermedades, desarrollar nuevos fármacos
y la administración de tratamientos médicos.

La microscopía electrónica criogénica (cryo-EM) es un método de obtención de imágenes que permite la observación directa de las proteínas en estado nativo o casi nativo sin tintes ni fijadores, lo que permite a los investigadores estudiar las estructuras celulares, los virus y los complejos proteicos con detalle molecular.

Esta reconstrucción de estructuras tridimensionales y de resolución casi atómica de biomoléculas suele requerir miles de imágenes y una compleja computación, lo que dificulta la obtención de estructuras de alta resolución.

La crioelectrónica puede ayudar a superar este reto. Su éxito dependerá de una mayor adopción, del aumento del tamaño de los datos, de la maduración del mercado y del auge del deep learning.

 

CONJUNTOS DE DATOS MASIVOS

El alcance y la complejidad de los datos de cryo-EM han aumentado enormemente con los avances en la automatización y la tecnología visual.
Las cámaras con mayor sensibilidad capturan imágenes a velocidades de cuadro más rápidas. Con la mejora de la preparación de las muestras, la automatización de la adquisición de datos y los tiempos de funcionamiento de los instrumentos, los requisitos para el procesamiento de datos y la computación siguen aumentando.

Por ejemplo, en un experimento típico, a menudo se necesitan entre 1.000 y 8.000 imágenes, capturadas a partir de 4 a 8 terabytes (TB) de datos de imágenes sin procesar, para generar mapas de alta resolución de una sola partícula.

En los últimos años, casi todos los pasos de los flujos de trabajo de una sola partícula que requieren un gran esfuerzo informático de trabajo de una sola partícula se han adaptado para aprovechar los procesadores de la GPU, que acortan drásticamente los tiempos de procesamiento. Para seguir el ritmo del aumento del tamaño de los datos, las aplicaciones de crioelectrónica deben optimizarse para las GPU de gama alta.

LA MADURACIÓN DEL MERCADO

Tradicionalmente, el procesamiento de los datos de las imágenes criogénicas para descubrir las estructuras de las proteínas y crear
mapas 3D de alta resolución requiere la intervención de expertos, conocimientos estructurales previos y semanas de cálculos en costosos clusters informáticos.

A medida que se generaliza, la crioelectrónica está fomentando la demanda de software comercial, de grado comercial y no experto. Estas soluciones de software implican el uso de algoritmos para automatizar tareas especializadas y que requieren mucho tiempo.

INFUSIÓN DE EL DEEP LEARNING

La selección de partículas de proteínas individuales en micrografías de cryo-EM es un paso importante en el análisis de partículas individuales. Es un reto identificar las partículas debido a la baja relación señal-ruido y a las enormes variaciones que se producen en los complejos macromoleculares biológicos.

Aprovechando el aprendizaje sin etiqueta positiva, un pequeño número de ejemplos de proyecciones de proteínas puede entrenar una red neuronal para detectar proteínas de cualquier tamaño o forma. Topaz, una aplicación de código abierto con esta capacidad, detecta muchas más partículas que otros métodos de software sometidos a prueba. Gracias a las GPU de NVIDIA, se reduce drásticamente la cantidad de datos que hay que etiquetar manualmente.

LAS GPUs EN EL WORKFLOW DE CRYO-EM

Los métodos de cryo-EM están abriendo oportunidades para explorar la complejidad de las estructuras macromoleculares de formas antes inconcebibles. Desde los sistemas de investigación en fase inicial hasta los grandes centros de datos, las GPU están permitiendo acelerar el flujo de trabajo de principio a fin. Al optimizar las cargas de trabajo clave para la adquisición de datos y la reconstrucción de una sola partícula, las GPU siguen proporcionando vías para lograr avances científicos y sanitarios.

Con el cálculo basado en la GPU y el aprendizaje profundo, los avances en la crioelectrónica aumentarán su fiabilidad y rendimiento y, en última instancia, su adopción y éxito.

T-Series Cryo-EM

 

Presentamos T-Series Cryo-EM, una estación de trabajo equipada con las últimas GPUs de NVIDIA® RTX™, con procesadores Intel® Xeon® Scalable Processors y la preinstalación de una pila de software orientado a la Microscopía Electrónica.

Las GPUs NVIDIA® permiten a los investigadores de Cryo-EM aprovechar la potencia de las GPUs no sólo para acelerar las tareas de refinamiento y clasificación, sino también para reducir aún más la carga computacional gracias a la elevada densidad de cálculo de las GPUs.

Nuestro objetivo es el de proporcionar al sector de Investigación en Biología una solución de computación intensiva y por consiguiente el facilitar a los investigadores recursos para los procesos de Cryo-EM que son intensivos desde el punto de vista computacional, como la clasificación de imágenes y el refinamiento de alta resolución..

W64 Molecular Dynamics

Ofrecemos un superordenador de Dinámica Molecular en formato desktop. Estación de trabajo de dinámica molecular «plug and play» con las últimas GPU NVIDIA® RTX™, preinstaladas con la pila de software de dinámica molecular.

Hoy en día, aplicaciones de simulación de dinámica molecular como AMBER, GROMACS, NAMD y LAMMPS, entre otras, requieren de GPUs potentes. Cuanto más potente sea la estación de trabajo de la GPU, más rápido se ejecutarán las simulaciones más largas en menos tiempo.

W45 Data Science

 

W45 Data Science, un sistema que le ofrece el rendimiento que necesita para transformar grandes cantidades de datos en información y crear experiencias de cliente sorprendentes, potenciadas por NVIDIA® para la ciencia de datos. Construida para combinar la potencia de las GPU NVIDIA® RTX™ con el software acelerado de ciencia de datos CUDA-X AI, ofreciendo así una nueva generación de estaciones de trabajo totalmente integradas para la ciencia de datos.

Hoy en día, la ciencia de datos y el aprendizaje automático se han convertido en el segmento informático más grande del mundo. Modestas mejoras en la precisión de los modelos de análisis se convierten en miles de millones en el balance final. Para crear los mejores modelos, los científicos de datos se esfuerzan en entrenar, evaluar, iterar y reentrenar a fin de ofrecer modelos de rendimiento y resultados de alta precisión. Con RAPIDS™, los procesos que tardaban días tardan minutos, lo que facilita y acelera la creación e implementación de modelos de generación de valores.

RAPIDS es un paquete de bibliotecas de software de código abierto e interfaces API para ejecutar canalizaciones de ciencia de datos por completo en las GPU, que puede reducir los tiempos de entrenamiento de días a minutos. Basado en NVIDIA® CUDA-X AI™, RAPIDS conjuga años de desarrollo en gráficos, aprendizaje automático, deep learning, computación de alto rendimiento (HPC) y mucho más.

W45 Data Science, configurada para garantizar el máximo nivel de compatibilidad, capacidad y fiabilidad. Obtenga hasta 96GB de memoria gráfica local ultrarrápida para manejar los conjuntos de datos más grandes y las cargas de trabajo más intensas. Aproveche lo último en tecnología de trazado de rayos para una visualización local de alto rendimiento y configure el acceso remoto para obtener la máxima flexibilidad. Con NVIDIA® RTX™ puede maximizar la productividad, reducir el tiempo de conocimiento y el coste de los proyectos científicos.

W45 Data Science es una estación única para cualquier profesional, una plataforma común para HPC, Inteligencia Artificial, Simulación, Visualización y Análisis en una sola supercomputadora.

PRUEBA DE HARDWARE: AMD THREADRIPPER 3990X

PRUEBA DE HARDWARE: AMD THREADRIPPER 3990X

Adán Martín [Fundador y Director de 3D Collective SL]: «Para mí es muy importante contar con una maquina actualizada que me permita realizar mi trabajo con comodidad y eficiencia, por esta razón suelo actualizar mi hardware una vez cada 2 años para tratar de contar siempre con las mejores herramientas disponibles.

A principios de 2018 hice una review de la que se convertiría en mi maquina de trabajo por 2 años, un AMD threadripper 1950X. Era mi primera experiencia con AMD en muchos años y no estaba muy seguro de que el nuevo micro de AMD fuera a cumplir con las expectativas, pero el 1950X me demostró que las cosas habían cambiado y he estado muy satisfecho con mi compra desde entonces.

Pero ahora toca actualizar nuevamente equipos y tenia grandes dudas entre los nuevos AMD Threadripper 3990X y 3970X ¿Merecería la pena apostar por el 3990X a pesar de elevado coste?. ¿Seria mejor optar por una maquina con una velocidad base más alta como el 3970X?.

Al final me decidí por el 3970X pero poco después Azken Muga me ha prestado una de sus Workstations W64 con un 3990X para que pueda probarla y me ha parecido que puede ser interesante para vosotros ver como rinde este monstruo en tareas de render comparado con el 3970X. Las dos maquinas han sido montadas por Azken y tienen componentes equiparables en cuanto a placa base, memorias, sistema de refrigeración, etc. así que creo que podemos hacer una comparativa más o menos justa.

Antes de comenzar, deciros que esto no pretende ser un análisis exhaustivo de las maquinas porque no soy un experto en hardware, yo me dedico al 3D como todos sabéis y simplemente he probado las maquinas en las tareas que suelen ocupar mi día a día y he sacado mis conclusiones. Os tocará a vosotros sacar las vuestras.»