Edge Computing es la práctica de procesar los datos físicamente más cerca de su origen.
Fuente: NVIDIA
Smart cities. Cirugías a distancia. Vehículos totalmente autónomos. altavoces domésticos controlados por voz… Todas estas tecnologías innovadoras son posibles gracias al edge computing.
¿Qué es edge computing?
Edge Computing (traducido a español sería algo así como computación de borde o perimentral) es la práctica de trasladar la potencia de cálculo físicamente más cerca del lugar donde se generan los datos; normalmente, un dispositivo o sensor de IoT. Se denomina así por la forma en que la potencia de cálculo se lleva al «borde», al «extremo», al «límite» de un dispositivo o red. Edge computing se utiliza para procesar los datos más rápidamente, aumentar el ancho de banda y garantizar la autonomía de los datos.
Fuente: NVIDIA
Al procesar los datos en el extremo de la red, edge computing reduce la necesidad de que grandes cantidades de datos viajen entre los servidores, la nube y los dispositivos o ubicaciones de borde. Esto resuelve los problemas de infraestructura que se encuentran en el procesamiento de datos convencional, como la latencia y el ancho de banda. Esto es especialmente importante para aplicaciones modernas como la ciencia de datos y la inteligencia artificial.
Casos de uso
Por ejemplo, los equipos industriales avanzados cuentan cada vez con más sensores inteligentes alimentados por procesadores con capacidad de IA que pueden hacer inferencias en el borde (edge AI). Estos sensores vigilan los equipos y la maquinaria cercana para alertar a los supervisores de cualquier anomalía que pueda poner en peligro la seguridad, la continuidad y la eficacia de las operaciones. En este caso de uso, el hecho de que los procesadores de IA estén físicamente presentes en el emplazamiento industrial, da lugar a una menor latencia y que los equipos industriales reaccionen más rápidamente a su entorno.
La retroalimentación instantánea que ofrece edge computing es especialmente crítica para las aplicaciones en las que la seguridad humana es un factor importante; como ocurre con los coches autónomos, donde el ahorro de milisegundos de procesamiento de datos y tiempos de respuesta puede ser clave para evitar accidentes. O en los hospitales, donde los médicos dependen de datos precisos y en tiempo real para tratar a sus pacientes.
Edge computing puede utilizarse en todos los lugares en los que lo sensores recogen datos; desde tiendas de venta al por menor y hospitales para cirugías a distancia, hasta almacenes con una logística inteligente de la cadena de suministro y fábricas con inspecciones de control de calidad.
¿Cómo funciona edge computing?
Edge computing funciona procesando los datos lo más cerca posible de su fuente o usuario final. Mantiene los datos, las aplicaciones y la potencia de cálculo lejos de una red o un centro de datos centralizados.
Tradicionalmente, los datos producidos por los sensores suelen ser revisados manualmente por humanos, se dejan sin procesar o se envían a la nube o a un data center para ser procesados y luego devueltos al dispositivo. Confiar únicamente en las revisiones manuales da lugar a procesos más lentos y menos eficientes. La computación en la nube proporciona recursos informáticos; sin embargo, el viaje y el procesamiento de los datos suponen una gran carga para el ancho de banda y la latencia.
Ancho de banda y latencia
El ancho de banda es la velocidad a la que se transfieren los datos por Internet. Cuando los datos se envían a la nube viajan a través de una red de área amplia, que puede ser muy cara debido a su cobertura global y a las elevadas necesidades de ancho de banda. Cuando los datos se procesan en el borde, se pueden utilizar redes de área local, lo que supone un mayor ancho de banda con menores costes.
La latencia es el retraso en el envío de información de un punto a otro. Se reduce cuando se procesa en el borde, porque los datos producidos por los sensores y dispositivos IoT ya no necesitan enviar datos a una nube centralizada para ser procesados. Incluso en las redes de fibra óptica más rápidas, los datos no pueden viajar más rápido que la velocidad de la luz.
Al llevar a cabo edge computing se reduce la latencia y se incrementa el ancho de banda, lo que da como resultado información y acciones más rápidas.
Fuente: NVIDIA
Edge computing puede ejecutarse en uno o varios sistemas para acortar la distancia entre el lugar donde se recogen y procesan los datos, reducir los cuellos de botella y acelerar las aplicaciones. Una infraestructura de borde ideal también implica una plataforma de software centralizada que pueda gestionar de forma remota todos los sistemas de borde en una sola interfaz.
¿Por qué es necesaria esta técnica computacional?
Hoy en día, tres tendencias tecnológicas están convergiendo y creando casos de uso que requieren que las organizaciones consideren edge computing: IoT, IA y 5G.
IoT
Con la proliferación de dispositivos IoT llegó la expansión de big data que empezaron a generar las empreas. A medida que las organizaciones aprovechaban la recopilación de datos de todos los aspectos de sus negocios, se dieron cuenta de que sus aplicaciones no estaban construidas para manejar tales volúmenes de datos.
Además, se percataron de que la infraestructura para transferir, almacenar y procesar todos estos datos era extremadamente cara y difícil de gestionar. Esta puede ser la razón por la que solo se procesa una parte de los datos recopilados de los dispositivos IoT (25% en algunos casos).
Y el problema se agrava aún más. En la actualidad hay 40.000 millones de dispositivos IoT y las predicciones indican que podrían aumentar al billón en 2022. A medida que crece el número de dispositivos IoT y aumenta la cantidad de datos que hay que transferir, almacenar y procesar, las organizaciones recurren más a edge computing para reducir los costes necesarios para utilizar los mismos datos en los modelos de computación en la nube.
IA
La IA representa un sinfín de posibilidades y beneficios para las empresas, como la capacidad de obtener información en tiempo real. Las empresas están descubriendo que su infraestructura de nube actual no puede cumplir con los requisitos que requieren los nuevos casos de uso para la IA.
Cuando las organizaciones tienen limitaciones de ancho de banda y latencia, tienen que recortar la cantidad de datos que alimentan a sus modelos. Y esto da lugar a modelos más débiles.
5G
Las redes 5G, diez veces más rápidas que las 4G, están construidas para permitir que cada nodo sirva a cientos de dispositivos; aumentando así las posibilidades de los servicios habilitados por la IA en las ubicaciones de borde.
Con la potente, rápida y fiable capacidad de procesamiento de edge computing, las empresas pueden explorar nuevas oportunidades de negocio, obtener información en tiempo real, aumentar la eficiencia operativa y mejorar la experiencia del usuario.
¿Cuáles son los beneficios de edge computing?
Menor latencia. Al procesar en el borde de una red, se reducen o eliminan los viajes de datos, lo que acelera la IA. Esto abre la puerta a casos de uso con modelos de IA más complejos, como los vehículos autónomos y la realidad aumentada.
Reducción de costes. El uso de una LAN para el procesamiento de datos significa que las organizaciones pueden acceder a un mayor ancho de banda y almacenamiento a un menor coste que con la computación en la nube. Además, como el procesamiento se realiza en el borde, no es necesario enviar tantos datos a la nube o al data center para su procesamiento posterior.
Precisión de los modelos. La IA se basa en modelos de alta precisión, especialmente para los casos de uso que requieren respuestas instantáneas. Cuando el ancho de banda de una red es demasiado bajo, se soluciona reduciendo el tamaño de los datos utilizados para la inferencia. Esto suele dar como resultado imágenes reducidas, fotogramas omitidos en vídeo y frecuencias de muestreo reducidas en audio. Cuando se despliega en el borde, los bucles de retroalimentación de datos pueden utilizarse para mejorar la precisión del modelo de IA y se pueden ejecutar varios modelos simultáneamente, lo que da lugar a una mejor comprensión de los mismos.
Mayor alcance. Internet es necesario para la computación en la nube; pero con edge computing los datos se procesan sin acceso a internet, lo que amplía su alcance a lugares anteriormente inaccesibles.
Autonomía de los datos. Cuando los datos se procesan en el lugar donde se recogen, las organizaciones pueden mantenerlos dentro de la LAN y el firewall de la empresa. Esto se traduce en una menor exposición a los ataques de ciberseguridad de la nube y a las estrictas y cambiantes leyes de protección de datos.
Casos de uso en todas las industrias
Edge computing puede aportar inteligencia en tiempo real a las empresas de todos los sectores.
Fuente: NVIDIA
Comercio minorista
Ante la rápida evolución de la demanda, el comportamiento y las expectativas de los consumidores, los minoristas más grandes del mundo recurren a la IA avanzada para ofrecer mejores experiencias a los usuarios.
Con edge computing los minoristas pueden aumentar su agilidad mediante:
Reducción de las pérdidas. Con cámaras y sensores inteligentes en los comercios que aprovecha edge computing para analizar datos, se pueden identificar y prevenir casos de errores, desperdicios, daños y robos.
Mejora de la gestión del inventario. Las aplicaciones de edge computing pueden utilizar cámaras para alertar cuándo baja el stock, evitando así las posibles roturas.
Optimización de la experiencia de compra. Con el rápido procesamiento de datos de edge computing, los minoristas pueden implementar pedidos por voz para que los compradores puedan buscar fácilmente artículos, pedir información sobre productos y hacer pedidos online utilizando altavoces u otros dispositivos inteligentes.
Smart cities
Ciudades, campus universitarios, estadios y centros comerciales son algunos ejemplos de lugares que han empezado a utilizar la IA para transformarse en espacios inteligentes. Esto se traduce en una mayor eficiencia desde el punto de vista operativo, seguridad y accesibilidad.
Edge computing se ha utilizado para transformar las operaciones y mejorar la seguridad en todo el mundo en áreas como:
Reducción de la congestión del tráfico. Las ciudades utilizan computer vision para identificar, analizar y optimizar el tráfico; disminuir los costes relacionados con los atascos; y minimizar el tiempo que los conductores pasan en el vehículo.
Supervisión de la seguridad en las playas. Detectar los posibles peligros en las playas, como la resaca, las corrientes y las condiciones peligrosas del mar, permite a las autoridades poner en marcha procedimientos para salvar vidas.
Aumento de la eficiencia de las operaciones de las aerolíneas y los aeropuertos. Una aplicación de análisis de vídeo con IA ayuda a las aerolíneas y los aeropuertos a tomar mejores decisiones de forma más rápida en cuanto a capacidad, sostenibilidad y seguridad.
Industria
Las fábricas y las empresas automovilísticas están generando datos de sensores que pueden utilizarse de forma cruzada para mejorar los servicios. Algunos casos de uso para promover la eficiencia y la productividad en la fabricación son:
Mantenimiento predictivo: Detección temprana de anomalías y predicción de cuándo van a fallar las máquinas para evitar tiempos de inactividad.
Control de calidad. Detectar defectos en los productos y alertar al personal al instante para reducir los residuos y mejorar la eficiencia de la fabricación.
Seguridad de los trabajadores. Uso de una red de cámaras y sensores equipados con análisis de vídeo con IA para que los fabricantes puedan identificar a los trabajadores en condiciones inseguras e intervenir rápidamente para evitar accidentes.
Sanidad
La combinación de edge computing e IA está transformando la atención sanitaria. La IA «en el borde» proporciona a los trabajadores sanitarios las herramientas que necesitan para mejorar la eficiencia operativa, garantizar la seguridad y ofrecer una experiencia asistencial de la mayor calidad posible.
Dos ejemplos muy claros de edge computing en este sector son:
Los quirófanos. Los modelos de IA construidos sobre imágenes en streaming y sensores en dispositivos médicos están ayudando a:
La adquisición y reconstrucción de imágenes.
La optimización del flujo de trabajo para el diagnóstico y la planificación de la terapia.
La medición de órganos y tumores.
La orientación de la terapia quirúrgica.
La visualización y monitorización en tiempo real durante las cirugías.
Los hospitales. Los hospitales inteligentes están utilizando tecnologías como la monitorización de pacientes, la detección de enfermedades, la IA conversacional, la estimación de la frecuencia cardíaca, los escáneres radiológicos, etc. Utilizando computer vision se puede ayudar a notificar al personal sanitario cuándo un paciente se mueve o se cae de una cama del hospital.
El futuro de edge computing
La capacidad de obtener información más rápida puede suponer un ahorro de tiempo, costes e incluso vidas. Por ello, las empresas están aprovechando los datos generados por los miles de millones de sensores de IoT que se encuentran en las tiendas, en las calles de las ciudades y en los hospitales para crear espacios inteligentes.
Pero para ello, las organizaciones necesitan sistemas de edge computing que ofrezcan una computación potente y distribuida, una gestión remota segura y sencilla y compatibilidad con las tecnologías líderes del sector.
El mercado de edge computing tendrá un valor de 251.000 millones de dólares en 2025, y se espera que siga creciendo cada año con una tasa de crecimiento anual del 16,4%.
La evolución de la IA, el IoT y el 5G seguirá catalizando la adopción de edge computing. El número de casos de uso y los tipos de cargas de trabajo desplegados «en el borde» crecerán. En la actualidad, los casos de uso más frecuentes giran en torno a computer vision. Sin embargo, hay muchas oportunidades sin explorar en áreas de trabajo como el procesamiento del lenguaje natural, los sistemas de recomendación y la robótica.
Las posibilidades «en el borde» son realmente ilimitadas.
La criomicroscopía electrónica es una técnica muy utilizada en el campo de la biología para el estudio de estructuras moleculares a temperaturas criogénicas; lo que permite observar las muestras a resolución atómica.
Jackes Dubochet, Joachim Frank y Richard Henderson ganaron el Premio Nobel de Química por su trabajo en el desarrollo de la criomicroscopía electrónica en el año 2017.
La metodología que sigue esta técnica es la siguiente:
La muestra se congela y se prepara con hielo vítreo.
Se realiza la toma de imágenes.
Se digitalizan las imágenes.
Las imágenes ya digitalizadas en 2D se procesan para obtener una reconstrucción 3D de las estructuras macromoleculares.
Los avances tecnológicos (como los microscopios que trabajan, entre otras cosas, con GPUs que aceleran el procesamiento de imágenes) y la evolución en la potencia de cómputo han facilitado la elaboración de los modelos tridimensionales.
El servicio de criomicroscopía electrónica
Con sede en el Centro Nacional de Biotecnología (CNB), la instalación de criomicroscopía electrónica (Cryo-EM) del CSIC es un servicio básico de última generación que ofrece tanto la preparación de muestras como la recopilación de imágenes Cryo-EM de material biológico.
La instalación alberga dos criomicroscopios electrónicos:
Un JEOL CryoARM de 300 kV equipado con un cargador automático, un detector de electrones directos Gatan K3 y un filtro de energía Omega.
Un FEI TALOS Arctica de 200 kV, equipado con un cargador automático y un detector de electrones directos Falcon III.
Ambos son adecuados para la recopilación de grandes cantidades de datos de alta resolución.
Esta instalación, única en España, cuenta también con dos dispositivos adecuados para la vitrificación de muestras pequeñas, como proteínas y complejos macromoleculares y un tercer dispositivo adecuado para la congelación rápida de muestras celulares.
“El primer paso de esta técnica (la criomicroscopía electrónica) consiste en congelar las proteínas a muy baja temperatura (-180ºC), de tal manera que movilizamos las proteínas en una capa fina de hielo, quedando inmersas y dispuestas en distintas orientaciones.
Posteriormente, introducimos las proteínas en el microscopio electrónico de transmisión y capturamos un gran número de imágenes que, gracias a potentes ordenadores, muestran la estructura de estas proteínas en alta resolución. Incluso, podemos visualizar los aminoácidos que componen estas proteínas.
Con la utilización de esta técnica ayudamos al desarrollo de nuevos fármacos”.
Rocío Arranz, jefa del Servicio de Criomicroscopía Electrónica del Centro Nacional de Biotecnología del CSIC (CNB-CSIC)
BREM
El Basque Resource for Electron Microscopy (BREM) proporciona acceso a instrumentación de alta gama y experiencia en criomicroscopía electrónica de alta resolución (Cryo-EM) a investigadores nacionales e internacionales, académicos e industriales.
Está ubicado en el Instituto de Biofisika (CSIC) en el parque científico de la Universidad del País Vasco en Leioa; y está apoyado por la fundación Biofísica Bizkaia. Es parte de una iniciativa ambiciosa del Departamento de Educación y el Fondo de Innovación del Gobierno Vasco para incorporar tecnologías disruptivas que tengan un impacto importante en el desarrollo tecnológico, de investigación y de innovación.
El objetivo de BREM es comprender la base estructural de los procesos biológicos y la patogénesis de las enfermedades humanas a través de la criomicroscopía electrónica.
Además, también apoya los esfuerzos de investigación de fármacos basados en biología estructural y el desarrollo de terapias avanzadas para enfermedades.
BREM ha instalado un microscopio electrónico de transmisión Thermo Fisher Titan Krios G4; es el primero en España y el segundo en el sur de Europa. Cuenta con personal altamente cualificado y ayuda a los usuarios con la determinación de la estructura tridimensional utilizando todas las técnicas principales Cryo-EM disponibles para la biología estructural.
«La llegada de este microscopio electrónico al Instituto Biofisika nos permite participar en proyectos internacionales de interés biomédico; por lo tanto, podemos competir y posicionar al País Vasco en una primera línea en biología estructural».
David Gil Carton, director técnico de BREM
Características del criomicroscopio electrónico de BREM
El criomicroscopio electrónico instalado en el Instituto Biofisika para la observación de especímenes biológicos a baja temperatura mediante criomicroscopía electrónica tiene las siguientes características:
Se trata de un criomicroscopio electrónico de transmisión de 300 kV de alta resolución de última generación.
Utiliza lentes de alta estabilidad y un cañón de emisión de campo como fuente de iluminación.
Cuenta con una placa de fase para la mejora del contraste.
Incluye un filtro de energía y un detector directo de electrones como sistema de recogida de información.
Está optimizado para el análisis automatizado de partículas individuales, microdifracción de electrones y la tomografía electrónica de doble eje.
Consigue imágenes de muestras biológicas a baja temperatura con una resolución ultra alta para la adquisición de datos con un alto rendimiento y reproducibilidad; y de manera simple e intuitiva.
La aportación de Azken a la criomicroscopía electrónica
BREM planteó un reto a Azken Muga:
“El éxito de este microscopio es su gran capacidad de automatización, la mejora en estabilidad y el mayor rendimiento de los nuevos detectores.
Todo esto hace posible realizar sesiones ininterrumpidas de 48 horas de un solo experimento. Estos datos pueden ser 10, 20 o 40 Tb, dependiendo del experimento; luego, tanto el control de calidad para toma de decisiones en tiempo real («processing on-the-fly») como la transferencia de datos a los usuarios lo más rápido -y sin fallos- es vital para el éxito de BREM.
Los datos son movies (vídeos) de 1 Gb cada uno en formato MRC o TIFF y en un solo experimento hay que transferir al usuario desde 20.000 hasta 45.000 de estas movies. El microscopio puede generar 10.000 movies en 24 horas”.
David Gil Carton, director técnico de BREM
BREM requería por parte de Azken un data center, compuesto por un servidor 8xGPU, dos servidores de almacenamiento y tres workstations, conectado al servidor del microscopio. Siguiendo este esquema:
Fuente: BREM
Los sistemas elegidos para llevar a cabo este proyecto fueron: un servidor basado en GPU para el procesamiento de imágenes (8G4 Dual Xeon Scalable HPC 8xGPU); un servidor de almacenamiento SSD (RStorage 540S Dual Xeon Scalable Processors 36xSSD); un servidor de almacenamiento HDD (RStorage 540S Dual Xeon Scalable Processors 36xHDD); y tres workstations multi GPU de escritorio (T-Series Xeon SP).
Los procesadores AMD Threadripper son los más potentes en la historia de AMD, con hasta 64 núcleos y 128 subprocesos. Y cada vez son más los usuarios y empresas que aprovechan todo su potencial en CAD, VFX y postproducción, edición de vídeo, juegos y desarrollo, renderizado 3D y más.
Fuente: AMD
Estos procesadores están diseñados para que artistas, arquitectos e ingenieros puedan hacer más en menos tiempo:
Rendimiento
Los profesionales del sector necesitan una workstation que les dé un rendimiento confiable con una seguridad de nivel empresarial, manejabilidad y capacidad de ampliación.
En base a varias pruebas de rendimiento realizadas por AMD con diferentes herramientas, llegaron a los siguientes resultados:
Fuente: AMD
Arquitectura
Los nuevos procesadores AMD Ryzen Threadripper PRO 5000 serie WX se han fabricado con tecnología de procesos de 7nm para ofrecer una densidad de núcleos de CPU inigualable en cargas de trabajo profesionales. Además, la plataforma ofrece un rendimiento líder en la industria, eliminando los cuellos de botella.
Estos procesadores pueden trabajar con 128 carriles PCIe 4.0, alcanzando el doble de rendimiento de E/S que PCIe 3.0. También admiten diversas configuraciones avanzadas en estaciones de trabajo.
Seguridad, memoria y compatibilidad
Con AMD Shadow Stack, un sistema de seguridad sólido, se refuerza la protección contra los ataques de flujo de control.
Por otro lado, AMD Memory Guard cifra la memoria del sistema en tiempo real para protegerla contra ataques físicos en caso de robo o pérdida de la computadora portátil.
En cuanto a la compatibilidad, todos los procesadores Ryzen PRO de AMD incorporan un paquete de funciones de manejabilidad sólidas que están diseñadas para simplificar la implementación, creación de imágenes y administración que sea compatible con la infraestructura actual, de modo que se puedan realizar las siguientes acciones:
Actualizar y reparar dispositivos en red de manera remota.
Supervisar, restaurar y actualizar sistemas.
Solucionar problemas de clientes, tanto en banda como fuera de ella.
Los sistemas de Azken: T-Series
Tecnología AMD 3D V-Cache
Las aplicaciones de computación de alto rendimiento (HPC) son cada vez más importantes, tanto a nivel profesional como personal. Por ello, la demanda de una mayor capacidad de procesamiento está creciendo cada vez más rápido. El futuro de la informática depende de innovaciones avanzadas de encapsulado que permitan seguir elevando el rendimiento de los procesadores; y es aquí donde entra la tecnología de AMD.
La necesidad de brindar un rendimiento de CPU para data centers de alto nivel obliga a AMD a generar una nueva solución. Entonces surge 3D V-Cache. Se trata de la primera tecnología de CPU x86 con verdadero apilado de chips 3D.
Llega AMD 3D V-Cache
Los tan distintivos procesadores AMD EPYC de 3ª generación con AMD 3D V-Cache han sido desarrollados para brindar un rendimiento revolucionario con determinadas cargas de trabajo críticas de diseño de productos y de computación técnica; y cambiarán la automatización de diseño electrónico (EDA), la dinámica de fluidos por computadora (CFD) y el análisis de elementos finitos (FEA).
Fuente: AMD
En estos procesadores, los chiplets apilados ofrecen el triple de caché L3 que los demás procesadores, pues pasan de 256 MB a 768 MB. Además, las unidades lógicas y la memoria se colocan una encima de la otra, en lugar de distribuirlas, por lo que la latencia es mucho menor. Al triplicar la caché L3, estos procesadores pueden brindar hasta un 66% de ventaja en cuanto a trabajos de simulación EDA RTL por día para aplicaciones de computación técnica en comparación con los procesadores AMD EPYC de 3ª generación con la misma cantidad de núcleos pero sin 3D V-Cache.
Con los componentes apilados en 3D para reducir al mínimo la latencia, con un mayor ancho de banda gracias al triple de caché L3 y con la eficiencia térmica resultante, los procesadores AMD EPYC de 3ª generación ofrecen un rendimiento revolucionario, en especial para el diseño de ingeniería y productos, que es una de las cargas de trabajo de mayor procesamiento.
AMD 3D V-Cache permitirá a los equipos acelerar las simulaciones y las repeticiones de diseños; y también mejorar la fidelidad de las creaciones, lo cual libera a los equipos de diseño para que trabajen de forma más veloz y ofrezcan productos de mayor calidad a los clientes.
Mundos Digitales 2022 vuelve por todo lo alto después de dos años de parón por la pandemia; y Azken estará presente de nuevo en este evento presentando sus novedades y con varias sorpresas para los participantes.
Mundos Digitales es un Congreso Internacional de Animación, VFX y nuevos Media en el que se convocan a los mejores profesionales de la industria de los contenidos digitales; además de artistas, estudiantes y personas interesadas en el mundo de los gráficos por ordenador para descubrir, debatir y hacer networking.
Fuente: NVIDIA
Mundos Digitales 2022 se celebrará en A Coruña (España) los días 7, 8 y 9 de julio. Y, como cada año, su ambicioso programa reúne a destacados profesionales del sector que comparten sus proyectos y experiencias en formato de conferencias.
A través de sus actividades, Mundos Digitales promueve las sinergias entre los diferentes actores de la industria, apoya la creatividad y el debate, fomenta la creación de empleo y se convierte en el punto de encuentro del talento, los proyectos creativos e innovadores y los contenidos digitales.
Azken en Mundos Digitales
Keynote
Azken patrocina la sesión Keynote de Mundos Digitales.
La conferencia lleva por título «PRODUCCIÓN VIRTUAL: CÓMO ILUMINAR CORRECTAMENTE» y la impartirá Paul Debevec, Director de Investigación, Algoritmos Creativos y Tecnología, de Netflix.
Premio especial
Azken también patrocina el premio especial que Mundos Digitales otorga este año a Paul Franklin, Director creativo y cofundador de Double Negative, por su aportación a la industria en el campo de los efectos visuales.
Sorteo: Gana una tarjeta gráfica NVIDIA RTX A4500
La NVIDIA RTX™ A4500 combina alto rendimiento, fiabilidad y la última tecnología RTX para ayudarte a conseguir tu mejor trabajo en tiempo real.
Construida sobre la arquitectura NVIDIA Ampere, la RTX A4500 combina 56 núcleos RT de segunda generación, 224 núcleos Tensor de tercera generación y 7.168 núcleos CUDA® con 20 GB de memoria gráfica; permitiendo a los profesionales trabajar con tareas que requieren mucha memoria, como los modelos de gran tamaño, el renderizado de alta resolución y las cargas de trabajo de computación complejas.
En Editeca en particular y en el sector de la arquitectura y la ingeniería en general, se encuentran ante una situación atópica:
A las empresas les cuesta encontrar perfiles adecuados a sus ofertas de trabajo.
Rafael González Del Castillo, director de Editeca.
Esto solo había ocurrido antes de que explotara la burbuja de las crisis inmobiliaria en 2008. Entonces, ¿estamos ante una nueva burbuja? Quizás estemos trabajando más por los meses que no trabajamos durante la pandemia o por el retraso en la entrega de materiales, comenta Rafael.
Como escuela de arquitectura e ingeniería enfocada a la metodología BIM, recibimos más ofertas de empleo que los alumnos y ex alumnos que buscan trabajo. Estamos en una época de pleno empleo.
Rafael González Del Castillo, director de Editeca.
Los perfiles de Editeca
Sin embargo, siempre existirán perfiles que busquen trabajo y empresas que busquen trabajadores; por eso, Editeca está dispuesta a recoger todas las ofertas de trabajo que recibe:
Coordinadores BIM.
Programadores (arquitectos e ingenieros que sepan programar).
Modeladores especializados en alguna disciplina específica (normalmente, instalaciones).
Estos son los perfiles que más se demandan, pero si damos un paso más, destacaríamos los nuevos perfiles que se van a demandar de aquí a unos pocos años:
Evidentemente, para poder desarrollar las tareas de estos perfiles, son necesarios sistemas hardware muy potentes para poder gestionar modelos BIM o poder experimentar en tiempo real una escena virtual en VR. Como, por ejemplo:
Para convertirse en los perfiles que hemos comentado, hace falta formación y experiencia, por eso, recomendamos los cursos de Editeca. Están especializados en todas las nuevas tecnologías aplicadas a BIM, empezando por Autodesk REVIT y terminando con formaciones más enfocadas a la dirección de proyectos, como el curso de BIM Manager.
Está claro que estamos en un mundo de cambio constante y la formación debe ser continua. Debemos estar actualizados con los avances en visualización, programación y modelado para seguir a la última, optimizando nuestro flujo de trabajo.
Post en colaboración con Editeca. Visita su web y consulta su oferta formativa.