CASE STUDY: KINGSTON Y AZKEN REVOLUCIONAN LA SEGURIDAD FERROVIARIA ESPAÑOLA

CASE STUDY: KINGSTON Y AZKEN REVOLUCIONAN LA SEGURIDAD FERROVIARIA ESPAÑOLA

En el ámbito de la mejora de la seguridad y la eficiencia en el transporte, la compañía ferroviaria nacional española, Renfe, buscaba una solución de seguridad avanzada.

Azken Muga, conocida por su destreza en la construcción de sistemas, aceptó el reto de desarrollar la «Estación Inteligente de Seguridad Renfe». El objetivo del proyecto era cumplir los estrictos requisitos de videovigilancia, garantizando fiabilidad, compatibilidad, flexibilidad y un rendimiento óptimo.

Estación de tren

Kingston Technology reconoció la importancia de una sólida colaboración para el éxito de una empresa tan innovadora. El historial de colaboraciones exitosas de Azken Muga y su compromiso de ofrecer soluciones de alta calidad los convirtieron en una elección obvia. Kingston apreció la confianza que Azken Muga depositó en sus productos, especialmente en los módulos DDR5 ValueRAM elegidos para los ordenadores CCTV AI.

La reputación de Azken Muga como constructor de sistemas fiable les convirtió en el socio ideal para este proyecto crítico. Su experiencia en la creación de soluciones que se integran a la perfección con los sistemas existentes y ofrecen un rendimiento de primera categoría fue fundamental. La trayectoria de la empresa y su compromiso con la excelencia encajaban perfectamente con los ambiciosos objetivos del proyecto.

Azken descubrió en Kingston un socio fiable e innovador.

El éxito del proyecto de la Estación de Seguridad Inteligente de Renfe ha reforzado la colaboración en curso. El aprecio de Kingston por la relación radica en el compromiso compartido con los objetivos futuros. A medida que Azken Muga sigue recurriendo a Kingston en busca de soluciones y un apoyo excepcional, la asociación se mantiene a la vanguardia de la innovación en el sector de la seguridad. Juntos, navegan por el siempre cambiante panorama de la tecnología de seguridad, garantizando la seguridad y la protección de clientes y usuarios por igual.

Sigue leyendo acerca de este proyecto: https://www.kingston.com/es/blog/system-builder/enhancing-smart-security-systems


Fuente: Kinston Technology.

CASO DE USO: IBEROGUN EVALÚA LOS MÉTODOS DE APLICACIÓN PARA PROYECCIONES METEOROLÓGICAS EN PANAMÁ MEDIANTE ACELERACIÓN DE GPU

CASO DE USO: IBEROGUN EVALÚA LOS MÉTODOS DE APLICACIÓN PARA PROYECCIONES METEOROLÓGICAS EN PANAMÁ MEDIANTE ACELERACIÓN DE GPU

El cambio climático podría tener un impacto crítico en la República de Panamá, donde un importante segmento de la economía depende del funcionamiento del Canal de Panamá. Por ello, se han establecido nuevas estructuras para llevar a cabo investigaciones sobre este impacto. Una de ellas es la nueva infraestructura de clúster de GPU llamada Iberogun.

canal de panama


Situación de Panamá

La República de Panamá está situada en la cordillera más meridional de América Central, al norte de Ecuador. El país está rodeado por el Mar Caribe en el norte y por el Océano Pacífico en el sur, por lo que su clima está determinado principalmente por una atmósfera oceánica cálida y húmeda.

El Canal de Panamá es una de las instalaciones más importantes de Panamá. Los ingresos que generan los cargueros de contenedores a su paso por el mismo suponen alrededor del 40% del Producto Interior Bruto (PIB) del país.

La cantidad de agua del canal depende enormemente de las precipitaciones de su cuenca hidrográfica.


La UTP

La Universidad Tecnológica de Panamá es quien lleva a cabo el estudio y la implementación de este proyecto de la mano del Dr. Reinhardt Pinzón.

La UTP es líder nacional en investigación en el área de ingeniería, además de centro de referencia en innovación tecnológica.


Introducción al estudio de Iberogun

Utilizando el Modelo de Circulación General Atmosférica, del Instituto de Investigaciones Meteorológicas (MRI-AGCM3.2S), se han investigado tanto los futuros cambios climáticos de precipitación en Centroamérica como los cambios climatológicos estacionales en la cuenca alta del Río Chagres, la cual es, a su vez, una subcuenca en el lado oriental de la cuenca del Canal de Panamá.

La mayoría de los estudios se han llevado a cabo con el modelo MRI-AGCM3.2S, con simulaciones realizadas en las instalaciones del MRI en Tsukuba, Japón (una visualización de los resultados se representa en la siguiente imagen, que muestra la distribución geográfica en la precipitación de Panamá); pero la idea es que esta capacidad computacional pueda ser utilizada y replicada en suelo panameño desarrollando, de esta forma, un modelo local.

Distribución geográfica precipitación Panamá
Un posible resultado utilizando una cuadrícula de 2 km de resolución de NHRCM con una situación meteorológica del mundo real que representa la distribución geográfica de las precipitaciones anuales.

A continuación, se analizarán los principales métodos de implementación utilizados en los modelos meteorológicos y climáticos, así como de aceleración de la GPU en términos de optimización.


Métodos de aplicación


Lenguajes específicos de dominio

Los lenguajes específicos de dominio aplicados a los algoritmos Stencil han sido un método para abstraer la placa de paralelización y la disposición de la memoria para el código híbrido GPU/CPU.

> Fortrán híbrido

Fortran es un lenguaje de programación de alto nivel de propósito general, procedural e imperativo, que está especialmente adaptado al cálculo numérico y a la computación científica.

Uno de los métodos evaluados por la UTP es la implementación basada en Fortran híbrido; una transformación de fuente a fuente y una extensión del lenguaje. Esta herramienta presenta un método de división asistida para kernels de gran tamaño que permite la compatibilidad con la GPU en los procesos físicos dentro de los diferentes modelos climáticos sin necesidad de reescribirlos.

Fortran híbrido
Gráfico de llamadas simplificado y estado de la implementación basada en Hybrid Fortran. Al emplear directivas de Hybrid Fortran tanto al núcleo dinámico como a los procesos físicos de los diferentes códigos de usuario, ya se han portado a la GPU casi todos los módulos necesarios para predicción meteorológica operativa.

Directivas

Las directivas se utilizan para orientar a los compiladores sobre cómo optimizar o paralelizar el código ya existente para una arquitectura de hardware específica.


Optimización de la granularidad

La fusión de núcleos ha sido el principal enfoque de optimización de la granularidad aplicado a la programación de la GPU que conocemos.


Transformación de la disposición de la memoria

Aunque los DSL abstraen la disposición de la memoria, también requieren una reescritura completa del código de puntos, pero manteniendo las ganancias de portabilidad de rendimiento de un diseño de memoria abstraído.


Infraestructura Iberogun

Con el objetivo general de desarrollar una infraestructura sostenible para HPC en Panamá, la UTP ha montado una infraestructura de clúster de GPU llamada Iberogun. Basada en 2 servidores DGX 1 (con 16 NVIDIA Tesla P100 cada uno) tiene el objetivo de evaluar posibles modelos climáticos y eventos meteorológicos extremos.

Iberogun

Las tareas que se pretenden desarrollar a través de este proyecto son las siguientes:

  • Desarrollar e implementar código CUDA para una arquitectura clúster de GPUs.
  • Estudiar los aspectos atómicos en la formación de la topografía.
  • Divulgación de los resultados obtenidos.
  • Prospección de áreas interesantes en simulaciones numéricas en Panamá y Latinoamérica.

Iberogun tiene las siguientes características de salida:

  • 170 tera FLOPS.
  • GPU 128 GB.
  • CPU Dual 20-Core Intel Xeon.
  • NVIDIA CUDA® Cores.
  • NVIDIA Tensor Cores (en sistemas basados en V100).
  • Memoria del sistema 512 GB DDR4.
  • 4X 1,92 TB SSD RAID 0.

Independientemente del método utilizado para las proyecciones meteorológicas, los beneficios de su aplicación pueden ser bien recibidos tanto en la comunidad investigadora como en la sociedad en general.

Los modelos que se ajustan a los parámetros del istmo de Panamá pueden ser beneficiosos para la predicción de los ciclos del agua para el área de la cuenca del canal, información muy importante desde las recientes políticas estrictas de uso del agua que se han propuesto y los fenómenos de salinización que se han reportado para la cuenca del canal de Panamá.

Además, los beneficios podrían extenderse a otras áreas de investigación y comercio, tales como: agricultura, generación de energía hidráulica, transporte, ecología y conservación.


Bibliografía

CASO DE USO: LA CRIOMICROSCOPÍA ELECTRÓNICA

CASO DE USO: LA CRIOMICROSCOPÍA ELECTRÓNICA

La criomicroscopía electrónica es una técnica muy utilizada en el campo de la biología para el estudio de estructuras moleculares a temperaturas criogénicas; lo que permite observar las muestras a resolución atómica.

Jackes Dubochet, Joachim Frank y Richard Henderson ganaron el Premio Nobel de Química por su trabajo en el desarrollo de la criomicroscopía electrónica en el año 2017.

Ilustración laboratorio

La metodología que sigue esta técnica es la siguiente:

  1. La muestra se congela y se prepara con hielo vítreo.
  2. Se realiza la toma de imágenes.
  3. Se digitalizan las imágenes.
  4. Las imágenes ya digitalizadas en 2D se procesan para obtener una reconstrucción 3D de las estructuras macromoleculares.

Los avances tecnológicos (como los microscopios que trabajan, entre otras cosas, con GPUs que aceleran el procesamiento de imágenes) y la evolución en la potencia de cómputo han facilitado la elaboración de los modelos tridimensionales.


El servicio de criomicroscopía electrónica

Con sede en el Centro Nacional de Biotecnología (CNB), la instalación de criomicroscopía electrónica (Cryo-EM) del CSIC es un servicio básico de última generación que ofrece tanto la preparación de muestras como la recopilación de imágenes Cryo-EM de material biológico.

La instalación alberga dos criomicroscopios electrónicos:

  • Un JEOL CryoARM de 300 kV equipado con un cargador automático, un detector de electrones directos Gatan K3 y un filtro de energía Omega.
  • Un FEI TALOS Arctica de 200 kV, equipado con un cargador automático y un detector de electrones directos Falcon III.

Ambos son adecuados para la recopilación de grandes cantidades de datos de alta resolución.

Esta instalación, única en España, cuenta también con dos dispositivos adecuados para la vitrificación de muestras pequeñas, como proteínas y complejos macromoleculares y un tercer dispositivo adecuado para la congelación rápida de muestras celulares.

“El primer paso de esta técnica (la criomicroscopía electrónica) consiste en congelar las proteínas a muy baja temperatura (-180ºC), de tal manera que movilizamos las proteínas en una capa fina de hielo, quedando inmersas y dispuestas en distintas orientaciones.

Posteriormente, introducimos las proteínas en el microscopio electrónico de transmisión y capturamos un gran número de imágenes que, gracias a potentes ordenadores, muestran la estructura de estas proteínas en alta resolución. Incluso, podemos visualizar los aminoácidos que componen estas proteínas.

Con la utilización de esta técnica ayudamos al desarrollo de nuevos fármacos”.

Rocío Arranz, jefa del Servicio de Criomicroscopía Electrónica del Centro Nacional de Biotecnología del CSIC (CNB-CSIC)


BREM

El Basque Resource for Electron Microscopy (BREM) proporciona acceso a instrumentación de alta gama y experiencia en criomicroscopía electrónica de alta resolución (Cryo-EM) a investigadores nacionales e internacionales, académicos e industriales.

Está ubicado en el Instituto de Biofisika (CSIC) en el parque científico de la Universidad del País Vasco en Leioa; y está apoyado por la fundación Biofísica Bizkaia. Es parte de una iniciativa ambiciosa del Departamento de Educación y el Fondo de Innovación del Gobierno Vasco para incorporar tecnologías disruptivas que tengan un impacto importante en el desarrollo tecnológico, de investigación y de innovación.

El objetivo de BREM es comprender la base estructural de los procesos biológicos y la patogénesis de las enfermedades humanas a través de la criomicroscopía electrónica.

Además, también apoya los esfuerzos de investigación de fármacos basados en biología estructural y el desarrollo de terapias avanzadas para enfermedades.

BREM ha instalado un microscopio electrónico de transmisión Thermo Fisher Titan Krios G4; es el primero en España y el segundo en el sur de Europa. Cuenta con personal altamente cualificado y ayuda a los usuarios con la determinación de la estructura tridimensional utilizando todas las técnicas principales Cryo-EM disponibles para la biología estructural.

«La llegada de este microscopio electrónico al Instituto Biofisika nos permite participar en proyectos internacionales de interés biomédico; por lo tanto, podemos competir y posicionar al País Vasco en una primera línea en biología estructural».

David Gil Carton, director técnico de BREM


Características del criomicroscopio electrónico de BREM

El criomicroscopio electrónico instalado en el Instituto Biofisika para la observación de especímenes biológicos a baja temperatura mediante criomicroscopía electrónica tiene las siguientes características:

  • Se trata de un criomicroscopio electrónico de transmisión de 300 kV de alta resolución de última generación.
  • Utiliza lentes de alta estabilidad y un cañón de emisión de campo como fuente de iluminación.
  • Cuenta con una placa de fase para la mejora del contraste.
  • Incluye un filtro de energía y un detector directo de electrones como sistema de recogida de información.
  • Está optimizado para el análisis automatizado de partículas individuales, microdifracción de electrones y la tomografía electrónica de doble eje.
  • Consigue imágenes de muestras biológicas a baja temperatura con una resolución ultra alta para la adquisición de datos con un alto rendimiento y reproducibilidad; y de manera simple e intuitiva.

Criomicroscopio electrónico
Microscopio electrónico de transmisión Thermo Fisher Titan Krios G4 (Fuente: BREM)


La aportación de Azken a la criomicroscopía electrónica

BREM planteó un reto a Azken Muga:

“El éxito de este microscopio es su gran capacidad de automatización, la mejora en estabilidad y el mayor rendimiento de los nuevos detectores.

Todo esto hace posible realizar sesiones ininterrumpidas de 48 horas de un solo experimento. Estos datos pueden ser 10, 20 o 40 Tb, dependiendo del experimento; luego, tanto el control de calidad para toma de decisiones en tiempo real («processing on-the-fly») como la transferencia de datos a los usuarios lo más rápido -y sin fallos- es vital para el éxito de BREM.

Los datos son movies (vídeos) de 1 Gb cada uno en formato MRC o TIFF y en un solo experimento hay que transferir al usuario desde 20.000 hasta 45.000 de estas movies. El microscopio puede generar 10.000 movies en 24 horas”.

David Gil Carton, director técnico de BREM

BREM requería por parte de Azken un data center, compuesto por un servidor 8xGPU, dos servidores de almacenamiento y tres workstations, conectado al servidor del microscopio. Siguiendo este esquema:

Esquema data center
Fuente: BREM

Los sistemas elegidos para llevar a cabo este proyecto fueron: un servidor basado en GPU para el procesamiento de imágenes (8G4 Dual Xeon Scalable HPC 8xGPU); un servidor de almacenamiento SSD (RStorage 540S Dual Xeon Scalable Processors 36xSSD); un servidor de almacenamiento HDD (RStorage 540S Dual Xeon Scalable Processors 36xHDD); y tres workstations multi GPU de escritorio (T-Series Xeon SP).


8G4 Dual Xeon Scalable HPC 8xGPU

Servidor 8G4 Dual Xeon Scalable HPC 8xGPU

Con la siguiente configuración:

  • Chasis enracable 4U
  • 2x Intel® Xeon® Gold 6240R 2,4GHz 35,75MB Cache 24 Cores
  • 16x 64GB DDR4 2933MHz ECC Reg
  • SSD Kingston DC500R 1.92TB SATA 6Gb/s 2,5″
  • 5x SSD Enterprise 7.68TB SATA 6Gb/s 2,5″
  • 8x NVIDIA GeForce RTX 3090 24GB
  • HBA Mellanox® 100GbE 2x QSFP28 PCIe 3.0
  • Distribución GNU/Linux Fedora, Ubuntu, CentO


RStorage 540S Dual Xeon Scalable Processors 36xSSD/HDD

Servidor de almacenamiento RStorage 540S Dual Xeon Scalable Processors 36xSSD/HDD

Con la siguiente configuración:

> RStorage 540S Dual Xeon Scalable Processors 36xSSD

  • Chasis enracable 4U
  • 2x Intel® Xeon® Silver 4216 2,1GHz 22MB Cache 16 Cores
  • 8x 32GB DDR4 2933MHz ECC Reg
  • SSD Samsung 980 PRO 250GB M.2 NVMe 2280 PCIe 4.0 x4
  • 17x SSD Kingston DC500R 7.68TB SATA 6Gb/s 2,5
  • HBA Mellanox® 100GbE 2x QSFP28 PCIe 3.0
  • Distribución GNU/Linux Fedora, Ubuntu, CentO

> RStorage 540S Dual Xeon Scalable Processors 36xHDD

  • Chasis enracable 4U
  • 2x Intel® Xeon® Silver 4216 2,1GHz 22MB Cache 16 Cores
  • 8x 32GB DDR4 2933MHz ECC Reg
  • SSD Kingston DC500R 960Gb SATA 6Gb/s 2,5″
  • 36x HD 14TB SATA 6 Gb/s 7.200 r.p.m 3,5 256MB Enterprise Storage
  • HBA Mellanox® 100GbE 2x QSFP28 PCIe 3.0
  • Distribución GNU/Linux Fedora, Ubuntu, CentO


T-Series Xeon SP

Workstation T-Series Xeon SP

Con la siguiente configuración:

  • Chasis E-ATX Steel Negro
  • Placa Base Dual Intel® Xeon® Scalable
  • F.A. 1500W+ PFC Active, Modular Ultra-Silent 80 + Gold
  • 2x Intel® Xeon® Gold 6240R 2,4GHz 35,75MB Cache 24 Cores
  • 8x 64GB DDR4 2933MHz ECC Reg
  • 4x HD 10TB SATA 6 Gb/s 7.200 r.p.m 3,5 256MB Enterprise Storage
  • SSD PNY CS3140 2TB M.2 NVMe 2280 PCIe 4.0 x4
  • NVIDIA GeForce RTX 3090 24GB
  • NVIDIA Quadro T400 GPU
  • 2 x IIYAMA ProLite XUB2792QSU-B1 27
  • Kit Teclado Ratón Logitech Laser Negro
  • HBA Mellanox® 100GbE 2x QSFP28 PCIe 3.0
  • Distribución GNU/Linux Fedora, Ubuntu , CentOS
  • Kit instalación software CryoEM


Bibliografía

EDITECA: LOS PERFILES MÁS DEMANDADOS EN ARQUITECTURA E INGENIERÍA

EDITECA: LOS PERFILES MÁS DEMANDADOS EN ARQUITECTURA E INGENIERÍA

En Editeca en particular y en el sector de la arquitectura y la ingeniería en general, se encuentran ante una situación atópica:

A las empresas les cuesta encontrar perfiles adecuados a sus ofertas de trabajo.

Rafael González Del Castillo, director de Editeca.

Edificios

Esto solo había ocurrido antes de que explotara la burbuja de las crisis inmobiliaria en 2008. Entonces, ¿estamos ante una nueva burbuja? Quizás estemos trabajando más por los meses que no trabajamos durante la pandemia o por el retraso en la entrega de materiales, comenta Rafael.

Como escuela de arquitectura e ingeniería enfocada a la metodología BIM, recibimos más ofertas de empleo que los alumnos y ex alumnos que buscan trabajo. Estamos en una época de pleno empleo.

Rafael González Del Castillo, director de Editeca.


Los perfiles de Editeca

Sin embargo, siempre existirán perfiles que busquen trabajo y empresas que busquen trabajadores; por eso, Editeca está dispuesta a recoger todas las ofertas de trabajo que recibe:

  • Coordinadores BIM.
  • Programadores (arquitectos e ingenieros que sepan programar).
  • BIM Managers.
  • Modeladores especializados en alguna disciplina específica (normalmente, instalaciones).

Estos son los perfiles que más se demandan, pero si damos un paso más, destacaríamos los nuevos perfiles que se van a demandar de aquí a unos pocos años:

  • Arquitectos virtuales.
  • Gestores de BIG Data en construcción.
  • Programadores BIM.
  • Expertos en eficiencia energética.

Evidentemente, para poder desarrollar las tareas de estos perfiles, son necesarios sistemas hardware muy potentes para poder gestionar modelos BIM o poder experimentar en tiempo real una escena virtual en VR. Como, por ejemplo:

Para convertirse en los perfiles que hemos comentado, hace falta formación y experiencia, por eso, recomendamos los cursos de Editeca. Están especializados en todas las nuevas tecnologías aplicadas a BIM, empezando por Autodesk REVIT y terminando con formaciones más enfocadas a la dirección de proyectos, como el curso de BIM Manager.

Está claro que estamos en un mundo de cambio constante y la formación debe ser continua. Debemos estar actualizados con los avances en visualización, programación y modelado para seguir a la última, optimizando nuestro flujo de trabajo.


Post en colaboración con Editeca. Visita su web y consulta su oferta formativa.

40 AÑOS VIENDO ÁTOMOS: UN DOCUMENTAL CONMEMORATIVO DEL CSIC

40 AÑOS VIENDO ÁTOMOS: UN DOCUMENTAL CONMEMORATIVO DEL CSIC

La posibilidad de llegar a observar átomos parecía imposible hasta no hace mucho tiempo con la invención del Microscopio de Efecto Túnel (STM).

En el año 2021 se celebró el 40º aniversario de la invención de esta innovadora herramienta; ocasión que aprovecharon varios investigadores del CSIC (Consejo Superior de Investigaciones Científicas) para producir un pequeño documental conmemorando este hecho tan importante para la ciencia. Además, sirvió también de homenaje a dos investigadores y profesores de la Universidad Autónoma de Madrid (UAM): José María Gómez Rodríguez y Juan José Sáenz Gutiérrez. Ambos, pioneros en el desarrollo de esta técnica en España y fallecidos en 2020.

Átomos

Este documental es una iniciativa del Instituto de Micro y Nanotecnología (CSIC-IMN), el Instituto de Ciencia de Materiales de Madrid (CSIC-ICMM) y la Delegación del CSIC en Madrid.


STM: entrando en el nanomundo

Heinrich Rohrer y Gerd Binning, investigadores del laboratorio de IBM en Zúrich, construyeron el primer Microscopio de Efecto Túnel (STM, por sus siglas en inglés Scanning Tunnelling Microscope); esta invención les convirtió en ganadores del Premio Nobel de Física en 1986.

El nanómetro es la unidad de longitud del Sistema Internacional de Unidades que equivale a una millonésima parte de un milímetro; es decir, algo nanométrico es 1000 veces más que pequeño que una micra; y ésta, a su vez, es 1000 veces más pequeña que un milímetro.

El STM está formado por una punta metálica muy afilada que se acerca a la superficie que se quiere estudiar a una distancia inferior a un nanómetro. De esta forma, los electrones saltan entre la punta y la muestra, dando lugar a la corriente de efecto túnel. Cuando la punta del microscopio se mueve lateralmente sobre la superficie del material que se pretende estudiar, va describiendo los perfiles que exponen cómo es esa muestra.

Con esta técnica, no solo se pueden obtener imágenes de las distintas superficies observadas, sino que éstas también se van a poder modificar a escala nanométrica.

El STM requiere trabajar in-situ al vacío o a muy baja temperatura (evitando la oxidación y la contaminación de la superficie).


AFM: mejorando la técnica

El STM permite visualizar, estudiar y manipular átomos, sin embargo, cuenta con una limitación: la muestra debe permitir la conducción de corriente eléctrica. Por este motivo, todos los materiales aislantes no pueden estudiarse a escala nanométrica a través de esta técnica.

La solución a este problema llegó con el Microscopio de Fuerzas Atómicas (AFM, por sus siglas en inglés Atomic Force Microscope).

Una punta muy afilada colocada en el extremo de una palanca va palpando la superficie de la muestra obteniendo un mapa topográfico en la nanoescala.

Gracias a este nuevo microscopio, las imágenes obtenidas pueden representarse en 3D con ayuda de un software. Además, este método es efectivo en condiciones ambientales (no requiere trabajar en vacío); y puede ser aplicado, tanto a materiales aislantes, como a semiconductores y conductores.

Todas las técnicas que se desarrollaron a partir de este descubrimiento se engloban bajo el nombre de Microscopías de Sonda de Barrido (SPM, por sus siglas en inglés Scanning Probe Microscopy).

Las SPM (llamadas así porque consisten en una sonda (punta) que “barre” la superficie de una muestra) o microscopías de proximidad, han sido fundamentales para la expansión de la nanotecnología y la observación del comportamiento de los átomos en la naturaleza, porque son la forma ideal de obtener información de un objeto.


40 años viendo átomos

A continuación, el documental completo dirigido por Agustina Asenjo, Pedro Serena y José Miguel García (investigadores científicos del ICMM y del IMN).

Fuente: CSIC


Las aplicaciones de las SPM

En el ámbito de las microscopías STM y AFM es fundamental la simulación de las nanoestructuras que se desean observar para entender mejor las señales (ya sean corrientes o fuerzas) que se detectan experimentalmente con estas herramientas que nos permiten observar el nanomundo.

Aunque los sistemas que se observan son relativamente pequeños (son nanométricos) están formados por cientos de miles de átomos de diferentes especies, interaccionando entre sí y con la punta que se usa como sonda tanto en el STM como en el AFM.

Resolver las ecuaciones dinámicas del sistema conjunto requiere aplicar métodos de Dinámica Molecular (cuántica o semiclásica, según el grado de aproximación deseado); que a su vez implica manejar algoritmos complejos que tienen en cuenta la dinámica de millones de variables (posiciones, velocidades, etc.).

Es aquí donde los sistemas basados en varias GPUs con miles de cores, como los que comercializa Azken Muga, permiten abordar el estudio de procesos dinámicos en nanosistemas complejos durante tiempos de varios nanosegundos.

“Estas herramientas nos han permitido entender diferentes cuestiones como la manera en la que determinadas proteínas (en particular anticuerpos) se adsorben* sobre superficies de grafeno, el material del siglo XXI; cómo funcionan ciertos biosensores inspirados en el AFM; determinar el código escondido en una secuencia de ADN; o desvelar la diferencia entre fricción estática o dinámica, por indicar algunos ejemplos”.

Pedro Serena, investigador científico del ICMM

*Adsorber es atraer y retener algo en la superficie de otro algo. Ej.: El imán adsorbió las virutas de hierro. Absorber es atraer y retener algo en el interior de otro algo. Ej.: La esponja absorbió el agua.

En el siguiente vídeo se puede observar un anticuerpo IgG depositándose y moviéndose sobre una superficie de grafeno.


Fuente: CSIC

CASO DE USO: APLICACIÓN DE COMPUTER VISION PARA LA CLASIFICACIÓN POR CALIBRES DE LAS ESPECIES PESQUERAS A TRAVÉS DE DEEP LEARNING

CASO DE USO: APLICACIÓN DE COMPUTER VISION PARA LA CLASIFICACIÓN POR CALIBRES DE LAS ESPECIES PESQUERAS A TRAVÉS DE DEEP LEARNING


La información del calibre y distribución por tallas del pescado en primera venta es un dato de gran importancia tanto a nivel comercial como de gestión de los recursos marinos

La Universitat Politècnica de Catalunya (UPC) colabora con diferentes Cofradías de Pescadores de Cataluña con el objetivo de realizar un proyecto piloto consistente en un sistema computer vision que aprovecha los avances de Deep Learning para calibrar automáticamente los ejemplares de pescado y extraer datos de tamaño y frescura.

Barcos pesqueros

El desarrollo de este está liderado por los profesores Vicenç Parisi, José Antonio Soria y Lluís Ferrer.


Introducción

La preservación de los recursos pesqueros y el mantenimiento y mejora de la actividad económica a su alrededor es fundamental para la sociedad.

Los estudios científicos y gubernamentales sobre el estado de los stocks de pesca coinciden, junto con los datos estadísticos en nuestro país, en la tendencia decreciente de la evolución de las capturas. Y, aunque los precios del pescado han aumentado, los ingresos reales de los pescadores siguen disminuyendo.

Todo ello pronostica la desaparición futura, tanto de los recursos pesqueros, como de la actividad en su entorno si no se actúa adecuadamente.

Para garantizar la continuidad de estos recursos y mejorar la eficiencia de la industria pesquera y la economía de las sociedades costeras, la Unión Europea ha estado introduciendo a lo largo de los últimos años una serie de medidas, planes de gestión, limitaciones de pesca y requerimientos ambientales que necesitan datos reales y detallados sobre capturas para poder analizar correctamente la situación.

Los efectos positivos de tener calibrados los productos pesqueros son muy importantes:

  • Permiten y mejoran las transacciones comerciales entre operadores situados en mercados diferentes.
  • Posibilitan la venta por internet con mayor detalle.
  • Ayudan a implementar los planes de gestión de la actividad pesquera.
  • Reducen la comercialización de pescado por debajo de la talla mínima reglamentaria.


El proyecto de la UPC


La teoría

El principal objetivo de este proyecto es, pues, determinar estos calibres de una manera más eficiente y exacta y diseñar sistemas que permitan calibrar un mayor número de ejemplares.

Los sistemas basados en Deep Learning utilizan modelos de redes neuronales artificiales que emulan el comportamiento de las neuronas, pudiendo aprender patrones complejos.

En este sentido, existe una arquitectura de Deep Learning llamada Convolutional Neural Network (CNN) que ha dad muy buenos resultados en el reconocimiento de objetos en imágenes.

En dicha arquitectura la información de cada imagen se procesa en distintas capas:

  • Las primeras capas aprenden a reconocer rasgos primitivos básicos, como líneas.
  • Las capas intermedias combinan estos rasgos básicos para formar siluetas, esquinas o partes de objetos.
  • Las últimas capas aprenden a ordenar estas partes para formar un objeto o hacer una clasificación.

CNN. Fuente: UPC
Ejemplo de procesamiento de imagen con CNN: Las primeras etapas extraen las características básicas («features») de la imagen y las últimas etapas clasifican el objeto. Fuente: UPC


La práctica

En resumen, lo que pretende la UPC con este proyecto es desarrollar un sistema basado en computer vision, utilizando metodologías Deep Learning para clasificar las especies pesqueras en las lonjas.

Este sistema tiene el objetivo de determinar el calibre (relación tamaño-peso) para alertar de la presencia de ejemplares por debajo de la talla mínima de referencia, así como ayudar a reconocer ejemplares dañados.

En la implementación, una de las mejores formas de extraer el calibre es realizar una segmentación (identificación) de los píxeles que conforman cada especie.

Píxeles CNN. Fuente: UPC
Detección mediante CNN de los píxeles correspondientes a cada ejemplar. Fuente: UPC

A partir de esta segmentación de ejemplares y de la resolución de la imagen (píxeles/mm2) se pueden obtener medidas del área, el perímetro y la longitud de todo el ejemplar (o de las partes visibles si hay oclusiones); así como determinar si existen ejemplares dañados.

Para conseguir esto, es necesario seguir los siguientes pasos:

  1. Segmentar manualmente la base de datos de imágenes para crear un conjunto de entrenamiento, test y validación del sistema.
  2. Entrenar la red neuronal y refinar los parámetros.
  3. Calcular las longitudes de los ejemplares de interés.

Finalmente, cuando el proyecto se lleve a la lonja, se instalará una cámara y un ordenador que informará de la distribución por calibres de las cajas de pescado. Además, se recogerán datos, como el precio de venta, el peso o la temperatura, para realizar un análisis posterior de los resultados obtenidos.


Beneficios del proyecto

  • Fomento de la pesca sostenible: el comprador tendrá más información del producto y su calidad; al mismo tiempo, se elegirán mejor las especies capturadas (evitando, de este modo, pescar ejemplares por debajo de determinado calibre).
  • Eficiencia en el uso de los recursos: las actividades o días de pesca se planificarán mejor a lo largo del año, manteniendo así la relación calidad-precio.
  • Innovación: se aplicarán tecnologías de última generación a un sector con prácticas bastante tradicionales.
  • Competitividad: permitirá una mejor comercialización a distancia por internet y dará un valor añadido a los productos pesqueros.
  • Actividad basada en conocimiento: se recogerán datos muy importantes para realizar análisis y monitorización útiles, tanto en la gestión como en la comercialización de la pesca. Además, se podrá automatizar y escalar la recogida de datos.


La aportación de Azken para la UPC

Para desarrollar este proyecto con éxito es necesario un hardware lo suficientemente potente como para poder entrenar bien las CNN en el menor tiempo posible y para poder detectar los peces en tiempo real.

La UPC escogió a Azken Muga como proveedor de soluciones hardware. Concretamente, la máquina elegida para el desarrollo del proyecto fue una M-Series DX-21.

Ficha M-Series DX-21

Con la siguiente configuración:

  • Chasis enracable Multi GPU 9 slots
  • F.A. 2000W 80+ Platinum Redundante
  • Placa Base Dual Intel® Xeon® Scalable
  • 12x Memoria DDR4 16 GB 2933MHz
  • 2x Procesador Intel Xeon Gold 5220R 2,2GHz 35,75MB Cache 24 Cores
  • SSD Samsung 980 PRO 500GB M.2 NVMe 2280 PCIe 4.0 x4
  • 2x NVIDIA GeForce RTX 3090 24GB GDDR6X PCIe 4.0 TURBO
  • NVIDIA® Ampere NVLink Bridge for A100, A30, A40, RTX A6000 & A5000 2 slot


Fuente: Universitat Politècnica de Catalunya