El superordenador de IA de Meta, el mayor sistema para clientes de NVIDIA DGX A100 hasta la fecha, proporcionará a los investigadores de «Meta AI» 5 exaflops de rendimiento de IA y cuenta con sistemas NVIDIA de última generación, tejido InfiniBand y software que permite la optimización en miles de GPU.
«Meta Platforms» ha elegido las tecnologías de NVIDIA para lo que cree que será su sistema de investigación más potente hasta la fecha.
Fuente: NVIDIA
El AI Research SuperCluster (RSC) ya está entrenando nuevos modelos para avanzar en la IA. Una vez desplegado por completo, se espera que el RSC de Meta sea la mayor instalación de sistemas NVIDIA DGX A100 de un cliente.
«Esperamos que el RSC nos ayude a crear sistemas de IA totalmente nuevos que puedan, por ejemplo, realizar traducciones de voz en tiempo real a grandes grupos de personas, cada una de las cuales habla un idioma diferente, para que puedan colaborar sin problemas en un proyecto de investigación o jugar juntos a un juego de realidad aumentada».
Cuando el RSC esté completamente construido, a finales de año, Meta pretende utilizarlo para entrenar modelos de IA con más de un billón de parámetros. Esto podría suponer un avance en campos como el procesamiento del lenguaje natural para tareas como la identificación de contenidos nocivos en tiempo real.
Además del rendimiento a escala, Meta aboga por la fiabilidad extrema, la seguridad, la privacidad y la flexibilidad para manejar una amplia gama de modelos de IA como sus criterios clave para RSC.
El superclúster de investigación de IA de Meta cuenta con cientos de sistemas NVIDIA DGX conectados a una red NVIDIA Quantum InfiniBand para acelerar el trabajo de sus equipos de investigación de IA.
La infraestructura de Meta
El nuevo superordenador de IA utiliza actualmente 760 sistemas NVIDIA DGX A100 como nodos de cálculo. Estos sistemas cuentan con un total de 6.080 GPU NVIDIA A100 conectadas a una red InfiniBand NVIDIA Quantum de 200 Gb/s para ofrecer 1.895 petaflops de rendimiento TF32.
A pesar de los desafíos de COVID-19, RSC tardó solo 18 meses en pasar de ser una idea sobre el papel a un superordenador de IA en funcionamiento; gracias, en parte, a la tecnología NVIDIA DGX A100 en la base de Meta RSC.
Penguin Computing es el socio de NVIDIA Partner Network para RSC. Además de los 760 sistemas DGX A100 y la red InfiniBand, Penguin proporciona servicios gestionados e infraestructura optimizada para la IA de Meta; compuesta por 46 petabytes de almacenamiento en caché con sus sistemas Altus. Pure storage FlasBlade y FlasArray//C proporcionan las capacidades de almacenamiento all-flash de alto rendimiento y escalabilidad necesarias para impulsar el RSC.
Aumento del rendimiento x20
Es la segunda vez que Meta elige las tecnologías de NVIDIA como base de su infraestructura de investigación. En 2017, Meta construyó la primera generación de dicha infraestructura de IA con 22.000 GPUs NVIDIA V100 Tensor Core que manejan 35.000 trabajos de entrenamiento de IA al día.
Las primeras pruebas de Meta mostraron que RSC puede entrenar grandes modelos de PNL 3 veces más rápido y ejecutar trabajos de visión por ordenador 20 veces más rápido que el sistema anterior.
En una segunda fase, a finales de año, RSC ampliará a 16.000 GPUs que proporcionarán 5 exaflops de rendimiento de IA de precisión mixta. Además, Meta pretende ampliar el sistema de almacenamiento de RSC para ofrecer hasta un exabyte de datos a 16 terabytes por segundo.
Una arquitectura escalable
Las tecnologías de IA de NVIDIA están disponibles para empresas de cualquier tamaño.
IEBS organiza el primer evento híbrido en el Metaverso sobre Transformación Digital en México
La pandemia cambió el mundo y la sociedad; la forma en que compramos, vivimos, nos relacionamos o aprendemos. Y lo sucedido solo ha sembrado la semilla de lo que está por venir. Por este motivo, IEBS Digital School organiza el primer Digital Transformation Summit en México, un evento híbrido: presencial, virtual y en el metaverso, donde se analizarán las 5 principales tecnologías que van a generar la próxima revolución digital.
Durante el evento se conocerán, de primera mano, tecnologías como la descentralización y el blockchain, la inteligencia artificial, el metaverso (AR, VR, XR) y los criptoactivos (NFTs, Tokens y criptodivisas); la Nube y la Automatización (RPA y Robótica) y, por supuesto, el edtech y la revolución educativa digital. También se descubrirá cómo estas tecnologías están cambiando el mundo tal y como lo conocemos gracias a la web 3.0 del futuro.
Por todo esto, grandes líderes expertos en digitalización se reunirán el próximo 2 de junio en un evento en el que compartirán sus experiencias y conocimientos en la aplicación de las tecnologías que están transformando el mundo.
Además, el Digital Transformation Summit CDMX contará con un espacio único para fomentar el networking entre los participantes y los expertos tanto en el mundo real como en el metaverso.
Agenda del Digital Transformation Summit
El programa de ponencias está compuesto por expertos de alto nivel:
Jorge Alor, Founder y CEO de BNN.
Óscar Fuente, Fundador de IEBS Digital School.
Baltazar Rodríguez, Technology Evangelist en IBM.
Esther Riveroll, Founder y CEO en Alldatum Business.
Sergio Porragas, Chief Operating Officer en OCCMuncial.com.
Jorge Villabona, CEO en Coders School.
Genaro Mejía, Top Voice de Linkedin y Director Académico de IEBS en México.
Abraham Cobos, Líder Global de Crypto en Bitso.
Juan Carlos Zamudio, de IUV Universidad.
Miguel Alegre, CEO en ISDI México.
El Digital Transformation Summit se llevará a cabo el próximo 2 de junio de forma híbrida en México desde las 18h; finalizando a las 21.00h con el networking.
¿Ha cambiado el mundo tras la crisis sanitaria? ¿Será la disrupción el papel que jugarán las nuevas tecnologías digitales? ¿Qué están haciendo las grandes organizaciones para aprovechar al máximo las oportunidades de futuro? Los asistentes a este Digital Transformation Summit MX22 descubrirán las respuestas a todas las preguntas y entenderán el valor de la tecnología con unos ponentes decididos a inspirar con sus ideas, conocimientos y nuevas capacidades.
Nuevas versiones de la plataforma y sus aplicaciones; lanzamiento de pruebas de Omniverse Enterprise llave en mano; nuevas conexiones con la robótica, la automatización industrial, el diseño 3D y el renderizado.
Más de 150.000 personas han descargado ya NVIDIA Omniverse para dar el salto a la transformación de los flujos de trabajo de diseño 3D y alcanzar nuevas cotas de simulaciones en tiempo real y con gran precisión física.
NVIDIA anunció en el Keynote de su evento anual GTC nuevas versiones y actualizaciones para Omniverse (incluidos los últimos conectores y librerías añadidos a la plataforma); que multiplican por 10 el ecosistema y hacen que esta herramienta sea aún más accesible para creadores, desarrolladores, diseñadores, ingenieros e investigadores de todo el mundo.
NVIDIA Omniverse Enterprise está ayudando a las principales empresas a mejorar sus procesos y flujos de trabajo creativos. Por ejemplo, entre los nuevos clientes de Omniverse Enterprise se encuentran Amazon, DB Netze, DNEG, Kroger, Lowe’s y PepsiCo; que están utilizando la plataforma para construir gemelos digitales físicamente precisos o desarrollar experiencias inmersivas realistas para los clientes.
Fuente: NVIDIA
Mejora la creación de contenidos con nuevas conexiones y bibliotecas
El ecosistema Omniverse se está expandiendo más allá del diseño y la creación de contenidos. En un año, las conexiones y las formas de integrarse con la plataforma se han multiplicado por 10.
Nuevas conexiones de terceros: Adobe Substance 3D Material Extension y Painter Connector, Epic Games Unreal Engine Connector y Maxon Cinema 4D. Permitirán flujos de trabajo sincronizados entre aplicaciones de terceros y Omniverse.
Nuevos importadores CAD: su tarea es la de convertir los 26 formatos comunes de CAD al lenguaje USD (Universal Scene Description) para facilitar los flujos de trabajo de fabricación y diseño en Omniverse.
Nuevas integraciones de bibliotecas de recursos: los recursos de TurboSquid by Shutterstock, Sketchfab y Reallusion ActorCore están ahora disponibles dentro de los navegadores de recursos de Omniverse Apps para que los usuarios puedan buscar, arrastrar y soltar cerca de 1 millón de recursos 3D.
Nueva compatibilidad y soporte con Hydra: los usuarios pueden integrar y alternar entre sus renderizadores favoritos soportados por Hydra y Omniverse RTX Renderer dentro de Omniverse Apps. La versión beta para Chaos V-Ray, Maxon Redshift y OYOY Octane ya está disponible; y se espera, próximamente, la de Blender Cycles y Autodesk Arnold.
Fuente: NVIDIA
También hay nuevas conexiones con desarrolladores de software de automatización industrial y gemelos digitales. Bentley Systems, la empresa de software de ingeniería de infraestructuras, ha anunciado la disponibilidad de Lumen RT. En definitiva, este software pone a disposición de unos 39.000 clientes de Bentley Systems una visualización de precisión física a escala industrial. Ipolog, un desarrollador de software de fábrica, logística y planificación, ha lanzado tres nuevas conexiones a la plataforma. Esto, unido al creciente ecosistema de robótica de Isaac Sim, permite a empresas como BMW Group desarrollar mejor gemelos digitales integrales.
Ampliación de funciones y disponibilidad de Omniverse Enterprise
Pronto llegarán nuevas actualizaciones a la plataforma, incluidas las últimas versiones de Kit 103, Create and View 2022.1, Farm y DeepSearch.
Omniverse Enterprise en NVIDIA LaunchPad ya está disponible en nueve regiones del mundo. LaunchPad ofrece a los profesionales del diseño y a los revisores de proyectos un acceso instantáneo y gratuito a Omniverse Enterprise Labs, lo que les ayuda a tomar decisiones más rápidas y seguras sobre el software y la infraestructura.
Los clientes impulsan la innovación con Omniverse Enterprise
Amazon cuenta con más de 200 instalaciones robotizadas que gestionan millones de paquetes cada día. En otras palabras, se trata de una operación compleja que requiere más de medio millón de robots móviles para apoyar la logística del almacén. Gracias a Omniverse Enterprise e Isaac Sim, Amazon Robotics está construyendo con IA gemelos digitales de sus almacenes para optimizar el diseño y el flujo del almacén y entrenar soluciones robóticas más inteligentes.
Fuente: NVIDIA
PepsiCo está estudiando el uso de gemelos digitales impulsados por Omniverse Enterprise y Metropolis para mejorar la eficiencia y la sostenibilidad medioambiental de su cadena de suministro de más de 600 centros de distribución en 200 mercados regionales.
“NVIDIA Omniverse nos ayudará a agilizar las operaciones de la cadena de suministro y a reducir el uso de energía y residuos, al tiempo que avanzamos en nuestra misión hacia la sostenibilidad. Cuando estudiemos nuevos productos y procesos, utilizaremos gemelos digitales para simular y probar modelos y entornos en tiempo real antes de aplicar los cambios a los centros de distribución físicos”
Qi Wang, vicepresidente de Investigación y Desarrollo de PepsiCo.
Fuente: NVIDIA
Por su parte, Lowe’s Innovation Labs está explorando cómo Omniverse puede ayudar a desbloquear la próxima generación de sus tiendas. Está utilizando la plataforma para ampliar los límites de lo que es posible en los gemelos digitales, la simulación y las herramientas avanzadas que eliminan la fricción para los clientes y los asociados.
Kroger tiene previsto utilizar la herramienta para optimizar la eficiencia y los procesos de las tiendas con la simulación de tiendas como gemelos digitales.
Subiendo el listón de los gemelos digitales industriales
NVIDIA presentó en el GTC NVIDIA OVX, una arquitectura de sistemas de computación diseñada para impulsar gemelos digitales a gran escala. NVIDIA OVX está diseñada para realizar simulaciones complejas que se ejecutarán en Omniverse; lo que permitirá a diseñadores, ingenieros y planificadores crear gemelos digitales físicamente precisos y entornos de simulación masivos y fieles a la realidad.
Últimas tecnologías y funciones de Omniverse
Las principales novedades y capacidades anunciadas para Omniverse incluyen:
Nuevas herramientas para desarrolladores: Omniverse Code, una aplicación que sirve como entorno de desarrollo integrado para los desarrolladores; permite a los usuarios crear fácilmente sus propias extensiones, aplicaciones o microservicios de Omniverse.
DeepSearch: un nuevo servicio de búsqueda basado en IA que permite a los usuarios buscar rápidamente en bibliotecas masivas de recursos 3D sin etiquetar utilizando lenguaje natural o imágenes.
Omniverse Replicator: un marco de trabajo para generar datos sintéticos 3D físicamente precisos para acelerar el entrenamiento y la precisión de las redes de percepción. (Disponible en Omniverse Code para que los desarrolladores puedan construir sus propios motores de datos sintéticos específicos de dominio).
OmniGraph, ActionGraph y AnimGraph: importantes novedades que controlan el comportamiento y la animación.
Omniverse Avatar: una plataforma que utiliza la tecnología de IA y simulación para permitir a los desarrolladores construir avatares personalizados, inteligentes y realistas.
Aplicación Omniverse XR: una configuración de Omniverse View optimizada para la realidad virtual que permite a los usuarios experimentar sus escenas 3D de máxima fidelidad con trazado de rayos RTX (ray tracing).
Nuevas versiones de Omniverse Kit, Create, View y Machinima.
Omniverse Cloud
Omniverse Cloud es un conjunto de servicios en la nube que ofrece a artistas, creadores, diseñadores y desarrolladores acceso instantáneo a la plataforma NVIDIA Omniverse para la colaboración y simulación de diseños 3D.
Nucleus Cloud: una herramienta de uso compartido que permite a los artistas acceder a grandes escenas 3D y editarlas desde cualquier lugar; sin necesidad de transferir enormes conjuntos de datos.
Omniverse Create: una aplicación para que diseñadores técnicos, artistas y creadores construyan mundos 3D de forma interactiva y en tiempo real.
Omniverse View: una aplicación para que los usuarios no técnicos puedan ver las escenas de Omniverse en streaming con toda la capacidad de simulación y renderización utilizando la plataforma NVIDIA GeForce NOW, impulsada por las GPU NVIDIA RTX en la nube.
Fuente: NVIDIA
PUESTA EN MARCHA
“Los diseñadores que trabajan a distancia colaboran como si estuvieran en el mismo estudio; los planificadores de fábrica trabajan dentro de un gemelo digital de la planta real para diseñar un nuevo flujo de producción; los ingenieros de software prueban una nueva versión del software en el gemelo digital de un coche autoconducido antes de lanzarlo a circulación. Se avecina una nueva ola de trabajo que solo puede realizarse en mundos virtuales; Omniverse Cloud conectará a decenas de millones de diseñadores y creadores y a miles de millones de futuras IA y sistemas robóticos”.
Jensen Huang, fundador y consejero delegado de NVDIA.
En su discurso de presentación en el GTC, Huang mostró una demo del futuro del diseño en la que tres diseñadores reales y un diseñador IA especializado en Omniverse Avatar colaboraban virtualmente en Omniverse Cloud, realizando cambios de diseño en un proyecto arquitectónico.
El equipo conversó utilizando una herramienta estándar de conferencia web, mientras estaban conectados en una escena alojada en Nucleus Cloud. Uno de los diseñadores ejecutó la aplicación Omniverse View en su estación de trabajo con tecnología RTX; mientras que los otros dos transmitieron Omniverse View desde GeForce NOW a su portátil y Tablet.
“En KPF, líder mundial en diseño arquitectónico, valoramos la capacidad de nuestros diseñadores para colaborar de la forma más fluida posible; poniendo a su disposición tecnologías en la nube cuando las necesitan. Omniverse Cloud encaja perfectamente en esa práctica con la promesa de sobresalir en nuestras capacidades de colaboración de diseño visual y 3D al permitir a nuestros equipos trabajar en Omniverse desde cualquier dispositivo y en cualquier lugar”.
Cobus Bothma, director de Investigación Aplicada de Kohn Pedersen Fox Associates.
Aún, la colección completa de servicios de Omniverse Cloud está en desarrollo.
La posibilidad de llegar a observar átomos parecía imposible hasta no hace mucho tiempo con la invención del Microscopio de Efecto Túnel (STM).
En el año 2021 se celebró el 40º aniversario de la invención de esta innovadora herramienta; ocasión que aprovecharon varios investigadores del CSIC (Consejo Superior de Investigaciones Científicas) para producir un pequeño documental conmemorando este hecho tan importante para la ciencia. Además, sirvió también de homenaje a dos investigadores y profesores de la Universidad Autónoma de Madrid (UAM): José María Gómez Rodríguez y Juan José Sáenz Gutiérrez. Ambos, pioneros en el desarrollo de esta técnica en España y fallecidos en 2020.
Este documental es una iniciativa del Instituto de Micro y Nanotecnología (CSIC-IMN), el Instituto de Ciencia de Materiales de Madrid (CSIC-ICMM) y la Delegación del CSIC en Madrid.
STM: entrando en el nanomundo
Heinrich Rohrer y Gerd Binning, investigadores del laboratorio de IBM en Zúrich, construyeron el primer Microscopio de Efecto Túnel (STM, por sus siglas en inglés Scanning Tunnelling Microscope); esta invención les convirtió en ganadores del Premio Nobel de Física en 1986.
El nanómetro es la unidad de longitud del Sistema Internacional de Unidades que equivale a una millonésima parte de un milímetro; es decir, algo nanométrico es 1000 veces más que pequeño que una micra; y ésta, a su vez, es 1000 veces más pequeña que un milímetro.
El STM está formado por una punta metálica muy afilada que se acerca a la superficie que se quiere estudiar a una distancia inferior a un nanómetro. De esta forma, los electrones saltan entre la punta y la muestra, dando lugar a la corriente de efecto túnel. Cuando la punta del microscopio se mueve lateralmente sobre la superficie del material que se pretende estudiar, va describiendo los perfiles que exponen cómo es esa muestra.
Con esta técnica, no solo se pueden obtener imágenes de las distintas superficies observadas, sino que éstas también se van a poder modificar a escala nanométrica.
El STM requiere trabajar in-situ al vacío o a muy baja temperatura (evitando la oxidación y la contaminación de la superficie).
AFM: mejorando la técnica
El STM permite visualizar, estudiar y manipular átomos, sin embargo, cuenta con una limitación: la muestra debe permitir la conducción de corriente eléctrica. Por este motivo, todos los materiales aislantes no pueden estudiarse a escala nanométrica a través de esta técnica.
La solución a este problema llegó con el Microscopio de Fuerzas Atómicas (AFM, por sus siglas en inglés Atomic Force Microscope).
Una punta muy afilada colocada en el extremo de una palanca va palpando la superficie de la muestra obteniendo un mapa topográfico en la nanoescala.
Gracias a este nuevo microscopio, las imágenes obtenidas pueden representarse en 3D con ayuda de un software. Además, este método es efectivo en condiciones ambientales (no requiere trabajar en vacío); y puede ser aplicado, tanto a materiales aislantes, como a semiconductores y conductores.
Todas las técnicas que se desarrollaron a partir de este descubrimiento se engloban bajo el nombre de Microscopías de Sonda de Barrido (SPM, por sus siglas en inglés Scanning Probe Microscopy).
Las SPM (llamadas así porque consisten en una sonda (punta) que “barre” la superficie de una muestra) o microscopías de proximidad, han sido fundamentales para la expansión de la nanotecnología y la observación del comportamiento de los átomos en la naturaleza, porque son la forma ideal de obtener información de un objeto.
40 años viendo átomos
A continuación, el documental completo dirigido por Agustina Asenjo, Pedro Serena y José Miguel García (investigadores científicos del ICMM y del IMN).
Fuente: CSIC
Las aplicaciones de las SPM
En el ámbito de las microscopías STM y AFM es fundamental la simulación de las nanoestructuras que se desean observar para entender mejor las señales (ya sean corrientes o fuerzas) que se detectan experimentalmente con estas herramientas que nos permiten observar el nanomundo.
Aunque los sistemas que se observan son relativamente pequeños (son nanométricos) están formados por cientos de miles de átomos de diferentes especies, interaccionando entre sí y con la punta que se usa como sonda tanto en el STM como en el AFM.
Resolver las ecuaciones dinámicas del sistema conjunto requiere aplicar métodos de Dinámica Molecular (cuántica o semiclásica, según el grado de aproximación deseado); que a su vez implica manejar algoritmos complejos que tienen en cuenta la dinámica de millones de variables (posiciones, velocidades, etc.).
Es aquí donde los sistemas basados en varias GPUs con miles de cores, como los que comercializa Azken Muga, permiten abordar el estudio de procesos dinámicos en nanosistemas complejos durante tiempos de varios nanosegundos.
“Estas herramientas nos han permitido entender diferentes cuestiones como la manera en la que determinadas proteínas (en particular anticuerpos) se adsorben* sobre superficies de grafeno, el material del siglo XXI; cómo funcionan ciertos biosensores inspirados en el AFM; determinar el código escondido en una secuencia de ADN; o desvelar la diferencia entre fricción estática o dinámica, por indicar algunos ejemplos”.
Pedro Serena, investigador científico del ICMM
*Adsorber es atraer y retener algo en la superficie de otro algo. Ej.: El imán adsorbió las virutas de hierro. Absorber es atraer y retener algo en el interior de otro algo. Ej.: La esponja absorbió el agua.
La información del calibre y distribución por tallas del pescado en primera venta es un dato de gran importancia tanto a nivel comercial como de gestión de los recursos marinos
La Universitat Politècnica de Catalunya (UPC) colabora con diferentes Cofradías de Pescadores de Cataluña con el objetivo de realizar un proyecto piloto consistente en un sistema computer vision que aprovecha los avances de Deep Learning para calibrar automáticamente los ejemplares de pescado y extraer datos de tamaño y frescura.
El desarrollo de este está liderado por los profesores Vicenç Parisi, José Antonio Soria y Lluís Ferrer.
Introducción
La preservación de los recursos pesqueros y el mantenimiento y mejora de la actividad económica a su alrededor es fundamental para la sociedad.
Los estudios científicos y gubernamentales sobre el estado de los stocks de pesca coinciden, junto con los datos estadísticos en nuestro país, en la tendencia decreciente de la evolución de las capturas. Y, aunque los precios del pescado han aumentado, los ingresos reales de los pescadores siguen disminuyendo.
Todo ello pronostica la desaparición futura, tanto de los recursos pesqueros, como de la actividad en su entorno si no se actúa adecuadamente.
Para garantizar la continuidad de estos recursos y mejorar la eficiencia de la industria pesquera y la economía de las sociedades costeras, la Unión Europea ha estado introduciendo a lo largo de los últimos años una serie de medidas, planes de gestión, limitaciones de pesca y requerimientos ambientales que necesitan datos reales y detallados sobre capturas para poder analizar correctamente la situación.
Los efectos positivos de tener calibrados los productos pesqueros son muy importantes:
Permiten y mejoran las transacciones comerciales entre operadores situados en mercados diferentes.
Posibilitan la venta por internet con mayor detalle.
Ayudan a implementar los planes de gestión de la actividad pesquera.
Reducen la comercialización de pescado por debajo de la talla mínima reglamentaria.
El proyecto de la UPC
La teoría
El principal objetivo de este proyecto es, pues, determinar estos calibres de una manera más eficiente y exacta y diseñar sistemas que permitan calibrar un mayor número de ejemplares.
Los sistemas basados en Deep Learning utilizan modelos de redes neuronales artificiales que emulan el comportamiento de las neuronas, pudiendo aprender patrones complejos.
En este sentido, existe una arquitectura de Deep Learning llamada Convolutional Neural Network (CNN) que ha dad muy buenos resultados en el reconocimiento de objetos en imágenes.
En dicha arquitectura la información de cada imagen se procesa en distintas capas:
Las primeras capas aprenden a reconocer rasgos primitivos básicos, como líneas.
Las capas intermedias combinan estos rasgos básicos para formar siluetas, esquinas o partes de objetos.
Las últimas capas aprenden a ordenar estas partes para formar un objeto o hacer una clasificación.
Ejemplo de procesamiento de imagen con CNN: Las primeras etapas extraen las características básicas («features») de la imagen y las últimas etapas clasifican el objeto. Fuente: UPC
La práctica
En resumen, lo que pretende la UPC con este proyecto es desarrollar un sistema basado en computer vision, utilizando metodologías Deep Learning para clasificar las especies pesqueras en las lonjas.
Este sistema tiene el objetivo de determinar el calibre (relación tamaño-peso) para alertar de la presencia de ejemplares por debajo de la talla mínima de referencia, así como ayudar a reconocer ejemplares dañados.
En la implementación, una de las mejores formas de extraer el calibre es realizar una segmentación (identificación) de los píxeles que conforman cada especie.
Detección mediante CNN de los píxeles correspondientes a cada ejemplar. Fuente: UPC
A partir de esta segmentación de ejemplares y de la resolución de la imagen (píxeles/mm2) se pueden obtener medidas del área, el perímetro y la longitud de todo el ejemplar (o de las partes visibles si hay oclusiones); así como determinar si existen ejemplares dañados.
Para conseguir esto, es necesario seguir los siguientes pasos:
Segmentar manualmente la base de datos de imágenes para crear un conjunto de entrenamiento, test y validación del sistema.
Entrenar la red neuronal y refinar los parámetros.
Calcular las longitudes de los ejemplares de interés.
Finalmente, cuando el proyecto se lleve a la lonja, se instalará una cámara y un ordenador que informará de la distribución por calibres de las cajas de pescado. Además, se recogerán datos, como el precio de venta, el peso o la temperatura, para realizar un análisis posterior de los resultados obtenidos.
Beneficios del proyecto
Fomento de la pesca sostenible: el comprador tendrá más información del producto y su calidad; al mismo tiempo, se elegirán mejor las especies capturadas (evitando, de este modo, pescar ejemplares por debajo de determinado calibre).
Eficiencia en el uso de los recursos: las actividades o días de pesca se planificarán mejor a lo largo del año, manteniendo así la relación calidad-precio.
Innovación: se aplicarán tecnologías de última generación a un sector con prácticas bastante tradicionales.
Competitividad: permitirá una mejor comercialización a distancia por internet y dará un valor añadido a los productos pesqueros.
Actividad basada en conocimiento: se recogerán datos muy importantes para realizar análisis y monitorización útiles, tanto en la gestión como en la comercialización de la pesca. Además, se podrá automatizar y escalar la recogida de datos.
La aportación de Azken para la UPC
Para desarrollar este proyecto con éxito es necesario un hardware lo suficientemente potente como para poder entrenar bien las CNN en el menor tiempo posible y para poder detectar los peces en tiempo real.
La UPC escogió a Azken Muga como proveedor de soluciones hardware. Concretamente, la máquina elegida para el desarrollo del proyecto fue una M-Series DX-21.