Tesis del Laboratorio de Procesamiento de Imágenes
Trabajo Final de Grado: Automatización del Análisis Morfológico de Adipocitos en Tejido Mamario Tumoral
Este trabajo presenta el desarrollo de una herramienta computacional basada en aprendizaje automático para automatizar la identificación de adipocitos multivacuolados (fenotipo beige) en el microambiente tumoral del cáncer de mama. Dirigido por Gustavo Javier MESCHINO y Diego Sebastián COMAS, junto con la Dra. Bioquímica Judith TONEATTO, el proyecto aborda la dificultad del análisis manual, que resulta laborioso y subjetivo ante cambios morfológicos sutiles. Se evaluaron seis arquitecturas de redes neuronales convolucionales (CNN): dos modelos básicos diseñados desde cero y cuatro basados en aprendizaje por transferencia (ResNet50, EfficientNetB4, MobileNetV2 y AlexNet). Los resultados demostraron que los modelos preentrenados superaron significativamente a las CNN simples, alcanzando exactitudes superiores al 99%. El modelo V6 (AlexNet) destacó por su robustez y precisión espacial en la generación de mapas de calor mediante Grad-CAM, lo que evidenció una alta concordancia con las validaciones de expertos. Complementariamente, se integró un algoritmo de procesamiento digital de imágenes, con segmentación morfológica y transformada de Hough, para detectar clústeres de vacuolas pequeñas. Esta herramienta representa un avance significativo para la investigación clínica, permitiendo cuantificar la organización espacial del tejido adiposo y su rol en la progresión tumoral, facilitando el desarrollo de futuras estrategias terapéuticas innovadoras
Trabajo Final de Grado: Sistema de Análisis de Datos y Soporte a la Toma de Decisiones Basado en Mapas Autoorganizados “VisualiSOM”
El proyecto "VisualiSOM", desarrollado por Lisandro D’Alú De Boni, María Camila Ezama y Augusto Maletta bajo la dirección de Gustavo Javier MESCHINO y Diego Sebastián COMAS, consistió en la creación de una herramienta interactiva para el análisis de datos multivariable mediante Mapas Autoorganizados (SOM). El sistema se diseñó con una arquitectura cliente-servidor, empleando Flutter para una interfaz web intuitiva y una API en Python (Flask) para el procesamiento y entrenamiento no supervisado de redes neuronales. VisualiSOM permite a investigadores cargar archivos CSV, configurar hiperparámetros y visualizar patrones complejos mediante mapas bidimensionales, grillas de distancias (U-Matrix) y mapas de componentes, eliminando la necesidad de programar. Además de la exploración de datos generales, la herramienta incluye módulos avanzados para el agrupamiento (clustering), la clasificación de nuevos datos y la segmentación de imágenes médicas, lo que permite reconstrucciones visuales mediante coloreado continuo o mediante clústeres. El proyecto culminó con éxito, cumpliendo los objetivos de accesibilidad y escalabilidad, y proporcionando un manual de uso y software documentado para facilitar la toma de decisiones basada en la identificación de tendencias y relaciones inherentes en grandes volúmenes de datos.
Trabajo Final de Grado: Medidor de Bioimpedancia para Tareas de Investigación de la Facultad de Psicología de la UNMdP
La bioimpedancia destaca como un método no invasivo y versátil para estimar la composición corporal y analizar tejidos, y está ganando terreno tanto en la medicina como en la investigación académica. En este contexto, se desarrolló un sistema de medición orientado a satisfacer las necesidades de investigación de la Facultad de Psicología de la UNMdP, enfocado en registrar la variación temporal de la impedancia de la piel ante estímulos audiovisuales. El dispositivo funciona mediante la inyección de una corriente alterna de 50 kHz en el antebrazo, procesando la tensión resultante mediante técnicas de multiplicación y filtrado para obtener valores precisos de módulo y fase. Los datos se visualizan en tiempo real mediante una interfaz gráfica y se exportan en formato .csv para su análisis estadístico posterior, lo que permite contrastar las respuestas subjetivas de los usuarios con sus reacciones fisiológicas. Construido con componentes discretos y bajo procesos no industrializados, el prototipo garantizó la seguridad del sujeto mediante aislación eléctrica y demostró un desempeño notable con un error relativo máximo de solo 2,5 %. Finalmente, el sistema se entregó con éxito al grupo de Psicología, cumpliendo con los estándares de fiabilidad y facilidad de uso requeridos para estudios de comportamiento humano.
Trabajo Final de Grado: Detección de Movimientos del Globo Ocular Mediante Procesamiento Digital de Imágenes para la Interacción Persona-Computadora
Este Trabajo Final propone un sistema de interacción persona-computadora que permite controlar un cursor mediante el movimiento del globo ocular utilizando únicamente una cámara web convencional. La metodología emplea el algoritmo de Viola-Jones para definir la región de interés y la Transformada de Hough para segmentar el iris , incorporando un objeto físico "testigo" en la frente del usuario para establecer un sistema de referencia robusto ante movimientos de la cabeza. Implementado en MATLAB, el sistema permite la calibración personalizada de los extremos de la mirada, ajustes de iluminación y la detección de gestos, como los guiños, para simular clics del mouse. Los resultados demostraron una respuesta fluida en tiempo real a 30 cuadros por segundo con un bajo error en la localización del centro del iris , planteándose como trabajo futuro la aplicación de redes neuronales convolucionales para optimizar la precisión del seguimiento.
Representación simplificada de señales unidimensionales y bidimensionales para la extracción de información real
Enmarcada en proyectos de investigación de la UNMDP, CONICET y la UTN, esta tesis propone un método innovador para representar la información de una señal, con el fin de facilitar la extracción de conocimiento. La idea principal se basa en la unión de trayectorias simplificadas que mantienen la estructura intrínseca de la señal, minimizando la información redundante.
El objetivo no es comprimir la señal, sino conservar su estructura informativa para hacer más eficientes los procesos de inferencia. Al eliminar la redundancia, que ralentiza el análisis y genera "ruido", se puede deducir rápidamente el comportamiento general de la señal.
La propuesta se destaca por su capacidad para operar en tiempo real. Esto se logra mediante algoritmos simples y eficaces que, durante la propia adquisición, descartan muestras cuyo valor puede ser inferido de su entorno cercano, utilizando operaciones lógicas y aritméticas básicas. Este enfoque evita demoras significativas en el procesamiento.
La eficiencia de esta representación ha sido validada a través de su implementación exitosa en sistemas embebidos para aplicaciones reales, demostrando ser una herramienta potente para el desarrollo de sensores inteligentes y la extracción de conocimiento.
Segmentación y seguimiento de objetos móviles en secuencias de imágenes biomédicas
Para el desarrollo de la presente tesis se analizaron secuencias de imágenes biomédicas que contienen el movimiento de organismos unicelulares y partículas suspendidas en fluidos, adquiridas mediante técnicas de microscopía. En este ámbito particular, la detección se simplifica debido a la presencia de condiciones controladas de iluminación, y se centra la atención en los métodos de seguimiento y análisis de movimiento. Por otra parte, los distintos tipos de objetos analizados en las secuencias permiten el uso de diferentes representaciones, y además ellos describen distintos tipos de movimiento, por lo cual es deseable que el método de seguimiento a utilizar sea adaptable a diferentes situaciones. En vista de lo anterior, la presente tesis propone como objetivo general desarrollar métodos de visión por computador que permitan realizar la detección y el seguimiento de organismos unicelulares en secuencias de imágenes, de manera independiente a las representaciones utilizadas.
Trabajo Final de Grado: Sistema de Adquisición, Digitalización y Procesamiento de Sonidos Cardíacos y Respiratorios en Neonatos
El trabajo consistió en el desarrollo de un dispositivo electrónico diseñado para la valoración sonográfica neonatal en tiempo real. El equipo utiliza cinco micrófonos electret de alta sensibilidad para capturar simultáneamente señales cardiofonográficas y fonográficas pulmonares, superando las limitaciones del estetoscopio tradicional al permitir el monitoreo continuo en unidades de cuidados intensivos sin interferir con maniobras de emergencia. El sistema incluye una etapa de acondicionamiento con amplificadores completamente diferenciales y filtros pasabanda específicos para cada tipo de sonido, un conversor analógico-digital de 16 bits controlado por un microcontrolador PIC18F2550 y una interfaz en MATLAB para la visualización, grabación y reproducción de datos. Los resultados validaron la capacidad del prototipo para adquirir sonidos con una frecuencia de muestreo de 11 kHz, lo que facilita la creación de registros clínicos digitales y abre la posibilidad de realizar diagnósticos avanzados mediante técnicas de Deep Learning y lógica difusa. Este desarrollo representa un avance significativo en la detección temprana de patologías como la neumonía intrahospitalaria o el distrés respiratorio en bebés prematuros.
Registración y fusión de imágenes médicas mediante técnicas de optimización estadística e inteligencia computacional
Este trabajo de tesis aborda el problema de la registración de imágenes médicas, un proceso que busca alinear geométricamente imágenes de un mismo paciente adquiridas en diferentes momentos o con distintas tecnologías (ej. resonancia magnética y tomografía). Este alineamiento es crucial para comparar información, fusionar datos y como paso previo a análisis más complejos como la segmentación de tumores.
La investigación explora esta temática desde tres perspectivas innovadoras:
Optimización Estocástica: Se aplican algoritmos inspirados en sistemas biológicos, como las colonias de hormigas o las colmenas de abejas, para encontrar la alineación óptima entre las imágenes.
Extracción de Características: Se desarrolla un método, basado en técnicas como SIFT y SURF, para identificar de forma automática puntos anatómicos clave que son invariantes a transformaciones geométricas. Estos puntos sirven como anclas para guiar el proceso de registración.
Inteligencia Computacional: Se propone el uso del aprendizaje por refuerzo y el aprendizaje por refuerzo profundo (Deep Reinforcement Learning). Mediante este enfoque, un agente de inteligencia artificial aprende a registrar las imágenes de manera autónoma, interactuando directamente con ellas y mejorando su desempeño a través de la experiencia.
El objetivo central es ofrecer una visión renovada de la registración, demostrando que estos métodos modernos son alternativas prometedoras y competitivas frente a las técnicas tradicionales del campo.
Trabajo Final de Grado: Sistema de Adquisición y Transmisión de Señales Biomédicas Vía Web, para Monitoreo a Distancia
El trabajo final de Sciarrone y Bracciale Sauro, dirigido por Eduardo Luis Blotta y Gustavo Javier Meschino, describe el desarrollo de un sistema portátil y de bajo costo para la adquisición y la transmisión remota de señales electrocardiográficas (ECG). El dispositivo utiliza un conversor analógico-digital ADS1299 de 24 bits y bajo ruido, diseñado específicamente para instrumentación médica, y un sistema embebido basado en la arquitectura ARM Cortex-M4 con un sistema operativo en tiempo real (RTOS). Para la telemetría, el proyecto emplea el concepto de Internet de las Cosas (IoT) mediante el protocolo de mensajería ligero MQTT, elegido por su eficiencia en redes de alta latencia y bajo consumo de recursos. La solución incluye una aplicación web que permite a los profesionales visualizar los datos en tiempo real, aplicar filtros digitales para eliminar las interferencias de 50 Hz y exportar la información para su análisis en herramientas como MATLAB. Los resultados experimentales confirmaron la precisión del sistema al obtener morfologías y valores de ondas P, complejas QRS y ondas T alineados con los estándares clínicos. Este avance facilita el acceso a diagnósticos médicos inmediatos y remotos, especialmente en sectores vulnerables o con movilidad reducida.
Lógica difusa tipo 2 de intervalos en segmentación de imágenes médicas
Lógica difusa tipo 2 de intervalos en segmentación de imágenes médicas
Técnicas de clasificación supervisada aplicadas a datos genéticos de alta densidad
Técnicas de clasificación supervisada aplicadas a datos genéticos de alta densidad
Aprendizaje computacional y morfología matemática aplicados al procesamiento de imágenes biomédicas
Aprendizaje computacional y morfología matemática aplicados al procesamiento de imágenes biomédicas
Caracterización de patrones de speckle dinámico mediante técnicas de morfología matemática
Caracterización de patrones de speckle dinámico mediante técnicas de morfología matemática
Segmentación en imágenes médicas mediante técnicas de Morfología Matemática Difusa
Segmentación en imágenes médicas mediante técnicas de Morfología Matemática Difusa
Distancias no-euclídeas aplicadas al procesamiento de imágenes médicas
Distancias no-euclídeas aplicadas al procesamiento de imágenes médicas
Segmentación morfológica Watershed en imágenes médicas: métodos de selección de marcadores
Segmentación morfológica Watershed en imágenes médicas: métodos de selección de marcadores.
Modelos Híbridos de Inteligencia Computacional Aplicados en la Segmentación de Imágenes de Resonancia Magnética
Esta tesis propone un novedoso marco de inteligencia computacional híbrida para la segmentación de Imágenes por Resonancia Magnética (IRM) del cerebro. El objetivo principal de la tesis es superar las limitaciones de la segmentación manual, que es tediosa y subjetiva, creando un sistema automatizado, robusto y adaptable. El método propuesto, denominado PDLC (Predicados Difusos y Lógica Compensatoria), traduce el conocimiento lingüístico, cualitativo e impreciso de los especialistas en diagnóstico por imágenes (por ejemplo, "el líquido cefalorraquídeo se ve oscuro en las imágenes T1 y muy intenso en las T2") a un conjunto de predicados lógicos difusos formales. El sistema cuantifica el valor de verdad de estos predicados para cada píxel mediante funciones de pertenencia difusas que representan conceptos como "oscuro", "gris" o "intenso". Una innovación clave es el uso de operadores de la Lógica Difusa Compensatoria (LDC), que demostraron ser más eficaces para esta aplicación que los operadores tradicionales MIN/MAX. Para garantizar la precisión y la adaptabilidad a imágenes de distintas fuentes, los parámetros de estas funciones difusas se optimizan automáticamente mediante un Algoritmo Genético (AG). Esta optimización se guía por un pequeño conjunto de píxeles previamente clasificados de una imagen de referencia. El rendimiento del método se validó rigurosamente tanto en conjuntos de datos de IRM simuladas, con distintos niveles de ruido y distorsión, como en dos conjuntos diferentes de imágenes clínicas reales procedentes de distintos equipos. Los resultados demuestran que el sistema propuesto es computacionalmente eficiente y robusto. Al compararlo con otros algoritmos de segmentación —incluidos K-Means, Fuzzy-C-Means, Redes Neuronales y software establecido como BRAINS—, el método PDLC obtuvo en general una calidad de segmentación superior o comparable, medida por el Coeficiente de Tanimoto y otras métricas. La tesis concluye que este enfoque híbrido crea con éxito una herramienta objetiva, repetible y eficiente para asistir en el análisis cuantitativo de los tejidos cerebrales en el ámbito clínico y de investigación.
Trabajo Final de Grado: DeepZ-Plankton: Clasificador y Cuantizador de Zooplancton Implementado con Redes Neuronales
Este Trabajo Final de Grado, titulado DeepZ-Plankton, consiste en el desarrollo de un sistema automatizado para la identificación, clasificación y cuantificación de organismos de zooplancton mediante técnicas de visión por computadora y aprendizaje profundo. El proyecto surge para resolver un cuello de botella en el INIDEP, donde el gran volumen de muestras recolectadas desde la década de 1980 supera la capacidad de clasificación manual de los especialistas.El sistema utiliza arquitecturas modernas de redes neuronales convolucionales y transformers, como ResNet, EfficientNet y DenseNet, entrenadas con un conjunto de datos inicial de más de 15.000 imágenes de 26 clases. El objetivo principal es alcanzar una precisión superior al 90%, optimizando el flujo de trabajo de los investigadores para que puedan centrarse en el análisis de datos y no en la tarea repetitiva de clasificación.Además del modelo, el proyecto incluye una interfaz de usuario que permite el procesamiento por lotes, la visualización de la segmentación en tiempo real y la generación de reportes taxonómicos en formato CSV. El trabajo se desarrolla bajo la dirección de Gustavo Javier MESCHINO y Diego Sebastián COMAS, con la dirección disciplinar de Luciano Martín CHIAVERANO y Rosana Patricia DI MAURO, del INIDEP.
Descubrimiento de conocimiento en imágenes médicas a partir de modelos de inteligencia artificial
Las imágenes médicas permiten la detección de tejidos, evaluación, diagnóstico y planificación clínica, entre otras tareas. Con el avance de la tecnología, continuamente se presentan nuevos tipos de imágenes médicas y se perfeccionan las existentes. Este avance aumenta sustancialmente la información médica disponible y presenta nuevos requerimientos para su análisis y aprovechamiento.
En este contexto, los modelos de Inteligencia Artificial (IA) aplicados en Reconocimiento de Patrones permiten identificar regiones (segmentar) o clasificar imágenes completas. Existe un creciente interés y necesidad de conocer por qué un sistema de IA toma una determinada decisión. Los modelos de IA explicables (XAI, del inglés eXplainable Artificial Intelligence), permiten el descubrimiento de conocimiento, es decir, la extracción automatizada pero no trivial de información implícita, previamente desconocida y potencialmente útil, a partir de datos. En el contexto de imágenes médicas, la XAI puede aportar nuevo conocimiento al especialista respecto al tipo de imágenes estudiadas, o al problema de segmentación, con un aporte directo al estudio y la solución de problemas, contribuyendo a la mejora y optimización de las técnicas de diagnóstico, evaluación y detección de patologías a partir de imágenes.
Se propone en este Plan de Trabajo el estudio y desarrollo de métodos de extracción/descubrimiento de conocimiento a partir de modelos de XAI, incluyendo: a) el desarrollo de nuevos métodos de generación automática de sistemas de Lógica Difusa (LD) y de modelos de redes neuronales profundas (DNN) para la clasificación y segmentación de imágenes médicas; b) la implementación de pruebas de robustez de todos los métodos y comparaciones con métodos existentes; y c) la realización de análisis y tests con datos sintéticos con el fin de establecer metodologías generales para el descubrimiento de conocimiento.
Nuevas Aplicaciones de Inteligencia Artificial en Imágenes y Señales Biomédicas
Las imágenes médicas desempeñan un papel predominante en la detección de tejidos, el diagnóstico, la evaluación y el planeamiento clínico, entre otras tareas. Debido al avance tecnológico continuo, se presentan nuevos requerimientos para su correcto estudio y aprovechamiento. Desde el punto de vista del procesamiento de imágenes, esto implica un aumento de la información a analizar y de la complejidad de los métodos involucrados en dicho procesamiento. Las técnicas basadas en el aprendizaje profundo han dado resultados relevantes en el procesamiento de imágenes. Su aplicación al análisis de imágenes médicas constituye una gran ayuda para los expertos en la detección y prevención de enfermedades, así como en la asistencia al diagnóstico. Los modelos secuenciales, en particular las redes del tipo Transformer, constituyen un área de actualidad con enorme potencial para el procesamiento de imágenes, que aún no ha sido estudiada en el Laboratorio. Se propone en este Plan el trabajo sobre redes de aprendizaje profundo secuenciales, a partir de dos aspectos interrelacionados: a) el estudio de modelos existentes, con énfasis en aquellos aplicados a imágenes médicas; y b) la implementación, propuesta y evaluación de nuevos modelos.
Caracterización de factores ambientales a partir de datos satelitales y sensores meteorológicos para la gestión y aprovechamiento sostenible de recursos hídricos
El objetivo general es integrar información de sensores en campo, imágenes satelitales (SAOCOM, COSMO, Sentinel) e imágenes hiperespectrales de drones para favorecer el aprovechamiento del recurso hídrico. La hipótesis central es que la fusión de estos datos en un Sistema de Información Geográfica (SIG) permitirá generar modelos multiparamétricos para una gestión efectiva del agua.
Los objetivos específicos son:
– Analizar la red de drenaje agrícola utilizando Modelos Digitales de Elevación (DEM).
– Modelar el balance hídrico superficial, estimando variables clave como la evapotranspiración real (ETr) mediante algoritmos como SEBAL.
La metodología incluye la recopilación de datos, la creación de modelos hidrológicos y de flujo, y su posterior calibración y validación. El trabajo se desarrollará en el Laboratorio de Procesamiento de Imágenes (PDILab) del ICYTE , que cuenta con el equipamiento necesario para llevar a cabo la investigación
Redes de aprendizaje profundo en clasificación y segmentación de imágenes médicas
Las imágenes médicas tienen un rol predominante para la detección de tejidos, diagnóstico, evaluación y planeamiento clínico, entre otras tareas. Debido al continuo avance tecnológico, se presentan nuevos requerimientos para su correcto estudio y aprovechamiento. Desde el punto de vista del procesamiento de imágenes, esto supone un aumento en la información a analizar y en la complejidad del procesamiento.
Las técnicas basadas en aprendizaje profundo vienen dando muy buenos resultados en procesamiento de imágenes y su aplicación al análisis de imágenes médicas constituye una gran ayuda para los expertos en la detección y prevención de enfermedades. Aunque estas técnicas tienen una elevada exactitud, los modelos implementados por ellas son complejos y sus decisiones difíciles de explicar. En este sentido, el aprendizaje profundo se ha vinculado a menudo al concepto de "caja negra", porque no se conoce completamente cómo responden las capas intermedias de las redes en la determinación de las etiquetas.
Se propone en este Plan de Doctorado el trabajo sobre redes de aprendizaje profundo considerando tres aspectos interrelacionados: a) el estudio de modelos existentes con énfasis en aquellos aplicados en imágenes médicas; b) la implementación, propuesta y evaluación de nuevos modelos y c) el estudio de técnicas para la interpretación de conocimiento. Se pretende que los modelos generados sean interpretables de forma que provean al experto justificaciones de los resultados.
Diseño de Algoritmos de Procesamiento de Imágenes en Tiempo Real para Sistemas Embebidos
Diseño de algoritmos de procesamiento de imágenes en tiempo real para sistemas embebidos.
Entendimiento de escenarios basado en procesamiento digital de imágenes orientado al sensado inteligente
Entendimiento de escenarios basado en procesamiento digital de imágenes orientado al sensado inteligente
Reconocimiento y clasificación de texturas en imágenes médicas mediante transformadas espacio-frecuenciales
Reconocimiento y clasificación de texturas en imágenes médicas mediante transformadas espacio-frecuenciales

