Conferencias
- Registro únicamente de 08:30-09:00.
- Diariamente, registra tu ingreso y salida del Auditorio Sotero Prieto en el Anexo de la Facultad de Ingeniería.
- Cubre 15 horas presenciales durante todo el Congreso y obtén una beca al Workshop Fundamentals of Accelerated Computing with CUDA Python.
- Con 80% de asistencia al Congreso, recibirás tu constancia digital (puedes sumar horas presenciales y en línea).
- Regístrate aquí para recibir tu acceso a Zoom.
- Participa en las sesiones en vivo.
- Debes cubrir el 80% de asistencia para obtener la constancia digital.
| Hora | Conferencia/Panel | Ponente |
|---|---|---|
| 09:00 a 10:00 | Conferencia magistral-Supercomputers, Artificial Intelligence, Chips, and European Autonomy Conferencia magistral-Supercomputers, Artificial Intelligence, Chips, and European Autonomy Resumen: Supercomputers are the fastest computers in the world. They are built with up to millions of processors and their associated memories, exchanging information through an interconnection network that allows for minimal latency and high bandwidth. Supercomputers can execute programs that require performing many operations on large amounts of data. The concept of artificial intelligence originated in 1956, but it wasn't until a few years ago that the existence of large amounts of data and supercomputers allowed us to train large neural networks with results that are surprising to everyone, including their creators. A recent example is ChatGPT5. At the same time, artificial intelligence is changing the way we solve problems using supercomputers, allowing problems to be solved that were previously unattainable using supercomputers alone. One example is the folding of a protein from the amino acid sequence that produces it. Supercomputers and artificial intelligence require super-fast chips and better programming techniques. The battle for these chips is the most important worldwide geopolitical issue on a technical level. That battle is being won by US companies, such as Nvidia and Apple in chip design, and Taiwanese companies, such as TSMC, in manufacturing. Europe has many supercomputers, some of them included in the top-10 list. We develop and run programs on them at the same level as the most advanced centers in the US and Japan. We also use them to develop and run related programs based on artificial intelligence technologies, such as unsupervised machine learning. However, Europe neither designs nor manufactures any of these advanced chips. In this talk, we will discuss the four topics mentioned above, emphasizing European efforts focused on the design of these super-fast chips based on the RISC V standard philosophy |
![]() Mateo ValeroBarcelona Supercomputing Center, Spain Es Profesor de Arquitectura de Computadores en la Universidad Politécnica de Cataluña (UPC) y es el director fundador del BSC, Barcelona Supercomputing Center. Su investigación se centra en las arquitecturas de los supercomputadores, o computadores de alto rendimiento (HPC, High Performance Computing). Ha publicado más de 700 artículos, ha participado en la organización de más de 300 congresos internacionales y ha impartido más de 800 conferencias invitadas. El Prof. Valero ha recibido numerosos premios, incluyendo los tres más importantes en su área de investigación: el Eckert-Mauchly Award en 2007, del IEEE y la ACM , en Arquitectura de Computadores; el Seymour Cray Award en 2015, de la IEEE en Supercomputadores y el premio Charles Babbage Award en 2017 del IEEE, en Computadores Paralelos. Ha sido honrado con la Condecoración de la Orden Mexicana del “Águila Azteca” en 2018,el reconocimiento más grande del gobierno mexicano a una persona no mexicana . Es Doctor Honoris Causa por 14 universidades, 3 de ellas en México y es miembro de 10 academias, 2 de ellas en México también. |
| 10:00 a 10:25 | Pronóstico operativo de concentraciones de ozono, PM10 y PM2.5 para la Zona Metropolitana del Valle de México basado en aprendizaje automáticoPronóstico operativo de concentraciones de ozono, PM10 y PM2.5 para la Zona Metropolitana del Valle de México basado en aprendizaje automáticoResumen: La Zona Metropolitana del Valle de México presenta recurrentes episodios de contingencia ambiental debidos a altas concentraciones de ozono troposférico y material particulado (PM10 y PM2.5), lo que representa un riesgo para la población, por lo que es necesario contar con mejores herramientas para el pronóstico de altas concentraciones tanto para alertar a la población como a los tomadores de decisiones. Se presenta un sistema operativo de pronóstico de contaminantes atmosféricos basado en aprendizaje automático. El sistema estima concentraciones horarias de ozono, PM10 y PM2.5 con un horizonte flexible de 1 a más de 24 horas. El sistema integra las observaciones recientes de contaminantes atmosféricos y variables meteorológicas pronosticadas generadas por el modelo Weather Research and Forecasting (WRF). El modelo implementado tiene una arquitectura híbrida que combina un módulo autorregresivo, para predecir series temporales de concentraciones y de promedios de concentraciones de contaminantes, con un módulo que permite una eficiente asimilación de variables y pronósticos meteorológicos. La arquitectura se basa en una combinación de Vision Transformers y redes densas. Los pronósticos meteorológicos utilizados son generados por el modelo regional WRF-ARW, en un clúster de alto desempeño de 110 núcleos Intel Xeon E5-2670 desarrollado por el grupo Interacción Océano-Atmósfera del Instituto de Ciencias de la Atmósfera y Cambio Climático. El entrenamiento del modelo se realizó utilizando una unidad de procesamiento gráfico (GPU) NVIDIA RTX 4000 con 16 Gb de memoria RAM y 6144 núcleos cuda. |
![]() Pedro A. Segura ChávezInstituto de Ciencias de la Atmósfera y Cambio Climático Pedro Segura Chávez es doctor en Ingeniería Eléctrica por la Universidad de Sherbrooke, Quebec-Canadá. Estudió Ingeniería Mecánica, y Maestría en Ciencia e Ingeniería de Materiales en la Universidad Nacional Autónoma de México. Realizó una estancia de investigación de dos años en el Instituto Jean Lamour de la Universidad de Lorraine, Nancy-Francia, y trabajó por un año y medio en el área de sistemas de radares meteorológicos del Servicio Meteorológico Nacional de México. Actualmente, trabaja en el Instituto de Ciencias de la Atmósfera y Cambio Climático (ICAyCC) de la UNAM, bajo la dirección del Dr. Jorge Zavala. Pedro ha colaborado en proyectos institucionales para el desarrollo de modelos de aprendizaje automático para la predicción de concentraciones de ozono para la Zona Metropolitana del Valle de México; Recientemente realiza una estancia posdoctoral por parte del programa de becas Elisa Acuña de la DGAPA, donde se continúa con la investigación y desarrollo de modelos de pronóstico de calidad del aire para la megalópolis de México basados en datos de sensores y aprendizaje automático. Sus intereses de investigación incluyen las ciencias atmosféricas, modelos de aprendizaje automático, radares y sensores. |
| 10:25 a 10:50 | Supercómputo para el medio ambiente: Paralelizando simulaciones de derrames en el marSupercómputo para el medio ambiente: Paralelizando simulaciones de derrames en el marResumen: En este trabajo, presentamos cómo el supercómputo mejoró la eficiencia en la realización de simulaciones de derrames de hidrocarburos. El objetivo fue optimizar la realización de simulaciones de derrames diarios con 26 años de datos. Conocer la trayectoria de un derrame es clave para su atención y contención, y las simulaciones de trayectorias usando métodos lagrangianos son importantes para ello. Sin embargo, la capacidad de cómputo es una limitante significativa. Por lo tanto, implementamos la paralelización de estas simulaciones para siete ubicaciones en el Golfo de México. Esta paralelización se realizó mediante una implementación en Python para los códigos de simulación y utilizando SLURM para la asignación de recursos. Empleamos el clúster Ometeotl del Grupo IOA-ICAyCC, UNAM, utilizando 10 nodos de cómputo con 24 núcleos cada uno, 128 gb de ram y procesador Intel Xeon V3, lo que resultó en un speedup de 4.5. Por cada pozo, se obtuvieron 9,490 simulaciones, sumando un total de 66,430 simulaciones de derrames, cada una con una duración de 90 días. En términos de tiempo, la generación de todas estas simulaciones tardó 36 horas en paralelo, a comparación de los 6 días que se requerían en su versión secuencial. Esta paralelización nos brinda la oportunidad de realizar miles de corridas para la construcción de escenarios o pronósticos de derrames. Lo que se puede aprovechar para ofrecer información rápida y oportuna ante incidentes de este tipo para la toma de decisiones en beneficio de la sociedad y el medio ambiente. |
![]() Gabriela Reséndiz ColoradoInstituto de Ciencias de la Atmósfera y Cambio Climático, UNAM Gabriela Reséndiz Colorado es licenciada en ingeniería petrolera por la Universidad Veracruzana, maestra en Ciencias del Agua por el Centro de Investigación Científica de Yucatán y doctora en Ecología Marina por el Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California. Actualmente está desarrollando una estancia posdoctoral en el grupo Interacción Océano-Atmósfera del ICAyCC como parte del programa de Becas Elisa Acuña de la UNAM. Su trabajo se ha centrado en la aplicación de modelación numérica y percepción remota para el estudio de ecosistemas costeros y oceánicos. En 2024, fue reconocida con el primer lugar en el 3er. Congreso estudiantil del ICAyCC en la categoría posdoctoral por su trabajo de simulaciones de derrames para generar mapas de sensibilidad. En el mismo año, su proyecto de detección de florecimientos algales con percepción remota, parte de su tesis doctoral, le valió el premio Young Scholars Award de ESRI. Se ha desempeñado como profesora de educación media superior, consultora ambiental, y de finales de 2021 a inicios de 2024 estuvo colaborando con el Consorcio de Investigación del Golfo de México (CIGoM). |
| 10:50 a 11:15 | Coffee BreakCoffee BreakResumen: | |
| 11:15 a 11:55 | Aplicación de la IA para extraer redes de regulación transcripcional de bacterias usando literatura biomédicaAplicación de la IA para extraer redes de regulación transcripcional de bacterias usando literatura biomédicaResumen: Una de las aplicaciones más interesantes de la Inteligencia artificial (IA), que ayuda a impulsar el trabajo de investigación de cualquier área, es la extracción y organización de información relevante que se encuentra publicada de forma dispersa en cientos de artículos científicos. Se trata de miles de piezas de información que han sido descubiertas y publicadas por muchos laboratorios en el mundo y que están esperando para ser recopiladas y estructuradas. Una vez estructuradas, ofrecen una mirada global y muchas veces jerárquica sobre un fenómeno de estudio. En esta conferencia, presentaremos el caso de la extracción de piezas de información de conocimiento biológico-biomédico, específicamente en el área de regulación de genes en bacterias, y su organización en redes. Utilizando cientos de artículos disponibles en una base de datos de literatura científica y grandes modelos de lenguaje, ilustraremos las capacidades y limitaciones de la IA para organizar conocimiento biológico-biomédico disperso y apoyar el estudio de bacterias de relevancia clínica. |
![]() Carlos Francisco Méndez CruzCentro de Ciencias Genómicas (CCG) de la UNAM, campus Morelos El Dr. Carlos Francisco Méndez Cruz es Investigador Titular A de Tiempo Completo en el Programa de Genómica Computacional del Centro de Ciencias Genómicas (CCG) de la UNAM campus Morelos y profesor de la Licenciatura en Ciencias Genómicas con sede en el mismo Centro. En el CCG, inició en 2016 un grupo de investigación en Procesamiento de lenguaje natural y Aprendizaje automático. Estudió licenciatura y posgrado en la UNAM y realizó una estancia postdoctoral de dos años en el Instituto de Ingeniería de nuestra casa de estudios. Ha coordinado proyectos de investigación en Inteligencia artificial patrocinados por UNAM-PAPIIT y Alianza UNAM-HUAWEI para extraer conocimiento sobre regulación genética bacteriana de artículos científicos. Cuenta con 13 artículos en revistas indizadas, tres capítulos de libros y ocho artículos en memorias arbitradas por pares. En su carrera, ha graduado a más de 25 estudiantes de licenciatura y uno de maestría. Cuenta con las distinciones de Investigador Nacional nivel I y PRIDE C. |
| 11:55 a 12:20 | Entorno Integrado de Visualización Médica: interpretación avanzada de datos DICOM con Oculus Quest 2 y procesamiento radiográfico con redes neuronales convolucionales para COVID-19 en visores 2DEntorno Integrado de Visualización Médica: interpretación avanzada de datos DICOM con Oculus Quest 2 y procesamiento radiográfico con redes neuronales convolucionales para COVID-19 en visores 2DResumen: Los avances recientes en entornos inmersivos han transformado la forma en que se interpretan las imágenes médicas, habilitando experiencias más intuitivas y eficaces para el análisis radiológico. Este trabajo presenta un entorno integrado de visualización médica que combina visores 2D en Oculus Quest 2 con un sistema de diagnóstico asistido por redes neuronales convolucionales (CNN), orientado a la detección de COVID-19 en estudios radiográficos. La arquitectura propuesta incluye tres visores principales: (1) un visor conectado a un servidor PACS Orthanc para acceso local a imágenes DICOM; (2) un visor web general para revisión multiplataforma; y (3) un visor rápido en red que incorpora historial clínico y análisis en tiempo real. En este último se implementa un modelo CNN desarrollado en Python (TensorFlow/Keras), entrenado en Google Colab y desplegado mediante Flask, con OpenCV y PIL para preprocesamiento de imágenes. El sistema propuesto permite una exploración inmersiva y dinámica de estudios radiológicos, integrando análisis automatizado mediante IA con una visualización interactiva de alta precisión. Esta sinergia tecnológica apoya significativamente los tiempos de interpretación y fortalece la precisión diagnóstica, facilitando la toma de decisiones clínicas en contextos críticos. Los resultados preliminares evidencian no solo una experiencia de usuario más rica para el personal médico, sino también un aumento en la eficiencia operativa. En conjunto, esta propuesta representa un paso firme hacia la democratización del acceso a tecnologías médicas avanzadas, promoviendo equidad diagnóstica en instituciones con recursos limitados. |
![]() Noé Toledo GonzálezUniversidad Tecnológica de Matamoros Noé Toledo González es Doctor en Proyectos por la Universidad Centro Panamericano de Estudios Superiores en Morelia. Cuenta con una Maestría en Docencia otorgada por la Universidad Autónoma de Tamaulipas y es Ingeniero en Sistemas Computacionales. Actualmente, se desempeña como Profesor Investigador en la Universidad Tecnológica de Matamoros. A lo largo de su carrera, ha publicado artículos en revistas académicas sobre temas relacionas a la gestión y desarrollo de prototipos, consolidándose como un referente en la investigación tecnológica. así como el desarrollo de software, teniendo sus registro de propiedad intelectual. Ha participado activamente como jurado en certámenes nacionales de ciencia y tecnología, evaluando proyectos de alto impacto en innovación. Asimismo, ha colaborado como perito auxiliar en ingeniería en sistemas computacionales para el Poder Judicial de la Federación, aportando su experiencia en análisis técnico y soluciones informáticas. |
| 12:20 a 12:45 | Predicción de estructuras cristalinas asistida por aprendizaje automático.Predicción de estructuras cristalinas asistida por aprendizaje automático.Resumen: El patron de empaquetamiento que adoptan los átomos y/o moléculas en un sólido afecta las propiedades macroscópicas de éste, por ejemplo: punto de fusión, solubilidad, estabilidad, bioavilidad, propiedades mecánicas, etc. Conocer la relación entre la estructura y las propiedades de un material es de gran importancia para determinar su aplicación . Sin embargo, muchos compuestos pueden adoptar múltiples arreglos cristalinos, por lo cual resulta de interés predecir las formas cristalinas energéticamente accesibles asociadas a una molécula dada, y las propiedades fisicoquímicas relacionadas. Para lo anterior, resulta poco práctico el uso de métodos de estructura electrónica (EE) debido al elevado costo computacional que esto representa. No obstante, los campos de fuerza ( CF) son una alternativa de menor requerimiento computacional que relaciona propiedades geométricas con cantidades numéricas asociadas (energía, fuerzas, etc.). En el presente trabajo se obtiene un CF utilizando parametrización selectiva empleando algoritmos basados en la inferencia bayesiana sobre un conjunto de posibles arreglos cristalinos ( pac). Esto nos permite reducir costos tiempo/máquina menores al 5% de lo requerido por métodos de estructura electrónica con errores aceptables. Aplicando el CF a una base amplia de estructuras generadas aleatoriamiente para un caso de estudio (ácido oxálico), se encontró que aquellas estructuras de más baja energía, se asemejan a los polimorfos conocidos. |
![]() Joanatan M. Bautista-RenedoUniversidad Autónoma Metropolitana Químico egresado de la Universidad Autónoma del Estado de México, realizó sus estudios de Maestría en Ciencias Químicas en el 2017 y el Doctorado en Ciencias Químicas en el 2020 en la misma casa de estudios. En el 2022 recibió la distinción de Investigador Nivel I del sistema Nacional de Investigadoras e Investigadores (SNII). Actualmente realiza una estancia posdoctoral en la Universidad Autónoma Metropolitana. Su campo de especialización es la Química Cuántica con énfasis en la aplicación de métodos de estructura electrónica y de inteligencia artificial al estudio de reactividad química y modelado molecular. |
| 12:45 a 13:10 | Ensambles de Redes Neuronales Artificiales para la Identificación de Curvas de BraggEnsambles de Redes Neuronales Artificiales para la Identificación de Curvas de BraggResumen: Esta tesis se presenta un estudio acerca de la implementación de ensambles de redes neuronales artificiales (RNAs) para mejorar el análisis de curvas de Bragg en la espectroscopía nuclear enfocada en la hadronterapia. Las curvas de Bragg, generadas por espectrómetros de iones pesos, poseen datos importantes de la energía total del ion y el pico de Bragg, pero su procesamiento es afectado por el ruido de la señal obtenida. Para mejorar la calidad de las señales, se entrenaron 30 RNAs con arquitecturas idénticas y conjuntos de datos sintéticos que simulan curvas de Bragg con un ruido gaussiano del 10%. Se utilizaron dos métodos de combinación de predicciones: promedio simple y promedio ponderado, aplicados en dos tipos de enfoques: (1) época fija de mínimo error de validación promedio y (2) épocas individuales de mínimo error por RNA. Los resultados mostraron que los ensambles (4 a 25 RNAs) superan el rendimiento individual, reduciendo el error cuadrático medio (ECM). El ensamble de 25 RNAs presentó el mejor desempeño, aunque la inclusión de todas las 30 RNAs aumentó ligeramente el ECM debido a modelos menos precisos. Se identificó que los valores atípicos afectan significativamente los resultados, sugiriendo preprocesamiento de datos y métodos de aprendizaje más robustos. |
![]() Jesús Emmanuel Sampablo MartínezInstituto Nacional de Investigaciones Nucleares Licenciado en Física por la UNAM con mención honorífica. Su tesis se centró en el desarrollo de modelos de aprendizaje automático (redes neuronales, métodos ensemble) para el análisis de datos complejos, destacando su trabajo en la identificación de curvas de Bragg. Ha colaborado en el Instituto Nacional de Investigaciones Nucleares y el Instituto de Física de la UNAM. Certificado por IBM en Data Science y Data Analysis, ha participado en eventos internacionales como la Escuela de Verano en la Universidad de Shanghái Jiao Tong y el programa Líderes en Movimiento 2022 del Colegio de México. |
| 13:10 a 14:30 | RecesoRecesoResumen: | |
| 14:30 a 15:10 | Aplicación de Inteligencia Artificial en Metagenómica Viral para la Clasificación Taxonómica y el Descubrimiento de Nuevas Proteínas ViralesAplicación de Inteligencia Artificial en Metagenómica Viral para la Clasificación Taxonómica y el Descubrimiento de Nuevas Proteínas ViralesResumen: La metagenómica ha transformado la manera en que se estudia la diversidad viral y microbiana en ecosistemas humanos, animales y ambientales. Sin embargo, la identificación de virus y sus proteínas altamente divergentes continúa siendo un reto debido a la escasa representación en bases de datos de referencia. Para superar estas limitaciones, hemos desarrollado diversas aplicaciones basadas en inteligencia artificial y supercómputo, que permiten avanzar en la caracterización de virus. Entre ellas destaca VirDetect-AI, un clasificador taxonómico de secuencias virales eucariotas construido con redes neuronales profundas convolucionales y residuales, entrenado en la supercomputadora Miztli de la UNAM. Este modelo, entrenado con millones de secuencias y parámetros, alcanza un desempeño sobresaliente y es capaz de identificar virus conocidos y lejanamente relacionados, aportando un marco sólido para la vigilancia genómica de patógenos emergentes. De manera complementaria, se presentarán otras aplicaciones en desarrollo: (i) estrategias de enriquecimiento y actualización de bases de datos virales; (ii) clasificadores de proteínas de fagos, orientados a descubrir nuevas funciones y ampliar el conocimiento del repertorio proteico viral y del microbioma; y (iii) modelos predictivos de interacciones fago–bacteria, esenciales para explorar la dinámica del microbioma y su impacto en la salud. En conjunto, estos proyectos ilustran cómo la integración de aprendizaje profundo y supercómputo de alto rendimiento está impulsando la frontera de la virología computacional, desde la detección de virus desconocidos hasta el descubrimiento de nuevas proteínas virales con relevancia biológica y clínica. |
![]() Blanca TaboadaInstituto de Biotecnología, UNAM. Originaria de Cuernavaca, Morelos, es Ingeniera en Sistemas Computacionales por el Instituto Tecnológico de Zacatepec (1999), donde también obtuvo la Maestría en Tecnologías de la Información (2006). En 2012 concluyó el Doctorado en Ciencias de la Computación en la Universidad Nacional Autónoma de México (UNAM). Inició su carrera en la UNAM en 1999 como técnico académico en el Instituto de Ciencias Aplicadas y Tecnología, y desde 2012 es Investigadora en el Instituto de Biotecnología, donde ha consolidado su labor en biología computacional. Es autora de 51 artículos en revistas indexadas internacionales de alto impacto (con más de 2800 citas), tres capítulos de libro y más de 80 presentaciones en congresos nacionales e internacionales. Ha impartido múltiples cursos de licenciatura y posgrado, además de dirigir tesis en los tres niveles de formación. Pertenece al Sistema Nacional de Investigadores (Nivel 2) Sus intereses académicos se centran en el desarrollo de metodologías computacionales aplicadas a las ciencias “ómicas” y la virología, así como en el uso de inteligencia artificial para el análisis de datos biológicos. Actualmente forma parte del Consorcio Mexicano de Vigilancia Genómica (CoViGen-Mex), donde contribuye al seguimiento de la evolución de virus como SARS-CoV-2, Influenza, RSV y Dengue en México |
| 15:10 a 15:35 | Reducción de tiempos de adquisición en resonancias magnéticas: Una solución con Deep Learning.Reducción de tiempos de adquisición en resonancias magnéticas: Una solución con Deep Learning.Resumen: La adquisición de imágenes por resonancia magnética es un proceso lento y costoso, limitando su acceso en sistemas de salud con recursos restringidos. En México, esta situación se agrava por la baja disponibilidad de equipos: existen menos de 3 resonadores por cada millón de habitantes, lo que genera tiempos de espera prolongados y retrasa diagnósticos críticos. Una alternativa prometedora es el uso de técnicas de súper-resolución con aprendizaje profundo, capaces de reconstruir imágenes de alta calidad a partir de adquisiciones aceleradas. El modelo presentado de súper-resolución se basa en una arquitectura de red generadora que incorpora una entrada dual: la imagen de RM en baja resolución como los coeficientes de la Wavelet Scattering Transform (WST) que capturan información estadística multi-escala. Usamos bloques residuales con módulos de atención para mejorar la sensibilidad a patrones anatómicos relevantes. Además, la WST se incorpora como función de pérdida, aprovechando que no requiere entrenamiento, aumentando la interpretabilidad y reduciendo el tiempo de entrenamiento. |
![]() Diego Antonio Villalba GonzálezFacultad de Ciencias, UNAM Diego Antonio Villalba González es estudiante de la Licenciatura en Física en la Universidad Nacional Autónoma de México (UNAM), donde ha desarrollado una sólida formación en física computacional, astrofísica y aprendizaje automático. Su experiencia en la investigación incluye una estancia en el Instituto de Ciencias Físicas de la UNAM con la tutoría del Dr. Alberto Vazquez, donde trabajó en el estudio de simulaciones cosmológicas N-body, aplicando redes neuronales generativas para mejorar la resolución de campos cosmológicos, así como en el diseño de métricas de validación y optimización de arquitecturas para datos de alta dimensionalidad . Paralelamente, es miembro del Laboratorio Avanzado de Procesamiento de Imágenes de la Facultad de Ingeniería (UNAM), bajo la tutoría de la Dra. Jimena Olveres y el Dr. Boris Escalante Ramírez, donde investiga técnicas de aceleración de resonancia magnética mediante redes neuronales profundas y desarrolla metodologías de validación cuantitativa. En 2025 fue seleccionado para realizar una estancia de investigación en el Donostia International Physics Center (DIPC), en San Sebastián, España, bajo la supervisión del Dr. Raul Angulo, enfocándose en el uso de técnicas de machine learning, con aplicaciones en la inferencia del campo de velocidades cosmológico y efectos observacionales . Además de su trayectoria académica, ha participado activamente en la divulgación científica como coordinador del Seminario Estudiantil de Física (SEF) de la facultad de ciencias y director de eventos del Sociedad Astronómica Nibiru, impulsando actividades sociales de alto impacto. También fue Microsoft Learn Student Ambassador, promoviendo la formación en programación y ciencia de datos entre estudiantes universitarios . |
| 15:35 a 16:05 | Coffee Break Coffee BreakResumen: | |
| 16:05 a 16:45 | Reconstrucción computacional de grafos sobre desaparición forzada de personasReconstrucción computacional de grafos sobre desaparición forzada de personasResumen: Entre las más de cien mil personas desaparecidas o no localizadas en México, existen alrededor de 1300 casos en donde estuvieron involucradas fuerzas de seguridad del Estado en el periodo conocido como Guerra Sucia (1964-1985). Durante la comisión de estas violaciones graves a los derechos humanos, se dejó un rastro en la forma de documentos administrativos, telegramas, expedientes, confesiones, etc. Todo estos documentos, de la era pre-digital, pueden ser procesados usando técnicas de visión por computadora y de procesamiento de lenguaje natural, y a partir de ellos extraer información que pueda ser utilizada para indagar el paradero de estas personas. Esta información se puede estructurar en la forma de Gráfos de Conocimiento, que se pueden interrogar e integrar con otras fuentes de datos. En esta plática, hablaré sobre el proyecto Angelus (2019-2024) comisionado por la Comisión Nacional de Busqueda de Personas, y las subsecuentes evoluciones de las tecnologías ahí desarrolladas, que ponen las técnicas de inteligencia artificial, intensivas en el uso de recursos de cómputo, al servicio de la sociedad, las humanidades y las ciencias sociales. |
![]() Victor MirelesCentro de Investigaciones Interdisciplinarias en Ciencias y Humanidades, UNAM Víctor Mireles es Doctor en Ciencias por la Universidad Libre de Berlín, y Maestro y Licenciado en Ciencias de la Computación por la UNAM. Actualmente es Investigador titular del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) en temas injusticias epistémicas en la Inteligencia Artificial, Procesamiento del Lenguaje Natural y Grafos de Conocimiento aplicados a la búsqueda de personas desaparecidas. Ha participado en numerosos proyectos financiados por la Comisión Europea, la Agencia Austriaca de Investigación y el Conahcyt (hoy SECIHTI). Ha publicado más de 30 artículos en revistas y memorias de conferencias arbitradas, así como 3 capítulos de libro, y ha dado pláticas invitadas en México, Latinoamérica y Europa. |
| 16:45 a 18:00 | Mesa de análisis “El estado actual y la visión del futuro de los centros de HPC en México”Mesa de análisis “El estado actual y la visión del futuro de los centros de HPC en México”Resumen: Moderadora Dra. Ana María Martínez Vázquez Panelistas Dr. Alberto Vela Amieva Dr. Héctor Benítez Pérez Juan Carlos Rosas Cabrera Dr. Marco Antonio Moreno Ibarra Dr. Mateo Valero Dr. Ulises Cortes |
Transmisión
Anexo de la Facultad de Ingeniería, UNAM.
Anexo Facultad de Ingeniería, Escolar 3000, C.U., Coyoacán, Ciudad de México, CDMX
Contacto:
congreso.super@unam.mx
Lugar
Auditorio Sotero Prieto









