Conferencias
- Registro únicamente de 08:30-09:00.
- Diariamente, registra tu ingreso y salida del Auditorio Sotero Prieto en el Anexo de la Facultad de Ingeniería.
- Cubre 15 horas presenciales durante todo el Congreso y obtén una beca al Workshop Fundamentals of Accelerated Computing with CUDA Python.
- Con 80% de asistencia al Congreso, recibirás tu constancia digital (puedes sumar horas presenciales y en línea).
- Regístrate aquí para recibir tu acceso a Zoom.
- Participa en las sesiones en vivo.
- Debes cubrir el 80% de asistencia para obtener la constancia digital.
| Hora | Conferencia/Panel | Ponente |
|---|---|---|
| 09:00 a 10:00 | Conferencia magistral-ELSEC AI: Balancing Innovation and Responsibility in High-Performance Systems Conferencia magistral-ELSEC AI: Balancing Innovation and Responsibility in High-Performance Systems Resumen: In today's landscape, Artificial Intelligence dominates both the narrative of innovation and the infrastructures that sustain modern life. But while the AI-centric world captures headlines, an equally important yet less visible upheaval is underway: the unseen revolution driven by the ethical, legal, social, environmental, and cultural (ELSEC) dimensions of technology. In this talk, I will explore the tension between these two forces. On one side, AI-based advances—supercharged by high-performance computing—promise unprecedented capabilities in science, engineering, and everyday life. On the other hand, deep questions of responsibility, sustainability, and societal impact remain largely overlooked, yet they will shape the long-term trajectory of AI-based technologies' adoption and trust. |
![]() Ulises CortesBarcelona Supercomputing Center, Spain Ulises Cortés (1960) es catedrático de Inteligencia Artificial de la Universitat Politècnica de Catalunya. Coordinador científico del área Artificial Intelligence del departamento de ciencias de la Computación del Barcelona Supercomputing Center. Coordinador del Master en Inteligencia Artificial (UB-UPC-URV). Miembro del Observatori d'Ètica en Intel·ligència Artificial de Catalunya y del Comitè d'Ètica de la Universitat Politècnica de Catalunya. Es miembro del comité ejecutivo de European Association for Artificial Intelligence (EurAI). Es miembro del Sistema Nacional de Investigadores Nivel III. (CONACyT-México). Participante como experto de México en el grupo de trabajo Data Governance de la Alianza Global para la Inteligencia Artificial (GPAI-OECD). Doctor Honoris Causa por la Universitat de Girona. @ulisescortes |
| 10:00 a 10:25 | Método de Descomposición de Dominio en el Espacio de Vectores Derivados (DDM-DVS) para el caso de matrices no simétricasMétodo de Descomposición de Dominio en el Espacio de Vectores Derivados (DDM-DVS) para el caso de matrices no simétricasResumen: En física aplicada e ingeniería, es común la necesidad de simular descritos por ecuaciones diferenciales numéricamente, haciendo uso de Cómputo de Alto Desempeño (HPC). gran escala, resulta conveniente aplicar un Método de Descomposición de Dominio (DDM), ya que permite dividir el problema global en subproblemas locales más manejables y adecuados para procesamiento en paralelo. En esta ponencia se presenta una revisión del Método de Descomposición de Dominio en el Espacio de Vectores Derivados (DDM-DVS), originalmente propuesto por Herrera [1], ampliando su aplicabilidad a sistemas con matrices no simétricas [2]. Se hace especial énfasis en los computacionales de su implementación, destacando su eficiencia algorítmica, el uso optimizado de memoria y su compatibilidad con HPC El DVS-framework es un DDM sin traslapes y sin nodos compartidos entre subdominios, a diferencia de los métodos tradicionales. Opera en un espacio v matriz resultante de la discretización es diagonal por bloques. Esto permi cómputo en paralelo, permitiendo que cada procesador trabaje de forma independiente subdominio. Se han desarrollado los algoritmos DVS global, utilizando una arquitectura síncrona con MPI. superlineal. Se han resuelto problemas hasta procesadores. |
![]() Ernesto Rubio AcostaInstituto de Investigaciones en Matemáticas Aplicadas y en Sistemas, UNAM |
| 10:25 a 10:50 | Large eddy simulation of Buoyancy-Driven Turbulent Flow in a Differentially Heated Square CavityLarge eddy simulation of Buoyancy-Driven Turbulent Flow in a Differentially Heated Square CavityResumen: Natural convective turbulent flows in a square cavity are numerically studied using Large Eddy Simulation (LES) models. The validity of the unladen flow solution is confirmed by comparing the calculations with experimental results obtained from the literature. The experimental case consists of a natural convective flow in a confined square cavity, with vertical walls heated at different rates (active walls), set at Ra = 1.58 × 109. In this work, we solve the three-dimensional incompressible Navier–Stokes equations using the Finite Volume Method and the SIMPLEC (Semi-Implicit Method for Pressure-Linked Equations–Consistent) algorithm to decouple the pressure–velocity fields. The numerical scheme is implemented in Fortran and parallelized with OpenMP to efficiently solve the linear systems for the velocity components and the Poisson equation for pressure correction on a Dell OptiPlex Tower Plus 7020 (Intel® Core™ i7-14700 × 28 threads, 32 GiB RAM, NVIDIA GeForce RTX 4060). The computational domain is discretized on a cartesian mesh of 220 × 220 × 180 cells, with non-uniform spacing in the horizontal directions and refined near the heated walls in the vertical to resolve steep thermal gradients. The OpenMP directives are applied to nested loops that update the velocity and pressure fields, using the COLLAPSE clause to maximize parallelism and improve load balancing across threads. This approach enables the simulation to scale efficiently on shared-memory architectures, taking advantage of modern multi-core processors to reduce computation time and handle larger problem sizes. These results will help enhance the understanding of particle transport in buoyancy-driven turbulent flows. |
![]() Carlos López VillalobosInstituto de Ciencias de la Atmósfera y Cambio Climático, UNAM El Dr. Carlos A. López Villalobos es un investigador interdisciplinario que integra ingeniería, ciencias atmosféricas y computación de alto desempeño para resolver problemas aplicados en energía renovable y dinámica de fluidos. Su trabajo combina modelación numérica multiescala (desde meso hasta microescala), métodos avanzados de resolución de ecuaciones de Navier–Stokes y técnicas de simulación turbulenta (LES), con implementaciones en Fortran. Esta convergencia metodológica le permite abordar aplicaciones concretas tales como: evaluación del recurso eólico, diseño aerodinámico de aerogeneradores y pronósticos climáticos orientados a la generación energética. Además de su producción científica, destaca por su compromiso con la formación de estudiantes en modelación numérica de la atmósfera, turbulencia y aerodinámica. Además, de traducir resultados teóricos en herramientas prácticas. |
| 10:50 a 11:15 | Coffee BreakCoffee BreakResumen: | |
| 11:15 a 11:55 | De la síntesis proteica a la disfunción celular: una visión multiescala de enfermedades neurodegenerativasDe la síntesis proteica a la disfunción celular: una visión multiescala de enfermedades neurodegenerativasResumen: La enfermedad de Alzheimer se asocia con la agregación anómala del péptido beta-amiloide, lo que provoca la muerte neuronal, deterioro cognitivo y alteraciones conductuales. Es la forma más común de demencia en adultos mayores y, actualmente, no tiene cura. Una pregunta central en su estudio es: ¿cómo se sintetizan los péptidos que desencadenan esta patología? Por otro lado, la esclerosis lateral amiotrófica (ELA) es una enfermedad neurodegenerativa de origen desconocido, caracterizada por la acumulación citoplasmática de diversas proteínas, entre ellas FUS (Fused in Sarcoma), en forma de condensados líquidos. La separación de fases líquido-líquido (LLPS) juega un papel esencial en la formación de estos condensados, cuya interacción con las membranas celulares es clave para su estabilidad, envejecimiento y función. En este trabajo, abordamos el estudio de los mecanismos moleculares implicados en ambas enfermedades neurodegenerativas mediante simulaciones de dinámica molecular multiescala. En particular, exploramos cómo procesos como la agregación proteica y la separación de fases contribuyen a la progresión patológica, con el objetivo de aportar una comprensión más profunda de sus causas comunes a nivel molecular. |
![]() Laura Domínguez DueñasFacultad de Química, UNAM. Laura Domínguez Dueñas nació en la Ciudad de México el 15 de noviembre de 1979. Estudió la licenciatura en Química en la Facultad de Química de la UNAM. Realizó estudios de posgrado dentro del Programa Universitario de Ciencias Bioquímicas, habiendo obtenido su grado de Doctora en 2012, periodo durante el cual realizó dos estancias de investigación, una en la Universidad de California en San Francisco y otra en la Universidad de Boston. Por la defensa de su proyecto y su trayectoria académica, la Dra. Laura concursó y fue laureada con un reconocimiento internacional, el programa “Faculty of the Future” de la Schlumberger Foundation, que le permitió llevar a cabo una estancia posdoctoral en la Universidad de Boston entre 2012 y 2014. En 2024 fue galardonada con una beca Fulbright para realizar una estancia de investigación en la Universidad de Texas en Austin con el Dr. Dave Thirumalai. Su formación le permitió centrar la importante labor de formación de recursos humanos de alta especialidad en la aplicación de herramientas fisicoquímicas y computacionales para el estudio de materiales, específicamente en el materiales orgánicos y proteínas. Dentro de esta línea de investigación sus estudiantes emplean herramientas de las ciencias exactas para la resolución de problemas de interés mundial con dos vertientes principales 1) el estudio de las alteraciones proteicas en enfermedades degenerativas, como lo son la enfermedad de Alzheimer, la neuroinflamación y la enfermedad de cataratas y 2) el diseño de materiales para contribuir a la mitigación del cambio climático, específicamente el diseño de materiales para la optimización de celdas fotovoltáicas orgánicas y la mejora de membranas como componentes de las baterías de flujo. El trabajo de investigación de la Dra. Laura tiene dos vertientes principales, la primera se basa en el uso de herramientas de la fisicoquímica para estudiar proteínas involucradas en diferentes enfermedades como la enfermedad de Alzheimer, la neuroinflamación y la enfermedad de cataratas. Durante el desarrollo de estos proyectos de investigación la Dra. Laura ha logrado consolidar la colaboración con otros grupos de investigación experimentales dentro de la UNAM y otros centros de investigación de México y el mundo, así como también con departamentos de medicina clínica en hospitales. La segunda vertiente de su trabajo de investigación está basada en el estudio del auto-ensamblaje de materiales blandos para el estudio de polímeros y materiales para la optimización de componentes para la generación y almacenaje de energías limpias. La Dra. Laura Domínguez tiene publicados más de 60 artículos de investigación y tres artículos de difusión en la revista de educación química. La relevancia y el reconocimiento de su investigación a nivel internacional se pueden observar en el artículo en el que fue invitada a participar en 2021 en la revista Journal of Chemical Reviews, que tiene un índice de impacto de 54.301 puntos. Desde el año 2022 la Dra. Laura ha recibido la distinción de Investigador Nacional Nivel 2. Los proyectos que dirige han obtenido financiamiento del Programa de Apoyo a Proyectos para la Innovación y Mejoramiento de la Enseñanza (PAPIME), cada año ha obtenido financiamiento del Programa de Apoyo a Proyectos de Investigación e Innovación Tecnológica (PAPIIT). Cuenta con un proyecto aprobado con financiamiento de Ciencia Básica del CONACYT para estudiar la enfermedad de Alzheimer y otro apoyo del CONACYT (como grupo de investigación en la convocatoria de Problemas Nacionales) para el estudio de la enfermedad de cataratas. Adicionalmente cuenta con proyectos anuales “grandes” del Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD). |
| 11:55 a 12:20 | Inteligencia artificial como herramienta para descubrir el comportamiento cuántico de la materiaInteligencia artificial como herramienta para descubrir el comportamiento cuántico de la materiaResumen: La integración de inteligencia artificial y simulaciones moleculares ha revolucionando nuestra capacidad para comprender el comportamiento fundamental de la materia a nivel atómico y molecular. En esta charla exploraremos cómo los campos de fuerza basados en aprendizaje automático (Machine Learned Force Fields, MLFF) evolucionaron, desde sus origenes cómo modelos con descriptores, modelos auto-contenidos, la nececidad de las equivarianzas, y la importancia de los sesgos físicos y químicos en las arquitecturas de las redes neuronales. Más aún, mostraremos como estos permiten describir con precisión the metodos ab-initio las interacciones atómicas en simulaciones de dinámica molecular. Presentaremos ejemplos de aplicaciones en moléculas y materiales complejos, destacando cómo estos métodos avanzados logran capturar y cuantificar el comportamiento realista y dependiente de la temperatura en sistemas moleculares comparando directamente con resultados experimentales, algo que tradicionalmente ha sido muy difícil con métodos clásicos. Finalmente, discutiremos el potencial de esta poderosa sinergia tecnológica para acelerar descubrimientos científicos en física, química y ciencia de materiales. Adicionalmente, analizaremos als tendencias actuales en MLFFs y como es que el supercomputo se usa en los esquemas de trabajo desde la generación de bases de datos y entrenamiento de modelos, hasta su aplicación en simulaciones de alto calado en GPUs, asi como ventajas y desventajas de las nuevas alternativas de hardware para simulaciones de este tipo. |
![]() Huziel E. SaucedaInstituto de Física, UNAM |
| 12:20 a 12:45 | Matriz por bloques en el estudio de superconductividadMatriz por bloques en el estudio de superconductividadResumen: La superconductividad es quizás el fenómeno más sorprendente en la física del estado sólido, debido a su nula resistencia eléctrica y diamagnetismo perfecto. El estudio de dicho fenómeno en sólidos aperiódicos generalmente se basa en las ecuaciones acopladas de Bogoliubov-de Gennes (BdG) [1] que usualmente se resuelven de forma autoconsistente, cuyo costo computacional crece rápidamente con el tamaño del sistema [2]. En esta charla presentamos un método alternativo vía transformaciones unitarias -sin introducir aproximaciones adicionales- que desacopla las ecuaciones de BdG, i.e., convirtiéndolas a una matriz diagonal por bloques [3]. Este método reduce significativamente el tiempo de cómputo y permite abordar sistemas mesoscópicos con la capacidad de cómputo actual. Como ejemplos se presentarán los resultados de la brecha superconductora y temperatura crítica en nanotubos y nanoalambres. Además, se comparan los tiempos de cómputo vía el método estándar y el alternativo. Cabe mencionar que el método vía transformaciones unitarias presentado constituye un camino eficiente en la investigación de fenómenos electrónicos fuertemente correlacionados. |
![]() Germán Emiliano López FernándezInstituto de Investigaciones en Materiales, UNAM |
| 12:45 a 13:10 | Aplicación de técnicas de aprendizaje de máquina en el análisis hidro-morfológico de ríosAplicación de técnicas de aprendizaje de máquina en el análisis hidro-morfológico de ríosResumen: El transporte de sedimentos es un proceso clave en la evolución morfológica de ríos, ya que depende del flujo del agua y su interacción con el cauce. Este proceso consiste en: la dinámica del flujo y movimiento de sedimentos. Para realizar un análisis hidro-morfológico integral, se debe combinar los principios de la hidráulica fluvial y morfología, lo cual, involucra entender como varia temporal y espacialmente el cauce, lo cual, conlleva a analizar la dinámica de los cambios físicos del rio. Para analizar la evolución hidro-morfológica en una o dos dimensiones espaciales y temporales, se utilizan modelos basados en las ecuaciones de Saint Venant (flujo) y Exner (morfología), resueltos con métodos numéricos. TELEMAC implementa estos modelos usando técnicas de elementos finitos sobre mallas no estructuradas, lo que permite adaptarse a geométricas complejas y condiciones variables. Sin embargo, la simulación de estos procesos exige una alta capacidad computacional, especialmente cuando se trabajan con grandes dominios, por lo cual, en muchos casos se hace el uso del Supercomputo para reducir significativamente los tiempos de procesamiento. A pesar del esfuerzo de obtención de resultados en un tiempo corto, la importancia de estos tiempos se vuelve un factor principal. Por lo tanto, el presente estudio realiza un planteamiento en base a la máquina de aprendizaje reemplazando el análisis hidro-morfológico empleando redes neuronales del tipo Perceptrón Multicapa; entrenada con los resultados obtenidos en TELEMAC, logrando una reducción significativa en costos computacionales y tiempos de obtención de resultados, las correlaciones son verificadas con métodos estadísticos mostrando precisión en los resultados obtenidos enmarcando una metodología de utilidad en la modelación hidro morfológica. |
![]() Kevin Douglas Alvarez SegalesInstituto de Ingeniería, UNAM Kevin Douglas Álvarez Segales es estudiante de posgrado en Ingeniería Hidráulica en la Universidad Nacional Autónoma de México (UNAM), donde actualmente cursa la maestría. Obtuvo su título de Ingeniero Civil en la Universidad Mayor de San Andrés (UMSA), en La Paz, Bolivia, ciudad donde nació. Es becario del Instituto de Ingeniería de la UNAM, adscrito a la División de Hidráulica. Su experiencia profesional incluye trabajo en el Ministerio de Medio Ambiente y Agua de Bolivia, la máxima autoridad en recursos hídricos del país, donde contribuyó al diseño e implementación de infraestructura para la mitigación de riesgos por inundaciones y regulación de ríos como respuesta a eventos extremos de lluvia. Durante ese tiempo, también fue coautor de artículos para el Banco Interamericano de Desarrollo (BID), enfocados en herramientas de regulación de recursos hídricos, particularmente en la región de la Cuenca Katari, en La Paz, Bolivia. Estos artículos exploraron la aplicación del modelo HYDROBID para la gestión integrada de los recursos hídricos y de la herramienta WaterAlloc para optimizar estrategias de asignación del agua. Su investigación académica inicial se centró en la hidrología, lo que le llevó a desarrollar ecuaciones de diseño que aún se utilizan en la planificación de infraestructura en Bolivia, especialmente en el Departamento del Beni en Bolivia. Este trabajo sentó las bases de sus intereses actuales de investigación. Actualmente, su tesis de maestría se enfoca en hidráulica fluvial y transporte de sedimentos, con énfasis en la integración de inteligencia artificial en la modelación morfodinámica. |
| 13:10 a 14:30 | RecesoRecesoResumen: | |
| 14:30 a 15:35 | Presentación de carteles y videos, vestíbulo de la Biblioteca Enrique Rivero Borrell | |
| 16:05 a 16:45 | Generative Language Models for the Computational Design of Novel ProteinsGenerative Language Models for the Computational Design of Novel ProteinsResumen: Artificial intelligence (AI) is transforming protein design, a field that seeks to create novel functional biomolecules for applications in health, energy, the environment, and biotechnology. In particular, large language models (LLMs), based on Transformer architectures and originally developed for natural language processing, have proven to be powerful tools for modeling amino acid sequences due to the structural analogies between human languages and protein sequences. In this talk, I will discuss the use of generative models—both conditional and unconditional—to explore novel regions of sequence space and generate functional de novo proteins. Using ProtGPT2, ZymCTRL, and ProGen2—models trained on large datasets of natural sequences—we generated thousands of candidate sequences, which were computationally evaluated and subsequently characterized experimentally. Several of these proteins showed efficient expression in bacterial systems, proper folding, and biochemical properties comparable to those of natural proteins. Some of the artificial enzymes exhibited the expected enzymatic activity, although with lower catalytic efficiency compared to their natural counterparts. Additionally, we combined these language models with directed evolution strategies and computational optimization to improve the solubility, stability, and functionality of various artificial proteins. This work demonstrates how the use of AI models, complemented by high-performance computing resources for sequence generation, evaluation, and selection, enables the design of biomolecules beyond the limitations imposed by natural evolution. It offers an innovative approach for tailoring functional macromolecules and positions AI-based models as powerful tools for the rational design of robust proteins with broad applications in biotechnology and biomedicine. |
![]() Sergio Romero RomeroInstituto de Fisiología Celular, UNAM. Sergio Romero Romero is passionate about biochemistry and protein design. He earned his Bachelor's degree in Biomedicine from the Benemérita Universidad Autónoma de Puebla. He then completed his Master's and Ph.D. in Biochemistry at Universidad Nacional Autónoma de México (UNAM), where he specialized in the study of proteins. Driven by his interest in sharing scientific knowledge and enriching his academic background, he also pursued a second degree in Sociology at UNAM. After completing his doctoral studies, he was awarded a postdoctoral fellowship by the Alexander von Humboldt Foundation and Bayer Science & Education Foundation, which allowed him to conduct research at the University of Bayreuth in Germany. He later became a group leader at the same institution. His academic training has focused on various aspects of protein science, including folding, evolution, sequence–structure–function relationships, protein engineering, design, and both experimental and computational methods for characterizing these macromolecules. He is currently a Tenure-Track Researcher (Investigador Titular A) at the Institute of Cellular Physiology at UNAM, where he applies his expertise at the intersection of biochemistry, evolution, and protein design. His research group is interested in understanding how proteins have evolved structurally and functionally, and in developing novel proteins with new properties and functions using both rational design and state-of-the-art artificial intelligence approaches. In addition to his academic work, Sergio is deeply committed to science communication, which he considers essential for sharing knowledge with society and sparking curiosity about the fascinating world of proteins. He actively participates in science columns, science fairs, social media, and other public outreach activities. |
| 16:45 a 17:10 | VirDetect-AI: New artificial intelligence tool for identifying eukaryotic viral proteins in metagenomic dataVirDetect-AI: New artificial intelligence tool for identifying eukaryotic viral proteins in metagenomic dataResumen: Este trabajo aborda la compleja tarea de identificar virus en datos metagenómicos obtenidos de diversas fuentes biológicas, tales como reservorios animales, muestras ambientales y el cuerpo humano. Los métodos tradicionales de identificación viral enfrentan grandes desafíos debido a la extensa diversidad, la falta de genomas de referencia para muchas especies virales y la rápida evolución de los genomas virales. En respuesta, la investigación reciente ha incrementado el uso de técnicas de inteligencia artificial (IA) para mejorar la precisión y eficiencia en la detección de virus. Sin embargo, los enfoques actuales basados en IA son predominantemente clasificadores binarios, lo que limita la especificidad en la identificación de tipos virales, es decir, la capacidad del modelo para distinguir entre familias, géneros o funciones proteicas, y a menudo estos clasificadores binarios, dependen exclusivamente de datos de secuencias de nucleótidos. Para superar estas limitaciones, esta tesis presenta VirDetect-AI, una herramienta innovadora diseñada específicamente para identificar virus eucariontes en conjuntos de datos metagenómicos. VirDetect-AI emplea una arquitectura avanzada que combina redes neuronales convolucionales (CNNs) y redes neuronales residuales (ResNets), lo cual permite la extracción de características jerárquicas y patrones complejos a partir de datos genómicos de aminoácidos. El modelo muestra un rendimiento sobresaliente en las métricas de evaluación, alcanzando una sensibilidad de 0.97, una precisión de 0.98 y una puntuación F1 de 0.98. Este avance mejora nuestra comprensión de la ecología viral al clasificar con precisión las secuencias metagenómicas en 980 clases de proteínas virales, que abarcan una amplia variedad de géneros virales, familias, funciones de proteínas e información del hospedero. En consecuencia, VirDetect-AI tiene un gran potencial para descubrir nuevos virus, facilitando avances en la taxonomía viral, la monitorización ecológica y la vigilancia de la salud pública. Software utilizado: Cuda, Nvidia Toolkit, Lenguajes de programación (Python, perl, bash, R). Supercómputo, utilizado: Miztli (supercomputadora de la UNAM) |
![]() Alida Esmeralda Zárate JiménezUniversidad Autónoma del Estado de Morelos Alida Esmeralda Zárate Jiménez es Doctora en Ciencias por la Universidad Autónoma del Estado de Morelos (UAEM). También es Maestra en Ciencias de la Computación por el Tecnológico Nacional de México, campus CENIDET, e Ingeniera en Sistemas Computacionales por el Tecnológico Nacional de México, campus Tapachula. Su trabajo integra la bioinformática y la inteligencia artificial para enfrentar retos en la metagenómica viral, con aplicaciones en epidemiología y genómica. Actualmente colabora en proyectos de investigación en el Instituto de Biotecnología de la UNAM, donde ha desarrollado herramientas orientadas a la detección y análisis de proteínas virales. Sus líneas de investigación se centran en la aplicación de inteligencia artificial a la bioinformática y en el estudio de virus a partir de datos metagenómicos, contribuyendo al desarrollo de soluciones innovadoras para la comprensión de la diversidad viral. |
| 17:10 a 17:35 | Sistema de alertamiento por inundaciones para la Ciudad de MéxicoSistema de alertamiento por inundaciones para la Ciudad de MéxicoResumen: La Ciudad de México enfrenta el desafío de gestionar los fenómenos hidrometeorológicos extremos, cuya frecuencia e intensidad se han incrementado a consecuencia de factores como la urbanización y el cambio climático. Particularmente, la urbanización conlleva a un aumento en las superficies impermeables, lo que reduce la capacidad de infiltración del agua al subsuelo y favorece el escurrimiento superficial y las inundaciones. Entre los tipos de inundaciones que se presentan en las áreas urbanas están las pluviales, las cuales ocurren cuando las precipitaciones superan la capacidad del sistema de drenaje. Este trabajo presenta los avances en el desarrollo de un sistema de alertamiento por inundaciones para la Ciudad de México, el cual integra el modelo atmosférico Weather Research and Forecasting (WRF) para pronosticar la precipitación, y el modelo hidrológico Storm Water Management Model (SWMM) para simular el volumen de escurrimiento superficial. La precipitación se obtiene a través de un sistema de pronóstico operativo que utiliza el modelo WRF, configurado con tres dominios de simulación y resoluciones horizontales de 15 km, 5 km y 1.67 km, respectivamente. Se pronostican las condiciones atmosféricas de cinco días para los dominios 1 y 2, y a tres días para el dominio 3. El pronóstico se ejecuta en el clúster Ometeotl del ICAyCC-UNAM, utilizando 42 núcleos Intel Xeon Platinum 8360H CPU @ 3.0GHz, cada uno con 1.5TB de memoria RAM. El tiempo de ejecución para los tres dominios es de 2:57 horas. Una vez hecha la simulación atmosférica, la precipitación pronosticada se introduce al modelo SWMM. Este modelo considera además información sobre subcuencas naturales y urbanas, datos de elevación, red, nodos y conductos de drenaje. Con ello se simula el volumen de escurrimiento que excede la capacidad del sistema de drenaje. De esta manera, identificamos las áreas susceptibles a inundación. |
![]() Erika D. López EspinozaInstituto de Ciencias de la Atmósfera y Cambio Climático, UNAM Erika realizó su maestría y doctorado en Ciencias Computacionales en el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) en Puebla. De 2004 a 2005, trabajó en el Laboratorio de Visión por computadora del INAOE, realizando investigación en percepción remota y desarrollando software científico para proyectos para la Marina Armada de México. De 2008 a 2009 trabajó en el área de cómputo del Centro Virtual de Cambio Climático de la Ciudad de México, y durante 2009 participó en el área de cómputo del Programa Universitario del Medio Ambiente (PUMA) de la UNAM. Realizó una estancia posdoctoral DGAPA, de 2010 a 2011 en el Centro de Ciencias de la Atmósfera (CCA), ahora el Instituto de Ciencias de la Atmósfera y Cambio Climático (ICAyCC), sobre el impacto que tiene el cambio de la cobertura de suelo en el pronóstico meteorológico. De 2012 a 2013 fue becaria posdoctoral por el grupo Interacción Océano-Atmósfera realizando investigación sobre la evaluación de productos de cobertura vegetal y uso de suelo para mejorar la calidad del pronóstico meteorológico. En 2014 se incorporó como investigadora al ICAyCC y desde 2023 es Secretaria Académica de ese Instituto. Pertenece al Sistema Nacional de Investigadoras e Investigadores con el Nivel I. Sus líneas de investigación son la modelación numérica de la atmósfera, el impacto del cambio de la cobertura de suelo en las condiciones climáticas y el análisis de eventos extremos a partir de observaciones y modelación numérica. |
| 17:35 a 18:00 | Potenciando Pronósticos Ambientales en México: Supercómputo como Pilar en Modelación de caldiad del aire y de dispersión de cenizas.Potenciando Pronósticos Ambientales en México: Supercómputo como Pilar en Modelación de caldiad del aire y de dispersión de cenizas.Resumen: La calidad del aire es el resultado de la interacción entre emisiones contaminantes y procesos meteorológicos. Para predecirla, es necesario resolver numéricamente las ecuaciones fundamentales que describen el comportamiento atmosférico—incluyendo conservación de masa, momento, energía y reacciones químicas. Estas simulaciones requieren gran capacidad de supercómputo. En el ICAyCC de la UNAM se implementa el modelo acoplado WRF-Chem, que integra meteorología, transporte y química atmosférica. El modelo se ejecuta en un dominio único de ~3 km de resolución horizontal, empleando entre 44 y 132 núcleos, completando un pronós=co de 72 horas en aproximadamente 90 minutos. Se u=liza además el modelo Fall3d para simular la dispersión y el depósito de ceniza volcánica, realizando 72 corridas diarias (una por hora) en tres niveles de columna (3, 5 y 10 km). Cada simulación usa 10 núcleos y tarda cerca de 10 minutos, completando el conjunto en ~70 minutos. Para soportar estas tareas, se compila WRF-Chem con aproximadamente 50 bibliotecas, y se emplean sistemas de ges=ón de trabajos (SLURM) y de archivos paralelos (LUSTRE). Scripts automa=zados en bash coordinan la ejecución, desde la descarga de datos hasta la publicación de resultados en la plataforma del ICAyCC. En este trabajo se presentan: 1. Las ecuaciones que resuelven los modelos de meteorología (WRF), química atmosférica (RADM2) y dispersión de ceniza (Fall3d). 2. La infraestructura tecnológica: hardware (nodos, almacenamiento), sogware y librerías. 3. Los resultados operacionales diarios: mapas de pronós=co de calidad del aire y ceniza volcánica. Este sistema representa un avance significa=vo en vigilancia ambiental y respuesta ante emergencias en México. Gracias al uso de supercómputo, es posible generar pronós=cos confiables y de alta resolución en =empos compa=bles con la operación real, estableciendo una base sólida para futuros desarrollos en asimilación de datos, mejora de inventarios de emisión y op=mización de recursos computacionales. |
![]() José Agustín García ReynosoInstituto de Ciencias de la Atmósfera y Cambio Climático, UNAM El Dr. José Agustín García Reynoso es Ingeniero Químico por la Facultad de Química de la UNAM, donde obtuvo Mención Honorífica. Cursó la Maestría en Ingeniería Ambiental y el Doctorado en Ciencias de la Tierra en la UNAM. Ha realizado estancias académicas en la Universidad de California en Los Ángeles y el Instituto Fraunhofer en Alemania, así como una estancia posdoctoral en el Instituto Tecnológico de Massachusetts bajo la supervisión del Dr. Mario Molina, Premio Nobel de Química 1995. Actualmente, es Investigador Titular “C” de Tiempo Completo en el Instituto de Ciencias de la Atmósfera y Cambio Climático (ICAyCC), donde forma parte del grupo de Fisicoquímica Atmosférica. Además, es jefe de la Unidad de Cómputo y Supercómputo y presidente del Comité de Educación Continua. Ha sido coordinador de posgrado en el ICAyCC y presidente del Colegio Nacional de Ingenieros Químicos y de Químicos. Es miembro del Sistema Nacional de Investigadores y del Programa de Primas al Desempeño del Personal Académico (PRIDE) con nivel “D”. Como tutor de posgrado en Ciencias de la Tierra, ha participado en programas de la UNAM y la Universidad San Carlos de Guatemala. Ha impartido clases en la Facultad de Química, la ENCIT y en diplomados en México, Costa Rica y El Salvador. Ha sido jurado del Premio Nacional de Química Andrés Manuel del Río y del Premio Potosino, así como evaluador en revistas científicas como Atmospheric Chemistry and Physics, Urban Climate, Atmósfera y la Revista Internacional de Contaminación Ambiental. Su investigación se enfoca en modelación de dispersión de contaminantes atmosféricos, análisis de riesgos y pronósticos operativos de calidad del aire y dispersión de ceniza, contribuyendo al desarrollo de políticas públicas y salud ambiental en México |
Transmisión
Anexo de la Facultad de Ingeniería, UNAM.
Anexo Facultad de Ingeniería, Escolar 3000, C.U., Coyoacán, Ciudad de México, CDMX
Contacto:
congreso.super@unam.mx
Lugar
Auditorio Sotero Prieto










