Conferencias
- Registro únicamente de 08:30-09:00.
- Diariamente, registra tu ingreso de y salida del Auditorio Sotero Prieto en el Anexo de la Facultad de Ingeniería.
- Cubre 15 horas presenciales durante todo el Congreso y obtén una beca al Workshop Fundamentals of Accelerated Computing with CUDA Python.
- Con 80% de asistencia al Congreso, recibirás tu constancia digital (puedes sumar horas presenciales y en línea).
- Regístrate aquí para recibir tu acceso a Zoom.
- Participa en las sesiones en vivo.
- Debes cubrir el 80% de asistencia para obtener la constancia digital.
| Hora | Conferencia/Panel | Ponente |
|---|---|---|
| 09:00 a 09:30 | InauguraciónInauguraciónResumen: | |
| 09:30 a 10:30 | Conferencia Magistral-Visión unificada de los métodos de descomposición de dominio Conferencia Magistral-Visión unificada de los métodos de descomposición de dominio Resumen: Domain decomposition methods (DDM) are the most effective known procedures for applying Supercomputation to scientific computing. The author and speaker of this talk has intensively worked on axiomatic approaches to such a subject. In particular, he and his co-workers introduced and developed the derived-vector space approach to DDM, better known as VDS-approach. In this master-talk I, briefly and in an ‘eye-bird’s manner’, present such an approach. |
![]() Ismael Herrera RevillaInstituto de Geofísica, UNAM Herrera Revilla es una de las personalidades más destacadas de la Ciencia Mexicana Matemático Aplicado de excelencia ha realizado contribuciones fundamentales en campos de una diversidad singular: ingeniería, geofísica, hidrología, cómputo científico, supercómputo, entre otros Posee los tres premios más importantes de México: el Nacional de Ciencias y Artes, el de la Academia Mexicana de Ciencias y el Luis Elizondo del ITESM En 1971, organizó y fue director técnico fundador de CONACYT Fue miembro del Consejo Asesor de la Universidad de Princeton Fue el Organizador Principal de DD14 (Fourteenth International Conference on Domain Decomposition Methods) Fundó, organizó y fue editor treinta años de la revista “Numerical Methods for Partial Diferential Equations” publicada por la editorial John Wiley Expresidente de las academias nacionales de México, tanto de Ciencias como de la de Ingeniería Exdirector del IIMAS y del Instituto de Geofísica, de la UNAM |
| 10:30 a 10:55 | Coffee BreakCoffee BreakResumen: | |
| 10:55 a 11:20 | IXCHEL3D: Simulaciones de mecánica de fluidos y transferencia de calor en CPUs y GPUsIXCHEL3D: Simulaciones de mecánica de fluidos y transferencia de calor en CPUs y GPUsResumen: Se presentará el código de simulación de mecánica de fluidos y transferencia de calor IXCHEL3D, desarrollado en la Escuela Nacional de Estudios Superiores unidad Mérida de la Universidad Nacional Autónoma de México. Este código simula problemas de termofluidos y está habilitado para usar unidades gráficas multipropósito (GPU). Partiendo de un código heredado con una paralelización basada en OpenMP para unidades centrales de procesamiento (CPU), se presenta la ruta seguida para habilitar el uso de las unidades gráficas multipropósito. Se incluirán resultados de casos de estudios en progreso y se compará el rendimiento del programa ejecutado en procesos paralelos corriendo en CPUs y GPUs. Se plantearán posibles aplicaciones y la ruta futura de desarrollo de este programa. Las actividades de investigación que han dado como resultado este código han sido apoyadas por el proyecto PAPIIT-IN109625 “Dispositivo termosolar doméstico para una transición energética sostenible”, además de contar con recursos de cómputo de alto desempeño del Laboratorio Nacional de Computo de Alto Desempeño LANCAD a través del proyecto LANCAD-UNAM-DGTIC-379, y apoyo del Centro de Datos de la Dirección General de Tecnologías de la Información y Cómputo DGTIC. |
![]() Juan Carlos Cajas GarcíaEscuela Nacional de Estudios Superiores Unidad Mérida, UNAM Soy físico teórico con experiencia en simulaciones numéricas de altas prestaciones y aproximaciones analíticas en transferencia de calor, mecánica de fluidos y problemas de interacción fluido-estructura. Cursé la Licenciatura en Física en la Facultad de Ciencias de la Universidad Nacional Autónoma de México y el Doctorado en el Posgrado en Ciencias Físicas de la misma Universidad, ambos bajo la supervisión del Dr. César Treviño. Cuento con experiencia científica interdisciplinaria en los campos de física, ingeniería, y ciencias de la computación, desarrollando herramientas numéricas para problemas multifísica acoplados en un entorno de cómputo de alto rendimiento (HPC por sus siglas en inglés), especialmente enfocado a interacción fluido-estructura en flujos laminares y turbulentos, aerodinámica y aplicaciones biomecánicas. Realicé una estancia posdoctoral en el ‘Barcelona Supercomputing Center’ (BSC) en Barcelona, España, bajo la supervisión del Dr. Guillaume Houzeaux, donde me especialicé en el desarrollo de código paralelo para aplicaciones en ciencia e ingeniería. Los resultados de mi trabajo se utilizan rutinariamente en las simulaciones del grupo de biomecánica del BSC y son de vital importancia en la línea de investigación de multifísica del departamento de aplicaciones para ciencia e ingeniería del BSC. Los resultados derivados de mi investigación y la de mis colaboradores en este periodo se encuentran publicadas en dieciseis artículos JCR del primer cuartil, previos al periodo a evaluar en la presente convocatoria. Actualmente soy profesor en la Escuela Nacional de Estudios Superiores unidad Mérida de la Universidad Nacional Autónoma de México (ENES Mérida UNAM). Donde aplico mis conocimientos al estudio de sistemas costeros, impacto de tsunamis en costas, e interacciones fluido-estructura en general. Cuento con la distinción del Sistema Nacional de Investigadoras e Investigadores nivel II. |
| 11:20 a 11:45 | Proceso de Regresión Gausiana para estimación de gradientes estelares en galaxias enanas usando GridUNAMProceso de Regresión Gausiana para estimación de gradientes estelares en galaxias enanas usando GridUNAMResumen: In this talk we present the estimation of the gradients from the radial profiles of several stellar properties for a set of dwarf galaxies, using resolved spectroscopic observations. Dwarf galaxies have a much noisier nature when compared to their massive counterparts, making very challenging the task of estimating changes (gradients) from the radial distribution of their observed properties, since these distributions are non-linear. We make use of a machine learning algorithm (Gaussian Process Regression) to smooth the observed distributions in order to facilitate the estimation of the gradients, which contain important physical information. This task required an iterative process that needed to be applied for twelve different stellar properties for a set of 136 observed galaxies. Due to the resource and time intensive nature of the computing needed for this application, a grid supercomputing environment (GridUNAM) was chosen for the training of the model. Furthermore, to ensure reproducibility, we used Apptainer to containerize our code and developed a Conda environment for package management in Python. We found that this approach allowed for the execution of the code in heterogeneous cluster architectures in a timely and efficient manner. This talk will provide an overview of the process of adapting code for its execution and GridUNAM. |
![]() Lenin Pavón-Álvarez, Mariana Cano-DíazFacultad de Ciencias, UNAM., Instituto de Astronomía, UNAM., Lenin Pavón es estudiante de la Licenciatura en Matemáticas Aplicadas y Ayudante de Profesor en el Departamento de Matemáticas en la Facultad de Ciencias de la UNAM. Participó en un invierno de investigación en Análisis Topológico de Datos. Ha colaborado como ayudante para las materias de Álgebra Lineal II, Probabilidad I, Probabilidad II y actualmente en Taller de Modelación I y Programación en Paralelo. Desde agosto de 2023 se desempeña como becario en supercómputo en un proyecto conjunto entre la DGTIC y el Instituto de Astronomía de la UNAM, enfocado en el desarrollo y optimización de código científico en entornos de cómputo de alto rendimiento. |
| 11:45 a 12:10 | Aprendizaje por refuerzo para aproximar soluciones a sistemas cuánticos de muchos cuerposAprendizaje por refuerzo para aproximar soluciones a sistemas cuánticos de muchos cuerposResumen: |
![]() Roman Josué Armenta RicoInstituto de Física, UNAM. |
| 12:10 a 12:35 | Grafeno en Expansión: Aprendizaje de Maquina y Supercomputación para Entender sus Propiedades TérmicasGrafeno en Expansión: Aprendizaje de Maquina y Supercomputación para Entender sus Propiedades TérmicasResumen: |
![]() Brian Zamora-MartínezInstituto de Física, UNAM |
| 12:35 a 13:00 | Aplicación de XGBoost para la identificación de curvas de Bragg sintéticas en el clúster BorromeoAplicación de XGBoost para la identificación de curvas de Bragg sintéticas en el clúster BorromeoResumen: Esta ponencia presenta la aplicación de un método basado en aprendizaje automático para la identificación de curvas de Bragg en física nuclear, patrones relevantes en la caracterización de iones pesados en medios gaseosos. Este trabajo, desarrollado a lo largo de dos años como parte de una tesis de licenciatura, fue realizado por un estudiante de física y académico de la Facultad de Ciencias de la UNAM. El enfoque principal radica en el uso del algoritmo de XGBoost para clasificar estas curvas. Para el entrenamiento del modelo, se generó una base de datos sintética de más de 180,000 curvas de Bragg, derivada de datos experimentales reales, lo que permitió un conjunto de entrenamiento robusto y representativo. Uno de los desafíos centrales del proyecto fue la demanda computacional intensiva impuesta por la optimización del modelo mediante la búsqueda por malla con validación cruzada. Este reto se superó exitosamente gracias al acceso al clúster Borromeo del Centro de Ciencias de la Complejidad (C3) de la UNAM, un recurso de supercómputo que proporcionó la capacidad necesaria para procesar grandes volúmenes de datos y la complejidad algorítmica. La magnitud del proyecto se refleja en la generación de más de 16 mil modelos XGBoost, cada uno compuesto por 10 mil árboles de decisión, resultando en más de 163 millones de árboles de decisión. Este trabajo demuestra el potencial de la inteligencia artificial y el supercómputo para abordar problemas complejos en la física nuclear, explorando nuevas vías para la automatización en la identificación de patrones. |
![]() Luis Fermín Martínez ManzoFacultad de Ciencias, UNAM Luis Fermín Martínez Manzo es egresado de la Licenciatura en Física por la Universidad Nacional Autónoma de México (UNAM) y se encuentra en vísperas de su titulación. Su trayectoria se ha enfocado en la aplicación de aprendizaje automático y ciencia de datos a la resolución de problemas complejos. Su trabajo de tesis, "Algoritmos de Potenciación de Gradiente para la Identificación de Curvas de Bragg", constituye la base de su colaboración como Ayudante de Investigador. Su experiencia en investigación incluye su rol como Asociado en el Centro de Ciencias de la Complejidad (C3) de la UNAM, donde colabora en proyectos de ciencia de datos y aprendizaje automático. Adicionalmente, ha sido Ayudante de Investigador Nivel III (SNI), participando activamente en el tratamiento y análisis de datos para la producción científica. En el ámbito docente, cuenta con tres años de experiencia como Ayudante de Profesor en la Facultad de Ciencias de la UNAM. Ha sido responsable del Laboratorio de Neuronas y Redes Neuronales, donde ha enseñado herramientas de cómputo y aprendizaje automático. También ha participado en los cursos de "Introducción a la Ciencia de Datos" y "Redes Neuronales". Su perfil se complementa con una sólida formación técnica en lenguajes como Python, y un manejo avanzado de librerías de aprendizaje automático. Su interés por la docencia y la investigación lo impulsa a buscar continuamente oportunidades para aplicar y transmitir sus conocimientos en computación y áreas afines. |
| 13:00 a 14:30 | RecesoRecesoResumen: | |
| 14:30 a 15:10 | Tonalli y Bacchus: Estrategias de ejecución de códigos en Python para la plataforma de Grid UNAM.Tonalli y Bacchus: Estrategias de ejecución de códigos en Python para la plataforma de Grid UNAM.Resumen: Tonalli es una herramienta que permite obtener el mejor ajuste para un espectro estelar en la banda H, observado por APOGEE-2 (Apache Point Observatory Galactic Evolution Experiment 2) y fue desarrollada en el Grupo de Formación Estelar del Instituto de Astronomía, Ensenada. Bacchus es un código destinado a realizar automáticamente análisis de abundancia de LTE para entre una y miles de estrellas de tipo tardío. En el presente trabajo se describe la metodología implementada para la ejecución de ambos códigos en la plataforma Grid UNAM, esto utilizando el lenguaje de programación Python. La Grid UNAM es una infraestructura de supercómputo que agrupa a distintas entidades de la Universidad Nacional Autónoma de México para lograr el aprovechamiento eficiente de la infraestructura y personal académico en cómputo de alto rendimiento, a través de una red que permite compartir recursos humanos y computacionales. En el desarrollo del presente trabajo realizamos una comparación sobre las ventajas del uso de una infraestructura de supercómputo tan compleja como Grid UNAM y su implementación en servidores de supercómputo locales, expondremos cómo fue que el uso de los recursos compartidos entre los diferentes nodos de Grid UNAM ha beneficiado significativamente a este proyecto. El objetivo de este trabajo es presentar y promover el uso de la infraestructura de Grid UNAM. |
![]() Edilberto Sánchez MorenoInstituto de Astronomía, UNAM. Ingeniero en Mecatrónica egresado de la Universidad del Valle de México campus Tuxtla en 2012 y obtuvo el grado de Maestría en Ciencias en Sistemas Digitales en el Centro de Investigación y Desarrollo de Tecnología Digital del Instituto Politécnico Nacional (CITEDI - IPN) en febrero del 2016 con la Tesis: Descomposición de dominio para interfases difusas en procesadores gráficos. Ingresé al Instituto de Astronomía en la sede de Ensenada el 1 de enero del 2016 como Técnico Académico Titular A de Supercómputo y actualmente soy Técnico Académico Titular B. Es responsable del desarrollo de pipelines para la generación de datos fotométricos del proyecto Transneptunian Automated Occultation Survey (TAOS - II) y de la optimización e implementación de técnicas de HPC y HTC en códigos y software del grupo de Formación Estelar del Instituto de Astronomía de la sede de Ensenada. Recientemente se integró al grupo de desarrolladores de la infraestructura del IDAC (Independent Data Access Centers) del Observatorio Vera Rubin del proyecto Legacy Survey of Space and Time (LSST) en México, principalmente en la gestión de datos distribuidos con RUCIO. También es miembro del grupo de desarrollo de Grid UNAM que recientemente fue premiado con el Reconocimiento a los proyectos relevantes de Cómputo de Alto Rendimiento en México. Líneas de investigación: - Optimización e implementación de técnicas de compilación y ejecución de algoritmos HPC y HTC para cómputo científico en Astronomía en Clústers Científicos y Grid de Clusters. - Gestión y administración de centro de datos distribuidos y alta disponibilidad. - Procesamiento de imágenes astronómicas para la generación de datos fotométricos. |
| 15:10 a 15:35 | Sinergia Supercómputo–Grid UNAMSinergia Supercómputo–Grid UNAMResumen: Se presenta en este trabajo la estrategia computacional implementada para abordar problemas astrofísicos complejos, optimizando el uso de recursos en la Supercomputadora Miztli mediante la Grid UNAM. Nuestro enfoque se centra en la evolución de discos de acreción perturbados por un satélite inmerso en él, un fenómeno crucial en astrofísica. Específicamente, investigamos como la formación de zanjas o gaps, producidas por un satélite de masa 𝑚 en una órbita circular retrógrada fija alrededor de un objeto central de masa 𝑀, afecta la estructura de un disco de acreción. |
![]() Alfredo SantillánDGTIC, UNAM. El Dr. Alfredo J. Santillán González realizó su Licenciatura en Física en la Universidad Autónoma Metropolitana-Iztapalapa, su Maestría y Doctorado en Ciencias (Astrofísica) en la Universidad Nacional Autónoma de México (UNAM). Actualmente es Investigador Titular B del Departamento de Supercómputo de la Dirección General de Cómputo y Tecnologías de Información y Comunicación (DGTIC) de la UNAM con 35 años de antigüedad. Su campo de especialidad es la Astrofísica Computacional, el Cómputo de Alto Rendimiento (HPC) y las TIC. Hasta la fecha ha publicado más de 40 artículos en revistas especializadas con arbitraje internacional con más de mil citas de acuerdo con Google Scholar; además de publicar 12 artículos de divulgación y un capítulo del libro La UNAM por México 2010. Ha sido editor de 2 Conferencias Internacionales, una de Supercómputo y otra de Astrofísica, y 4 volúmenes de la Revista Digital Universitaria. Ha sido Coordinador de la Unidad de Investigación en Cómputo Aplicado (UICA) de la DGSCA, UNAM; Coordinador del Plan de Becarios de Supercómputo; asesor de Cómputo de la Dirección General de Divulgación de la Ciencia de la UNAM; Miembro del Comité Regional de Promoción de Ciencia Tecnología e Innovación del Estado de Tamaulipas; Presidente del Comité de Aplicaciones y Asignación de Fondos de la Corporación Universitaria para el Desarrollo de Internet (CUDI); Miembro del Comité Nacional del International Supercomputing Conference in Mexico y Miembro fundador de la Red Mexicana de Supercómputo (RedMexSu), Conacyt. Ha realizado estancias de investigación en el Copernicus Astronomical Center, Warsaw, Poland; en el Korea Astronomy and Space Science Institute, Korea; y en el Instituto de Física y Astrofísica de la Universidad de Valparaíso, Chile. Actualmente es miembro de la International Astronomical Union (IAU) y de la Sociedad Mexicana de Física. Ha sido miembro del Comité Organizador de 23 Congresos nacionales e internacionales. Ha dirigido 3 tesis de licenciatura, 5 de maestría y una de doctorado en proceso. Ha impartido 34 cursos de licenciatura y más de 20 cursos de posgrado. Es un entusiasta divulgador de la astrofísica, del HPC y las TIC en nuestro país y en el extranjero con más de 100 conferencias impartidas. |
| 15:35 a 15:55 | Coffee Break Coffee BreakResumen: | |
| 16:05 a 16:30 | Identification of CRISPR arrays in bacterial genomes using deep learning modelsIdentification of CRISPR arrays in bacterial genomes using deep learning modelsResumen: |
![]() Edna Cruz-FloresUniversidad Autónoma del Estado de Morelos Edna Cruz Flores es Maestra en Optimización y Cómputo Aplicado y actualmente candidata a Doctora en Ciencias en el área de Modelación Computacional y Cómputo Científico por el Instituto de Investigación en Ciencias Básicas y Aplicadas de la Universidad Autónoma del Estado de Morelos (IICBA-UAEM). Su línea de investigación se especializa en la convergencia entre Ciencia de Datos, Bioinformática y Aprendizaje Profundo, con un enfoque particular en el desarrollo e implementación de modelos de redes neuronales profundas para el análisis y procesamiento de datos genómicos complejos. Su trabajo doctoral se orienta hacia la integración de herramientas computacionales avanzadas y técnicas de inteligencia artificial para descifrar patrones en información biológica, contribuyendo así al avance del conocimiento en ciencias de la vida mediante aproximaciones computacionales. |
| 16:30 a 16:55 | Desde la quinolina hasta el Alzheimer. Diseño computacional de fármacos multifuncionales usando cómputo de alto desempeñoDesde la quinolina hasta el Alzheimer. Diseño computacional de fármacos multifuncionales usando cómputo de alto desempeñoResumen: Quinoline derivatives with potential antioxidant and polygenic activity were designed for the treatment of multifactorial neurodegenerative diseases, including Parkinson and Alzheimer diseases. Quinoline, recognized as a privileged scaffold in drug design, was employed as the structural core to generate 8,359 functionalized molecules. This study underscores the pivotal role of high-performance computing in the rational selection and dynamic validation of bioactive compounds, consolidating the use of next generation in silico strategies for the efficient discovery of multifunctional therapeutic agents. Computational evaluation was performed using the CADMA-Chem protocol, enabling the prediction of ADME–Tox–SA properties. 20 candidates were selected for antioxidant capacity assessment and affinity estimation toward multiple therapeutic targets. The five top-performing compounds underwent advanced structural analysis via 200 ns molecular dynamics simulations. Compound dQ1368 exhibited key interactions with AChE residues Ser203 and Trp86, mimicking the binding mode of the reference drug donepezil, suggesting greater therapeutic potential against Alzheimer’s disease. For the five lead candidates, retrosynthetic pathways were proposed using artificial intelligence models via IBM RXN for Chemistry web interface, fostering collaboration, multidisciplinary, and progression toward the experimental validation phase. |
![]() Luis Felipe Hernández AyalaUNAM-Universidad Autónoma Metropolitana. Luis Felipe Hernández Ayala es Profesor de Asignatura en el Departamento de Química Inorgánica y Nuclear de la Facultad de Química de la Universidad Nacional Autónoma de México. Obtuvo el Doctorado en Ciencias Químicas por la misma institución y actualmente realiza una estancia posdoctoral en la Universidad Autónoma Metropolitana, Unidad Iztapalapa. Es Miembro del Sistema Nacional de Investigadores (SNI), Nivel I, y de la Sociedad Química de México, la cual le otorgó el Premio Nacional de Química a la Mejor Tesis de Licenciatura en 2013. Ha publicado 34 artículos en revistas científicas indexadas, los cuales han recibido más de 350 citas. Su línea de investigación principal es el diseño de fármacos contra enfermedades multifactoriales, integrando enfoques de química medicinal, química computacional, química de coordinación y química bioinorgánica. |
| 16:55 a 17:20 | Identificación de agentes antineoplásicosIdentificación de agentes antineoplásicosResumen: CK1ε is a key enzyme in tumor progression, making it a pharmacological target for the treatment of various cancer types. Through virtual screening based on pharmacophore models derived from molecular dynamics simulations, we identified two FDA-approved antiretrovirals and 29 derivatives of 2,4-diaminopyrimidine as potential CK1ε inhibitors. These results highlight the role of high-performance computing in drug discovery and repurposing. |
![]() Luis Córdova BahenaFacultad de Medicina, UNAM. El Dr. Córdova es especialista en reposicionamiento de fármacos con potencial antineoplásico mediante estrategias secuenciales in silico — in vitro. Como investigador en el Laboratorio de Farmacología Molecular de la Facultad de Medicina de la UNAM, emplea técnicas de modelado molecular, acoplamiento y simulaciones de dinámica molecular que requieren cómputo de alto rendimiento. Imparte el curso de diseño de fármacos asistido por computadora en el Posgrado en Ciencias Químicas de la UNAM. Ha dirigido cinco tesis de licenciatura y una de posgrado, y es miembro del Sistema Nacional de Investigadores (nivel I). Su producción incluye diversas publicaciones científicas y de divulgación, y colabora como revisor ad hoc en revistas internacionales. |
| 17:20 a 17:55 | Cúmulos bimetálicos Aux Fey (donde, x+y=6) como catalizadores en la obtención de CH3OHCúmulos bimetálicos Aux Fey (donde, x+y=6) como catalizadores en la obtención de CH3OHResumen: Se estudió la adsorción y activación de las moléculas de CH₄ y H₂O₂ sobre cúmulos bimetálicos AuxFey, donde x + y = 6, mediante los procesos de oxidación H₃C–H → CH₃ + H y de ruptura HO–OH → HO* + HO* en fase gaseosa. Mediante cálculos all electrons, con la teoría de los funcionales de la densidad (PBE0/LANL2DZ para los átomos de oro y PBE0/Def2TZVP para los átomos de hierro y los orgánicos), se encontró que la energía de obtención de metanol en la reacción CH₄ + H₂O₂ → CH₃OH se reduce considerablemente, llegando incluso a volverse espontánea, con valores de ΔGreact de hasta –258 kcal/mol cuando los cúmulos bimetálicos de Au/Fe actúan como catalizadores. El papel principal de los cúmulos AuxFey es disminuir la energía requerida para la formación de radicales (de 452 kcal/mol sin la participación de cúmulos, hasta 5.23 kcal/mol para la proporción 50:50 de Au:Fe). Las barreras de energía para la reacción AuxFeyHO + CH₃ obtenidas oscilan entre 31.1 y –6.2 kcal/mol. Se observa una mejora notable en el comportamiento catalítico en la mayoría de los cúmulos, destacando especialmente la proporción Au₃Fe₃. |
![]() Patricio Rodrigo Rosales LimónFacultad de Estudios Superiores Cuautitlán, UNAM Doctor en Ciencias Químicas por la UNAM, especializado en el estudio teórico de cúmulos de metales de transición y su función catalítica mediante métodos de química computacional que requieren recursos de supercómputo. Ha trabajado en la oxidación del metano sobre cúmulos de Au, Fe y mixtos Au/Fe, así como en la activación de CO y el estudio de interacciones débiles en sistemas de inclusión molecular. Sus proyectos involucran programación de algoritmos genéticos, redes neuronales, dinámica y mecánica molecular. Actualmente realiza un posdoctorado en la FES Cuautitlán (UNAM) con apoyo de una beca CONAHCyT/SECIHTI, enfocando su investigación en el uso de supercómputo para el diseño de catalizadores y procesos más sustentables. |
Transmisión 1 de septiembre de 2025
Anexo de la Facultad de Ingeniería, UNAM.
Anexo Facultad de Ingeniería, Escolar 3000, C.U., Coyoacán, Ciudad de México, CDMX
Contacto:
congreso.super@unam.mx
Lugar
Auditorio Sotero Prieto










