Conferencias
- Registro únicamente de 08:30-09:00.
- Diariamente, registra tu ingreso y salida del Auditorio Sotero Prieto en el Anexo de la Facultad de Ingeniería.
- Cubre 15 horas presenciales durante todo el Congreso y obtén una beca al Workshop Fundamentals of Accelerated Computing with CUDA Python.
- Con 80% de asistencia al Congreso, recibirás tu constancia digital (puedes sumar horas presenciales y en línea).
- Regístrate aquí para recibir tu acceso a Zoom.
- Participa en las sesiones en vivo.
- Debes cubrir el 80% de asistencia para obtener la constancia digital.
| Hora | Conferencia/Panel | Ponente |
|---|---|---|
| 09:00 a 10:00 | Conferencia magistral-Harnessing the Power of Supercomputing: Revolutionizing Geosciences for a Sustainable Future Conferencia magistral-Harnessing the Power of Supercomputing: Revolutionizing Geosciences for a Sustainable Future Resumen: |
![]() Vlad Constantin ManeaInstituto de Geociencias, Campus Juriquilla, UNAM El Dr. Manea es egresado de la Universidad Técnica de Ingeniería Civil de Bucarest (Rumania) y de la Universidad de Bucarest (Rumania), donde realizó sus estudios de licenciatura en Ingeniería Civil y en Ingeniería Geofísica. En 2004, obtuvo el grado de Doctor en Ciencias en el Posgrado en Ciencias de la Tierra de la UNAM, con sede en el Instituto de Geofísica. Es ganador de la medalla "Alfonso Caso", otorgada por la UNAM a las mejores tesis de nivel posgrado. Su trayectoria académica comenzó en 2004 con una estancia postdoctoral en el Instituto Tecnológico de California (Caltech), en Pasadena, Estados Unidos. En 2007, obtuvo el puesto de Investigador Titular A en el Centro de Geociencias, Campus Juriquilla, UNAM. Desde 2018, es Investigador Titular B de Tiempo Completo en el Instituto de Geociencias de la UNAM. El principal campo de investigación del Dr. Manea es la geodinámica computacional con aplicaciones para las ciencias de la Tierra y las ciencias planetarias. Asimismo, una parte importante de su trabajo está enfocada en la aplicación del supercómputo en estas áreas. Desde 2016, es cofundador y corresponsable del Laboratorio Nacional de Visualización Avanzada (LAVIS) de la UNAM, Campus Juriquilla. El Dr. Manea ha sido responsable y colaborador en varios proyectos de investigación financiados por PAPIIT y CONACYT, y está involucrado en proyectos internacionales con diversas universidades e institutos, como la Universidad de Kobe y la Universidad de Tokio en Japón, la Universidad de Texas en El Paso, Estados Unidos, y el Instituto de Astronomía de la Academia Rumana. En 2014, fue nombrado miembro permanente de la Academia Mexicana de Ciencias. La formación de recursos humanos representa una de las principales actividades del Dr. Manea, enfocada en el trabajo con estudiantes de licenciatura, maestría y doctorado, así como en la impartición de cursos de posgrado a nivel de maestría en el Posgrado de Ciencias de la Tierra del Instituto de Geociencias, y en cursos de licenciatura en la Facultad de Ciencias y la ENES-Juriquilla, ambas de la UNAM. |
| 10:00 a 10:25 | Supercómputo y su impacto en la exploración petrolera offshore: IA y transformación digitalSupercómputo y su impacto en la exploración petrolera offshore: IA y transformación digitalResumen: La industria petrolera mexicana realiza actividades continuas para descubrir e incrementar reservas de hidrocarburos, manteniendo así la exploración y el desarrollo costa afuera. Sin embargo, las características geológicas del Golfo de México imponen desafíos a la exploración de hidrocarburos. El presente trabajo explora el papel fundamental de la transformación digital —habilitada por tecnologías avanzadas como el cómputo en la nube, la inteligencia artificial (aprendizaje automático), el cómputo de alto desempeño y el supercómputo— en la cadena de valor de la exploración de hidrocarburos y en la generación de prospectos. Mediante la integración de flujos de trabajo de procesamiento sísmico convencionales y mejorados (con apoyo de IA cuando corresponde), se optimiza el uso de datos, incluidos datos históricos, y se mejora la resolución de la imagen sísmica del subsuelo. Esto permite identificar características sutiles previamente desapercibidas, acelerando los ciclos de evaluación. Esta transformación se materializa en un entorno digital ágil y colaborativo que facilita la interacción fluida entre especialistas de distintas disciplinas, lo que representa un cambio estructural en la forma de abordar el estudio del subsuelo. La calidad de la imagen sísmica del subsuelo es fundamental para identificar prospectos viables, especialmente en entornos geológicos complejos. En años recientes, los algoritmos de migración e inversión sísmica han mejorado notablemente gracias al aumento de la capacidad de cómputo y a la incorporación de técnicas de aprendizaje automático. Se enfatiza cómo las estrategias basadas en datos, en la experiencia de los especialistas y en tecnologías digitales avanzadas (como la inteligencia artificial aplicada) están configurando una nueva manera de afrontar desafíos geológicos. En particular, la aplicación de técnicas de IA permite analizar volúmenes masivos de datos del subsuelo, lo que apoya a los expertos en la identificación eficiente de áreas prospectivas. En conjunto, estos elementos están redefiniendo cómo se enfrenta la complejidad del subsuelo. |
![]() Fidel SánchezConsultor Independiente Estudió ingeniería Geofísica en la Facultad de Ingeniería de la Universidad Nacional Autónoma de México, cuenta con más de 30 años de experiencia en la industria de hidrocarburos, vinculado a proyectos de tecnología, servicios y consultoría. Inició su carrera profesional en adquisición sísmica, procesamiento e interpretación sísmica, ha ocupado variedad de cargos operativos, administrativos y comerciales para diferentes empresas de tecnología y servicios. Recientemente jubilado después de 20 años acumulados en SLB habiendo desempeñado cargos en desarrollo de negocios, líder digital y gerente de cuenta, con un último enfoque en la línea de negocios denominada Geosolutions. Actualmente es consultor independiente y se encuentra afiliado a la Asociación Mexicana de Geofísicos de Exploración. |
| 10:25 a 10:50 | Caracterización de tormentas severas usando imágenes satelitales GOES-16 y procesamiento en paraleloCaracterización de tormentas severas usando imágenes satelitales GOES-16 y procesamiento en paraleloResumen: Una tormenta severa se caracteriza por lluvias intensas, granizo de gran tamaño y/o ráfagas de viento de al menos 93 km/h. Este tipo de fenómenos puede causar inundaciones, daños en infraestructura e incluso pérdidas humanas. El análisis de nubes mediante imágenes satelitales se ha convertido en una herramienta útil para identificarlas y caracterizarlas, así como para monitorear los fenómenos hidrometeorológicos particularmente aquellos relacionados con lluvia intensa. Este trabajo presenta los avances en la identificación y caracterización de nubes convectivas asociadas a tormentas severas, mediante el procesamiento y análisis de imágenes de los sensores Advanced Baseline Imager (ABI) y Geostationary Lightning Mapper (GLM), a bordo del satélite GOES-16. La región de estudio comprende la Corona Regional del Valle de México, enfocándose en algunos eventos de tormenta severa que han afectado a la Ciudad de México. Considerando diferentes bandas o una combinación de ellas, se analizó la temperatura de tope de nube, la actividad eléctrica, la convección de día, la fase de la nube y humedad del suelo, con el fin de caracterizar las tormentas severas en sus diferentes fases de desarrollo: temprana, madura y de disipación. Para el procesamiento de las imágenes satelitales, se desarrollaron programas en Python, los cuales fueron optimizados para su ejecución en el clúster Ometéotl del ICAyCC-UNAM. Se realizó la paralelización de los procesos para reducir los tiempos de ejecución mediante el uso de la librería “Multiprocessing” de Python. Esta optimización fue esencial, ya que por cada evento de tormenta severa se procesan aproximadamente 2880 imágenes, y la base de datos utilizada tiene alrededor de 130 eventos, lo que representa un volumen considerable de información a procesar. |
![]() Erika D. López EspinozaInstituto de Ciencias de la Atmósfera y Cambio Climático, UNAM Erika realizó su maestría y doctorado en Ciencias Computacionales en el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) en Puebla. De 2004 a 2005, trabajó en el Laboratorio de Visión por computadora del INAOE, realizando investigación en percepción remota y desarrollando software científico para proyectos para la Marina Armada de México. De 2008 a 2009 trabajó en el área de cómputo del Centro Virtual de Cambio Climático de la Ciudad de México, y durante 2009 participó en el área de cómputo del Programa Universitario del Medio Ambiente (PUMA) de la UNAM. Realizó una estancia posdoctoral DGAPA, de 2010 a 2011 en el Centro de Ciencias de la Atmósfera (CCA), ahora el Instituto de Ciencias de la Atmósfera y Cambio Climático (ICAyCC), sobre el impacto que tiene el cambio de la cobertura de suelo en el pronóstico meteorológico. De 2012 a 2013 fue becaria posdoctoral por el grupo Interacción Océano-Atmósfera realizando investigación sobre la evaluación de productos de cobertura vegetal y uso de suelo para mejorar la calidad del pronóstico meteorológico. En 2014 se incorporó como investigadora al ICAyCC y desde 2023 es Secretaria Académica de ese Instituto. Pertenece al Sistema Nacional de Investigadoras e Investigadores con el Nivel I. Sus líneas de investigación son la modelación numérica de la atmósfera, el impacto del cambio de la cobertura de suelo en las condiciones climáticas y el análisis de eventos extremos a partir de observaciones y modelación numérica. |
| 10:50 a 11:15 | Coffee BreakCoffee BreakResumen: | |
| 11:15 a 11:55 | Computación de Alto Rendimiento en Astrofísica RelativistaComputación de Alto Rendimiento en Astrofísica RelativistaResumen: La Computación de Alto Rendimiento (High Performance Computing, HPC) ha desempeñado un papel fundamental en el desarrollo de la astrofísica relativista, desde las primeras simulaciones de órbitas de sistemas binarios de agujeros negros en relatividad numérica, hasta modelos a gran escala del universo, la detección de ondas gravitacionales por la colaboración LIGO/VIRGO/KAGRA y la generación de imágenes de sombras de agujeros negros por l colaboración The Event Horizon Telescope (EHT). En esta charla explicaremos algunos de estos escenarios astrofísicos de altas energías, el costo computacional asociado a su estudio, y los principales retos que enfrentamos actualmente en el uso de HPC para avanzar en nuestra comprensión del universo. |
![]() Alejandro Cruz-OsorioInstituto de Astronomía, UNAM. Es físico-matemático por la Facultad de Ciencias Física-Matemáticas de la Universidad Michoacana de San Nicolás de Hidalgo (UMSNH) en Morelia, Michoacán, donde también obtuvo la Maestría y el Doctorado en Física Teórica en el Instituto de Física y Matemáticas. Realizó tres estancias postdoctorales: 1) 2015–2016, Instituto de Astronomía, UNAM. 2) 2017–2019, Departamento de Astronomía y Astrofísica, Universidad de València, València, España. 3) 2017–2017 y 2019–2023, Institut für Theoretische Physik, Goethe-Universität Frankfurt, Frankfurt am Main, Alemania. Desde el 2023 es Investigador Asociado C en el Instituto de Astronomía de la UNAM, miembro del Sistema Nacional de Investigadores en el nivel I. Es miembro activo de la colaboración The event Horizon Telescope como parte del grupo de teoría y simulaciones. Premios y reconocimientos: 1) EHT Early Career Award 2022: Por la destacada contribución del Modelado Teórico de Sagitario A*. The Event Horizon Telescope collaboration. 2) Wissenschaftspreis der Frankfurter Physik 2022 (Premio de Ciencias Físicas de Fráncfort 202 - mejor investigador individual, Universidad de Goethe-Frankfurt y la sociedad Walter Greiner Gesellschaft, Alemania. Mis áreas de investigación se centran procesos de altas energías usando la teoría de la relatividad general: Objetos compactos como estrellas de neutrones, estrellas de quarks, estrellas de bosones, estrellas mixtas con componentes de materia oscura, y agujeros negros. Procesos de acreción y la generación de jets relativistas mediante el mecanismo de Blandford-Znajek en agujeros negros. La emisión en multifrecuencias y sombras de agujeros negros, aceleración de partículas en plasmas. Materia oscura escalar. Ondas gravitacionales en sistemas post-merger. Cuenta con 76 publicaciones internacionales, más de 6000 citas e índice H de 28. Ha contribuido al desarrollo de los códigos CAFE y BHAC (Black Hole Accretion Code) para simulaciones en magnetohidrodinámica relativista. (NASA ADS bajo la búsqued"Cruz-Osorio"). |
| 11:55 a 12:20 | High performance simulations of a SGRB jet through expanding ejecta with polar structureHigh performance simulations of a SGRB jet through expanding ejecta with polar structureResumen: Short gamma-ray bursts (SGRBs) originate from the merger of two neutron stars, an event that ejects a dense, anisotropic, and expanding matter. After the merger, a collimated and relativistic jet is launched and has to successfully propagate through the launched material. In this work, we study the propagation of a SGRB jet through a funnel-like medium that may be static or expanding. We perform 2D axisymmetric relativistic hydrodynamic simulations using high-performance computing. Each simulation required around 1e4-1e5 CPU-hours, totaling approximately. The computational time was provided by the Miztli supercomputer (project LANCAD-UNAM-DGTIC-321) and through the “UNAM – AWS Cloud Research Projects” program. We explored various funnel opening angles and density contrasts. Narrow funnels confine jet expansion, leading to stronger collimation. The polar structure of the ejecta primarily influences early jet dynamics, while expanding ejecta dominates at later stages. Jets in low-density polar funnels advance faster initially, and the presence of mildly relativistic outflows sustains collimation after breakout. Our results highlight the critical role of the ejecta’s geometry and dynamics in shaping the evolution and electromagnetic emission of SGRB jets. |
![]() Diego López CámaraInstituto de Ciencias Nucleares, UNAM Diego López Cámara Ramírez, Investigador en el Instituto de Ciencias Nucleares de la UNAM, es doctor en Astrofísica e investigador nivel II del Sistema Nacional de Investigadores. Estudió la maestría y el doctorado en el Instituto de Astronomía de la UNAM, y posteriormente realizó sus estancias postdoctorales en el Instituto de Astronomía y el Instituto de Ciencias Nucleares de la UNAM, y en la Universidad Estatal de Carolina del Norte (EUA). El principal interés del Dr. López Cámara es comprender la naturaleza de los fenómenos astrofísicos de altas energías por medio de modelos analíticos y simulaciones numéricas. Ha mostrado especial interés en los destellos de rayos gamma (largos y cortos) y en la evolución de sistemas binarios en los cuales se producen fenómenos de altas energías. Ha publicado más de 35 artículos en revistas internacionales indexadas, dado numerosas pláticas en congresos (internacionales y nacionales), formado estudiantes de licenciatura y de posgrado, y está activamente involucrado en la docencia en el posgrado de Astronomía de la UNAM. Es un apasionado de la divulgación de la ciencia, le encanta dar pláticas de divulgación, cuenta los peores chistes que de vez en cuando causan risas, y es un obsesivo del fútbol. |
| 12:20 a 12:45 | Algoritmo de búsqueda de asteroides utilizando GPUsAlgoritmo de búsqueda de asteroides utilizando GPUsResumen: La búsqueda de objetos cercanos, su clasificación y la determinación de sus trayectorias es un campo abierto y de interés en la astronomía. El grupo de investigación de Estudio de Cuerpos menores está desarrollando un algoritmo de búsqueda de asteroides llamando AFUST (Asteroide Finder Using Synthetic Tracking). AFUST basa su detección en el desplazamiento y suma de las imágenes de un cubo de datos que obedece a una posible trayectoria de un asteroide. Seguido se analiza la imagen resultante utilizando el paradigma de visión por computadora llamada análisis de bulbos, haciendo cortes a diferentes escalas de valores de intensidad. Si el bulbo detectado cumple con ciertas características geométricas, por ejemplo excentricidad y área, se reporta la velocidad de la imagen, la posición del bulbo y su área, como una región promisoria en donde se puede encontrar un asteroide. Adicionalmente, AFUST prepara el cubo de datos antes del proceso de detección. Ejecuta una alineación del cubo de datos, elimina las tendencias del cielo y oculta a las estrellas utilizando el calculo de transformaciones rígidas y operadores morfológicos de imágenes. El modulo de detección, es un proceso computacional que demanda muchos recursos. Ejecuta un recorrido de posibles trayectorias de los asteroides desde una velocidad inicial hasta una velocidad final, con cierto tamaño de paso. En pruebas, hemos encontrado que para analizar del orden de 50,000 trayectorias, usando 20 núcleos de procesamiento en algoritmo tardó 4.5 días. En este trabajo, prestaremos los avances en el desarrollo de AFUST utilizando GPUs, programado en Phyton, desde dos perspectivas. La primera usando un servidor con tarjetas Nvidia A5000 y la segunda utilizando un contenedor ejecutado en la Plataforma para la Investigación en GPUs (PIG) |
![]() Benjamín Hernández ValenciaInstituto de Astronomía, UNAM-Ensenada Doctor en ciencias de la computación, con especialidad en algoritmos bio-inspirados y metaheuristicas centrados en el reconocimiento de patrones. Egresado del CICESE en el 2009. Trabajo en el Instituto de Astronomía sede Ensenada (IA-E) desde hace 35 años y actualmente soy el responsable y diseñador del Centro de Datos de Ensenada (EDC) que cuenta con aproximadamente 0.5 Peta-Bytes, el cual está basado en el sistema de archivos LUSTRE. Soy el responsable del diseño y aplicación del paradigma de “Cloud Computing” en Ensenada, que representa la columna vertebral de los servicios computacionales a todo el IA-E. Asimismo, soy miembro de los desarrolladores del proyecto Grid UNAM. Participo activamente, en el proyecto “Plataforma para Investigación en GPUs” (PIG) Soy miembro del proyecto “Censo automatizado de ocultaciones por objetos trans-Neptunianos” (TAOS-II) por sus siglas en inglés. En él soy el responsable de los datos del proyecto, que se proyecta que crezca hasta 2.5 Peta-Bytes. En este sentido, colaboramos estrechamente con el “Canadian Astronomy Data Centre” de Canadá, para tener un respaldo de las observaciones producidas por los telescopios de TAOS-II. De la misma forma, soy especialista en el desarrollo de algoritmos que detecten patrones de interés. En este sentido se están desarrollando algoritmos basados en inteligencia y técnicas de visión por computadora que detecten objetos más allá de la orbita de Neptuno y objetos cercanos a tierra. Mi pasatiempo favorito es bailar Danzón. |
| 12:45 a 13:10 | Toma de decisiones con datos complejos: Inteligencia Artificial para planeación de Infraestructura de Salud en JaliscoToma de decisiones con datos complejos: Inteligencia Artificial para planeación de Infraestructura de Salud en JaliscoResumen: Este estudio retrospectivo analizó datos a nivel municipal (desagregados) de los 125 municipios de Jalisco correspondientes a los quinquenios 2010–2014, 2015–2019 y el año 2020. Dado el volumen y la complejidad de la información sobre defunciones y pobreza, se utilizó el poder de cómputo del Centro de Análisis y Supercómputo (CADS) de la Universidad de Guadalajara para su procesamiento. A partir de fuentes oficiales de libre acceso del sistema de salud (Datos Abiertos y CONEVAL), se realizó estadística descriptiva para variables cualitativas y cuantitativas. Se aplicaron técnicas de inteligencia artificial (machine learning). Se utilizó Análisis de Componentes Principales (PCA) para reducir la dimensionalidad y el método del codo (Elbow) para determinar el número óptimo de clústeres. Posteriormente, se implementó el algoritmo K-Medias para clasificar los grupos según su similitud. La calidad del agrupamiento se validó mediante el coeficiente y gráfico de silueta (Silhouette coefficient). Estas estrategias de IA permitieron extraer patrones relevantes y evidencias sólidas a partir de un volumen elevado de datos, en estudios socio-sanitarios complejos. Resultados. Mediante el uso de supercómputo e inteligencia artificial, se identificaron 102 municipios prioritarios, y 70 clasificados como vulnerables –además de prioritarios–, que comprenden el 56% del estado. La atención focalizada en estas zonas permitiría ampliar la cobertura de salud hasta en un 75% de la población. Se proyecta una mejora significativa en 10 de las 12 regiones existentes, así como un impacto positivo en las tasas de mortalidad bruta y general. Estos resultados evidencian cómo las herramientas de análisis masivo de datos pueden guiar a estrategias efectivas de toma de decisiones, para reducir la desigualdad social y el rezago económico en contextos territoriales complejos. |
![]() Agustín Grajales CastilloCentro Universitario de Tonalá, Universidad de Guadalajara. Ingeniero en Computación por la UNIVA, con Maestría en Tecnologías de la Información por el Tec Virtual del ITESM y Diplomado en Administración de Proyectos (PMP). Obtuvo el grado de Doctor en Investigación Multidisciplinaria en Salud, desarrollando un modelo teórico basado en Inteligencia Artificial y aprendizaje automático (Machine Learning) para apoyar la toma de decisiones en infraestructura de salud en el estado de Jalisco. Sus áreas de interés incluyen ciencia de datos, Big Data, aprendizaje automático y el uso de tecnologías disruptivas de IA con impacto social. Considera que la convergencia entre tecnología y salud representa una vía estratégica para el desarrollo científico y social. Cuenta con más de 10 años de experiencia profesional en gestión de proyectos y cadena de suministro en la industria privada, además de una participación activa en congresos, seminarios y publicaciones científicas. En sus investigaciones recientes ha utilizado herramientas como Python, scikit-learn y pandas, así como recursos de supercómputo del Centro de Datos de Alto Rendimiento de la Universidad de Guadalajara (UDG-HPC), para el entrenamiento y validación de modelos predictivos. Su trabajo busca generar sinergias entre la IA, salud pública y toma de decisiones basada en datos, contribuyendo al avance del conocimiento multidisciplinario. |
| 13:00 a 14:30 | RecesoRecesoResumen: | |
| 14:30 a 15:35 | Presentación de carteles y videos, vestíbulo de la Biblioteca Enrique Rivero Borrell | |
| 15:35 a 16:05 | Coffee Break Coffee BreakResumen: | |
| 16:05 a 16:45 | Cómputo de alto rendimiento y datos masivosCómputo de alto rendimiento y datos masivosResumen: Motivado por las necesidades de grandes proyectos como el Observatorio Pierre Auger, el experimento ALICE en el LHC y el Observatorio HAWC tuvimos que desarrollar capacidades de cómputo de alto rendimiento para el manejo de grandes volúmenes de datos. En el transcurso del tiempo agreguemos soporte para más proyectos, como DESY, NICA y el Observatorio Vera Rubin (LSST). Al mismo tiempo, el centro se expandió y fundemos, en colaboración de la DGTIC y los institutos de Astronomía, Ciencias Nucleares y Química, el Laboratorio de Modelos y Datos (LAMOD). Presentaré la motivación, la historia y nuestros planes para el futuro. |
![]() Lukas NellenInstituto de Ciencias Nucleares, UNAM El Dr. Lukas Nellen labora en el I de Ciencias Nucleares de la UNAM. El recibió su doctorado en física en 1990 de la U de Oxford. Sus áreas de trabajo son el estudio de los rayos cósmicos y rayos gamma de las más altas energías. Desarrolla códigos de simulaciones y análisis de datos y trabaja en la creación de infraestructura para cómputo de alto rendimiento. Tiene posiciones de liderazgo en la Colaboración Pierre Auger, en el Observatorio HAWC y en la Colaboración SWGO. Es miembro del Comité Asesor de Supercómputo de la UNAM. Actualmente es el Secretario Técnico de Cómputo, Redes y Telecomunicaciones del Instituto de Ciencias Nucleares. Da clases en los posgrados de física y de cómputo. |
| 16:45 a 17:10 | Implementación de un cluster de alto desempeño y tolerante a fallas para el Laboratorio Nacional de Observación de la TierraImplementación de un cluster de alto desempeño y tolerante a fallas para el Laboratorio Nacional de Observación de la TierraResumen: El Laboratorio Nacional de Observación de la Tierra recibe imágenes de satélite constantemente y con ellas se generan productos útiles para estudios territoriales, meteorología y prevención de desastres. El proceso de datos, desde la recepción, la generación de productos derivados, el almacenamiento y la distribución a usuarios finales, requiere un sistema organizado, eficiente y tolerante a fallas. Para atender esta necesidad, se diseñó e implementó un clúster de procesamiento y distribución de datos satelitales, con base en software libre de código abierto, como un sistema de alta disponibilidad. Es un proyecto activo y se contemplan mejoras importantes para el futuro. |
![]() Alejandro Aguilar SierraInstituto de Geografía, UNAM. Estudió física en la Facultad de Ciencias y el posgrado en Ciencias de la Computación en el IIMAS, UNAM. Es académico en el Laboratorio Nacional de Observación de la Tierra. Durante los proyectos de realidad virtual Ixtli creó varias simulaciones relacionadas con Ciencias de la Tierra. Ha impartido cursos regulares en la Facultad de Ciencias y en la Escuela Nacional de Ciencias de la Tierra. Ha publicado artículos de divulgación e impartido conferencias sobre temas de Ciencias de la Tierra en diversos foros como el Planetario Luis Enrique Erro, Noche de las Estrellas, etc. Su documental El Efecto Invernadero ganó dos premios internacionales en el Festival de Cine Científico de la Habana en 2006. Fue coordinador de medios audiovisuales de la Comisión Nacional para el Año Internacional de la Tierra, de 2008. |
| 17:10 a 17:35 | Modelo de almacenamiento de datos jerárquico para entornos de HPCModelo de almacenamiento de datos jerárquico para entornos de HPCResumen: En los centros de Supercómputo actuales, la demanda de almacenamiento masivo de datos crece de forma acelerada, impulsada tanto por la generación de grandes simulaciones numéricas como por el análisis de datos experimentales. La reciente incorporación de modelos de Inteligencia Artificial (IA) complica esta necesidad, al requerir de sistemas de almacenamiento capaces de alimentar de forma eficiente los flujos de procesamiento de datos. En el Laboratorio de Modelos y Datos (LAMOD), actualmente se almacenan 10 PB de datos de proyectos diversos en un sistema de archivos Lustre. Ante el crecimiento continuo de archivos, se plantea la necesidad de optimizar el uso de los recursos de almacenamiento. Este escenario presenta dos desafíos principales: por un lado, el incremento en la demanda de energía y espacio físico; por otro, la acumulación de grandes cantidades de archivos inactivos que deben mantenerse disponibles en el sistema. Una estrategia para mitigar estos problemas consiste en la implementación de un sistema de almacenamiento jerárquico estructurado en tres niveles: • Primer nivel: almacenamiento de alto rendimiento con capacidad suficiente para alojar los datos activos en el clúster. • Segundo nivel: almacenamiento de alta capacidad basado en objetos, accesibles mediante el protocolo S3 y que deben ser transferidos al primer nivel para su procesamiento. • Tercer nivel: almacenamiento de datos de acceso infrecuente, almacenados en una biblioteca de cintas. Los tres niveles deben estar integrados mediante un sistema de gestión de almacenamiento jerárquico (HSM) que regula la migración y ubicación de los datos, de acuerdo con políticas de uso. En este trabajo se presenta la propuesta de diseño de un sistema de almacenamiento jerárquico para el LAMOD, con el objetivo de ofrecer una solución escalable, eficiente y replicable en otros entornos de cómputo de alto rendimiento que enfrentan la necesidad de gestionar grandes volúmenes de información. |
![]() Eduardo MurrietaInstituto de Ciencias Nucleares, UNAM. Técnico Académico en el Instituto de Ciencias Nucleares de la UNAM. Especializado en sistemas de almacenamiento para Cómputo de Alto Rendimiento. Administrador del sistema de almacenamiento de datos científicos más grande de la UNAM con 10 PB en Lustre. Cuenta con más de 25 años de experiencia tanto en la academia como en la industria y el sector gobierno, en áreas de programación y administración de sistemas. Egresado de la Maestría en Ciencia e Ingeniería de la Computación y de las licenciaturas de Física e Ingeniería en Computación de la UNAM. Profesor de los diplomados de Administración de Infraestructuras de Cómputo de Alto Rendimiento y Administración de Servidores Linux. |
| 17:35 a 18:00 | El papel de supercómputo de alto rendimiento en el diagnóstico y tratamiento de pacientes usando radiación ionizanteEl papel de supercómputo de alto rendimiento en el diagnóstico y tratamiento de pacientes usando radiación ionizanteResumen: |
![]() Guerda MassillonInstituto de Física, UNAM Investigadora Titular B, tiempo completo y definitiva del Instituto de Física, UNAM. Su área de investigación es la Dosimetría Básica y su aplicación en Física Médica. Ha recibido los siguientes reconocimientos: “Fellow” de la Interamerican Network of Academies of Sciences (IANAS) 2011; “Young Scientist Prize in Medical Physics” de la International Union of Pure and Applied Physics (IUPAP) 2015; “Research Fellow” de la Royal Society, Inglaterra 2015; Medalla Marie Curie de la Unesco 2017; Sistema Nacional de Investigadores SNI nivel II. Es miembro de la International Solid-State Dosimetry Organization (ISSDO), desde septiembre 2019. Es consejera universitaria desde 2022 y miembro del comité académico de supercómputo de la UNAM. |
Transmisión
Anexo de la Facultad de Ingeniería, UNAM.
Anexo Facultad de Ingeniería, Escolar 3000, C.U., Coyoacán, Ciudad de México, CDMX
Contacto:
congreso.super@unam.mx
Lugar
Auditorio Sotero Prieto










