Saberes y Ciencias número 58 Diciembre 2016: Supercómputo

 

Embed or link this publication

Description

Saberes y Ciencias, Supercómputo

Popular Pages


p. 1

Sabere ienciaS

[close]

p. 2

2 diciembre · 2016 Editorial Sensibilidad ante la indignación El Partido Revolucionario Institucional (PRI) es considerado el más corrupto de los organismos políticos electorales, es mayoría absoluta la ciudadanía que lo asocia a actos de autoritarismo, malversación de fondos públicos, deshonestidad, negligencia, nepotismo, enriquecimiento ilícito e impunidad; es el partido que registra el mayor porcentaje de rechazo, casi tres veces más alto que su porcentaje de aceptación. La mayoría de funcionarios públicos emanados de ese partido han ofrecido, en el ejercicio de su función, reiteradas pruebas de corrupción e impunidad: sus bienes patrimoniales no corresponden a su biografía laboral, como son los casos los ex gobernadores Humberto Moreira, Javier Duarte, Roberto Borge, César Duarte, Jorge Herrera, Egidio Torres y Rodrigo Medina; en palabras de César Augusto Santiago, ex secretario de Acción Electoral del PRI, las derrotas sufridas por ese partido en las elecciones de 2016 en Puebla, Veracruz, Tamaulipas, Chihuahua, Durango, Quinta Roo y Aguascalientes están asociadas a los gobernadores corruptos y dirigencias ineficientes (Proceso, 7/06/2016). Esas acciones son magistralmente ejecutadas por ejecutivos federales y municipales, dirigentes de organizaciones gremiales y parlamentarios locales y federales; las excepciones son garbanzos de a libra. La gestión presidencial de Enrique Peña Nieto va de mal a peor, en el mejor de los casos el crecimiento del Producto Interno Bruto durante su gestión crecerá a una tasa media anual de 2 por ciento, décimas por encima del crecimiento poblacional. Al final del sexenio es probable que el peso se haya devaluado en más de 80 por ciento, la deuda pública aumente en casi 50 por ciento; la tasa de condiciones críticas de ocupación ronde el 20 por ciento y la calidad de vida registre un deterioro más alto que el actual. La ciudadanía ya dio acuse del deterioro de su nivel de vida y del responsable: 69 por ciento desaprobó la gestión de Peña Nieto en noviembre de 2016 cuando en diciembre de 2012 fue 35 por ciento quien así lo estimó (Consulta Mitofsky, Encuesta: Evaluación de 16 trimestres de gobierno de EPN. 29/11/16). Ni la globalización ni las reformas macro estructurales aprobadas durante la gestión de Peña Nieto mejoraron la calidad de vida de la mayoría de los ciudadanos, tampoco hubo inclusión, justicia, o la equidad tan pregonada. La corrupción pública ahora es más evidente y también lo es la indignación que éstas generan ante la connivencia de quienes las solapan y encubren. Un tema central de las campañas de elección de gobernador de 2017 (Coahuila, Nayarit y México) y de la presidencial de 2018 será la corrupción y la impunidad, y los partidos ya lo tomaron en cuenta: el PAN le retiró la protección a Guillermo Padrés Elías, ex Directorio gobernador de Sonora y el PRI hizo lo mismo con Javier Duarte, ex gobernador de Veracruz. Por su parte, Ricardo Anaya, dirigente nacional del PAN trató de justificar el origen lícito de los ingresos que le permiten financiar la estancia de su familia en el extranjero, y el presidente Enrique Peña Nieto exhortó a sus correligionarios a ser positivos e íntegros en el ejercicio de gobierno. Enrique Peña arengó a los priistas a no ser omisos ante cosas que indignan a la ciudadanía y habló de honestidad en la gestión pública y de no encubrir a quienes saquean al erario; ese mismo día, Humberto Moreira, ex gobernador de dudosa probidad y acusado de peculado, fue integrado al Consejo Político Nacional del PRI. El burro hablando de orejas, como si tales acciones no fueran una divisa de la gestión del Ejecutivo federal o práctica recurrente de la administración pública. No será suficiente una estancia temporal en prisión para quienes se han enriquecido ilícitamente o malversado fondos públicos, será necesario que los recursos robados sean devueltos, que de verdad se transparente la cuenta pública y se acote la discrecionalidad con que los Ejecutivos de los tres niveles contratan deuda pública y ejercen recursos superiores a los autorizados. Es oprobiosa la publicidad desplegada por Ricardo Anaya y Rafael Moreno Valle para posicionarse para ser candidatos a la presidencia de la República sin que hay una autoridad que regule y sancione dichos gastos y mucho menos, su origen; como tampoco lo hubo para para quienes fondearon (y se beneficiaron) las tarjetas Monex utilizadas en la campaña presidencial de Peña Nieto. La impunidad es inter e intrapartidaria. es un suplemento mensual auspiciado por La Jornada de Oriente DIRECTORA GENERAL Carmen Lira Saade DIRECTOR Aurelio Fernández Fuentes CONSEJO EDITORIAL Leopoldo Altamirano Robles Jaime Cid Monjaraz Alberto Cordero Sergio Cortés Sánchez José Espinosa Julio Glockner Raúl Mújica COORDINACIÓN EDITORIAL Sergio Cortés Sánchez REVISIÓN Aldo Bonanni EDICIÓN Denise S. Lucero Mosqueda DISEÑO ORIGINAL Y FORMACIÓN Elba Leticia Rojas Ruiz · En nuestra portada: Laboratorio Nacional de Supercómputo del Sureste de México. Fotos: Archivo de la BUAP Dirección postal: Manuel Lobato 2109, Col. Bella Vista. Puebla, Puebla. CP 72530 Tels: (222) 243 48 21 237 85 49 F: 2 37 83 00 www.lajornadadeoriente.com.mx www.saberesyciencias.com.mx Tus comentarios son importantes para nosotros, escríbenos a: info@saberesyciencias.com.mx AÑO V · No. 58 · diciembre 2016 Las opiniones expresadas en las colaboraciones son responsabilidad del autor y de ninguna manera comprometen a las instituciones en que laboran. Contenido 3 La entrevista LNS, investigación, innovación y competitividad DENISE LUCERO MOSQUEDA 4 Hologramas realizados con computadoras ARTURO OLIVARES-PÉREZ 5 El supercómputo como herramienta en la investigación científica LUIS MANUEL VILLASEÑOR CENDEJAS 6 La entrevista LNS, herramienta para ampliar nuestros conocimientos sobre el Universoo DENISE LUCERO MOSQUEDA 7 El Supercómputo como herramienta de investigación para problemas difíciles de reconocimiento MARÍA DEL PILAR GÓMEZ GIL 8 Los rayos cósmicos ultra energéticos ENRIQUE VARELA, ALEJANDRA PARRA, HUMBERTO SALAZAR, OSCAR MARTÍNEZ 9 y 10 Destellos de rayos gamma CEDERIK LEÓN DE LEÓN ACUÑA, HUMBERTO SALAZAR IBARGÜEN, LUIS MANUEL VILLASEÑOR CENDEJAS 10 y 11 Origen y usos del supercómputo en la BUAP FRANCISCO J. MELÉNDEZ, MARÍA EUGENIA CASTRO S., ROSA ELENA ARROYO-CARMONA, LISSET NORIEGA, NORMA A. CABALLERO, ENRIQUE GONZÁLEZ-VERGARA Y RAMSES E. RAMÍREZ 12 El LNS y una aplicación a la Biología KARINA GONZÁLEZ LÓPEZ 13 El Diplomado en Cómputo de Alto Rendimiento del Laboratorio Nacional de Supercómputo del Sureste de México (LNS/Conacyt) MANUEL MARTÍN ORTIZ 14 Homo sum Tratados comerciales SERGIO CORTÉS SÁNCHEZ 15 Tekhne Iatriké Las alteraciones circadianas JOSÉ GABRIEL ÁVILA-RIVERA 16 Reseña (incompleta) de libros Carta de don Quijote de la Mancha a Sancho Panza, gobernador de la Ínsula Barataria ALBERTO CORDERO 17 Tras las huellas de la naturaleza ¿Movilidad ciclista, en una ciudad neoliberal? TANIA SALDAÑA RIVERMAR Y CONSTANTINO VILLAR SALAZAR ILUSTRACIÓN: DIEGO TOMASINI / DIBRUJO 18 Efemérides Calendario astronómico diciembre 2016 JOSÉ RAMÓN VALDÉS 19 INAOE 45 años INAOE 2016: resultados del esfuerzo en la formación de recursos humanos RAÚL MÚJICA Y GUADALUPE RIVERA 20 Agenda Épsilon JAIME CID MONJARAZ

[close]

p. 3

diciembre · 2016 3 Denise Lucero Mosqueda LNS, investigación, innovación y competitividad El Laboratorio Nacional de Supercómputo del Sureste de México (LNS) es el tercer laboratorio reconocido a nivel nacional. Nació por iniciativa de investigadores de la BUAP y con esfuerzos conjuntos del INAOE, UDLAP y Conacyt; la concreción del proyecto ahora hace posible que en la entidad poblana y el sureste mexicano se realicen cálculos y simulaciones compu- tacionales precisos y en un lapso de tiempo breve. En entrevista con , el doctor Humberto Salazar Ibargüen, investigador y director general de Cómputo y Tecnologías de la Información y Comunicaciones de la Benemérita Universidad Autónoma de Puebla comparte algunos de los avances y por menores del LNS. La Saberes y Ciencias (SyC): ¿Qué motivó el surgimiento del Laboratorio Nacional de Supercómputo del Sureste de México? Humberto Salazar Ibargüen (HSI): En la BUAP hay grupos de investigación que típicamente requieren del uso de cálculo numérico, como el Instituto de Física, la Facultad de Ciencias Químicas, la Facultad de Físico Matemáticas y el Instituto de Ciencias (ICUAP). Cada unidad, con recursos propios —sobre todo con apoyos del Conacyt— había logrado tener su equipo —clúster de alto rendimiento— pero lo tenían en condiciones muy precarias tanto en instalaciones, en técnicos asociados y en expertos que ayudaran a usar el equipo óptimamente y resolver los problemas que se presentaran. Durante la visita del rector Alfonso Esparza a las unidades académicas, la demanda constante fue la red y la conectividad, y en el caso de algunos grupos de investigación, mayor potencia de cómputo. De manera paralela Conacyt publicó su convocatoria para laboratorios nacionales por lo que se convocó a todos los investigadores a que presentaran sus proyectos de laboratorios nacionales. Se presentaron tres proyectos, dos de ellos desistieron porque requerían montos aún mayores, por lo que el laboratorio de Supercómputo quedó como única propuesta para ser sometida a Conacyt. El monto inicial fue de 40 millones de pesos, un buen inicio para el proyecto. Afortunadamente la Universidad vió con buenos ojos el proyecto, y puso la parte correspondiente —50 por ciento del monto total—, en este tipo de proyectos, al principio piden al menos 50 por ciento a la institución y 50 por ciento lo pone Conacyt; es difícil que una institución aporte tanto; sin embargo, tuvimos los argumentos para justificar su viabilidad. La primera solicitud la avalaron 90 investigadores, en su mayoría de la Universidad pero también del INAOE y UDLAP, fue impresionante lograr el consenso y respaldo de tantos investigadores. Uno de los factores en contra era que ya existían dos laboratorios de su tipo, sin embargo por cuestiones de conectividad y de capacidad impedían que estos laboratorios atendieran a todas las regiones del país, y presentamos el proyecto para atender el sureste de México. SyC: ¿Qué resultados se esperan a corto plazo? HSI: Se han cumplido satisfactoriamente aunque no sin experiencias difíciles. Respecto a las investigaciones, hemos logrado que nuestros usuarios locales desarrollen sus proyectos en ciencia básica y aplicada, además de nuestras convocatorias nacionales con lo que hemos logrado tener por lo menos un socio en algunas entidades del país. Hasta ahora, hemos logrado ofrecer un diplomado para la formación de recursos en el área —es el inicio hacia la especialización— y, en años próximos ofreceremos la maestría (2017) y el doctorado (2018) en el área. Otro propósito fue conseguir clientes potenciales, pensamos que este proceso sería más rápido, y aunque va lento creemos que se va a lograr, sucede que falta tiempo para entrevistar a los clientes potenciales y ofrecerles nuestros servicios. Somos la única Universidad de centro de datos y servicios especializados certificada con International Computer Room Experts Association (ICREA) por el nivel de disponibilidad y alta seguridad. SyC: ¿Cuáles son las líneas de investigación que se desarrollan en este laboratorio? HSI: Química y física de materiales, altas energías, algoritmos en computación, rendering, fisiología y cosmología son, hasta ahora, las áreas más importantes. SyC: ¿Hay algún aporte por parte de las empresas al laboratorio, fuera de que adquieran el servicio? HSI: En este momento eso no está sucediendo. Pretendemos que a largo plazo —una vez que se demuestre que el laboratorio es muy importante— se haga como en Europa que hay una asignación del presupuesto público a los laboratorios de supercómputo para atender las necesidades de todos los usuarios, universidades, empresas y gobierno. Es parte de un recorrido en la consolidación del uso, la demanda y que haya expertos; el día que completemos ese ciclo los propios empresarios dirán: “necesitamos ese laboratorio, necesitamos presupuesto” y ya no tendremos que pelear el presupuesto peso a peso, no sé cuanto tarde, pero espero poder verlo. SyC: ¿Se tiene proyectado que el laboratorio crezca? HSI: Dentro de las etapas de crecimiento del nuevo campus de Valsequillo, se pretende que el laboratorio —cuando adquiera un equipo más grande y la demanda de los clientes así lo requiera— se mude para allá. Con lo que nos da Conacyt estamos incrementando la capacidad de cómputo —con la compra de este año y la del año pasado, prácticamente se va a duplicar la capacidad original del equipo— aunque en cómputo eso es casi mantenerse, la innovación en computación crece muy rápido. SyC: ¿El recorte al presupuesto de Conacyt para el próximo año podría afectar al laboratorio? HSI: Conacyt nos ha comunicado que los laboratorios nacionales serán las instituciones con menor impacto en el recorte, eso nos tiene tranquilos; además creemos que a pesar de la depreciación de la economía nacional, será posible posicionar nuestro servicios con clientes potenciales. SyC: ¿Cuáles son los objetivos a largo plazo? HSI: Un laboratorio nacional implica muchos recursos y Conacyt no los tiene. Está claro que la convocatoria es para iniciar un laboratorio nacional y no para mantenerlo, eso lo tuvimos claro desde el principio. En ese sentido, trabajamos para darle respaldo continuo —con convocatorias anuales— buscando servicios de tal forma que tengamos ingresos propios y eso nos ayude al crecimiento y al mantenimiento del laboratorio; Conacyt nos pide que seamos autofinanciables en lo que se pueda. Buscamos áreas de oportunidad; en supercómputo hay muchas áreas de oportunidad pero hay que irlas trabajando poco a poco para concretarlas y, empezamos a ofrecer servicios. Queremos ofrecer un servicio certificado donde la disponibilidad es prácticamente al 99.95 por ciento del tiempo, de alta disponibilidad y conectividad. Desde el inicio, se proyectó abrir un área de innovación que ofreciera servicios al exterior y que empezara a buscar clientes —desde muy sofisticados como los que podían ser los de las compañías petroleras, que van a buscar procesar y analizar los datos para ver dónde hay todavía nichos de explotación de los recursos petroleros; y en general para manufactura por la simulación de procesos y que puede ayudar al desarrollo o revisión de los productos; hasta clientes relativamente sencillos que requieren servicios tipo nube como alojar páginas, bases de datos y/o procesamiento, etcétera —servicios administrados—, que realmente no requieren supercómputo, este último es un servicio colateral donde lo importante son las instalaciones y la disponibilidad del servicio. Esto requiere tiempo, por lo que esperamos que en cuatro años se puedan ya ofrecer servicios, no solo buscando que haya un retorno de la inversión sino que realmente se use como en los países desarrollados para impulsar las economías locales y regionales. En Puebla, por ejemplo, está la industria automotriz, no hablo de las grandes armadoras porque ya cuentan con estos recursos, sino las empresas que trabajan autopartes para las grandes armadoras; para éstas es difícil el acceso a servicios de supercómputo y lo requieren para poder certificar sus productos. Necesitamos garantizar que el laboratorio continúe, mientras eso suceda, la parte académica estaría asegurada y las investigaciones como las que estamos soportando van a ir consolidando los grupos de investigación con experiencia en el uso de supercómputo; más estudiantes aprenderán y desarrollarán sus tesis con estos recursos, y bueno, la cultura irá cambiando poco a poco, de decir que son cajas negras que solamente hacen procesos a optimizarse en usos especializados orientados a las demandas. Tener la computadora por sí solo no garantiza nada, ya conocemos los elefantes blancos donde no hubo las instalaciones adecuadas, ni los técnicos, ni los investigadores que se promovieran. Es importante sostener a los grupos de investigadores que requieren supercómputo pero no saben usarlo para que se acerquen, se les brinde el apoyo necesario y así colaborar con el impulso a las investigaciones. El laboratorio hace muy competitivas a las áreas de investigación que requieren supercómputo porque en poco tiempo pueden comprobar cosas que en un experimento directo o en un laboratorio especializado llevarían demasiado tiempo; la simulación es tan detallada y cercana a lo que es un experimento real que lo puede sustituir y dependiendo del número de procesadores, nodos y recursos que se les asignen puede acortar su distancia hasta 10 o 100 veces más rápido. Ganan mucha competitividad en ese sentido. Se esperaría que a la vuelta de algunos años aumente la productividad, el número de artículos por investigador, que los estudiantes se gradúen más rápido y tengan, como parte de sus habilidades el uso de estas herramientas. deniselucero@gmail.com

[close]

p. 4

4 diciembre · 2016 Arturo Olivares-Pérez Hologramas realizados con computadoras E n el Instituto Nacional de Astrofísica Óptica y Electrónica (INAOE), el proyecto de hologramas digitales es interdisciplinario; se realizan hologramas digitales por ordenador, en el grupo de holografía y materiales suscrita a la coordinación de óptica. Pero el volumen de cálculos para realizar un holograma digital es una lente y en la distancia focal se observa la reconstrucción del holograma similar a la Figura 2. La imagen que se observa en esta figura es la imagen original y su conjugado. En este ejemplo no se aprecia el factor de 3D porque el objeto es una fotografía, pero este mismo proceso se hace para objetos 3D. muy masivo. Por ello se utilizan los recursos de súper cómputo de la Coordinación de Ciencias Computacionales. Se necesitan un sistema de foto reducción muy eficiente para escribir el código holográfico en puntos del tamaño de entre 1 y 10 micras. Estos son realizados por un sofisticado aparato que fue diseñado para escribir microcircuitos, pero en nuestro caso es adaptado para escribir hologramas, en el laboratorio de Micro-Electro-Mechanical- · Figura 1a. Objeto de 300x260 pixeles CÁLCULOS PARA GENERAR EL FRENTE DE ONDA El proceso que se ejemplifica en este manuscrito es el siguiente: el objeto (Figura 1a) tiene 300 x 260 pixeles, lo que corresponde a 78,000 pixeles, estos se sumarán a cada pixel para formar el frente de onda (Figura 1b) que son 1,200 x 1,040 es decir 1,248,000 pixeles. Entonces, las distancias entre dos puntos: desde uno del objeto hasta Systems (MEMS) de la coordinación de electrónica. otro del receptor, está dado por dos sumas, tres restas, tres exponentes cuadrados, y un exponente radical, es FOTOGRAFÍAS VS. HOLOGRAMAS Una fotografía es la imagen grabada en intensidad de decir, nueve operaciones para obtener la distancia de un solo punto. Con estas distancias se construyen luz y color sobre un material fotosensible en una emul- ondas, lo que correspondería a seis productos, dos sión de gelatina que tiene sales de plata y pigmentos. divisiones, un exponencial y un módulo, esto es para Los hologramas tienen también la misma capacidad, pero además colectan la información del frente de onda de la imagen (la forma real de la imagen al propagarse). Se utiliza un haz de referencia conocido para recuperar la información del frente de onda. una sola onda le corresponden en total 19 operaciones, más la suma de todas ellas 78,000 x 1,248,000. Entonces, para el cálculo de todas las ondas, de todos los puntos, tenemos 19 x 78,000 x 1,248,000 + (78,000 x 1,248,000) = 1,946,880,000,000 operaciones. Es decir, 1 billón 946 mil 880 millones de cálculos para FRENTE DE ONDA Al iluminar un objeto, la luz que reflejada manda la información del frente de onda. Este frente es una modulación de fase determinada por cuatro parámetros básicos: 1) intensidad y color; 2) tamaño, forma y detalles del objeto 3D; 3) la distancia objeto y receptor · Figura 1b. Frente de onda 1200 x 1040 pixeles obtener la Figura 1b. Una vez obtenida la Figura 1b, es fácil y rápido hacer el holograma (Figura 1c). La reconstrucción (Figura 2), dependiendo del tipo de holograma, puede ser rápida o laboriosa. Para este manuscrito hicimos un holograma tipo Fourier sin lentes, cuya reconstrucción es rápida. Todo este cálculo es (material fotosensible), y 4) posición de la ventana de sólo para una paleta de color, en este caso correspon- visión del receptor (tamaño del material fotosensible). diente al rojo, si se incluyen las demás paletas, verde Toda esta información no puede ser detectada direc- y azul, el número de cálculos final sería tres veces más tamente por una película fotosensible, pero al super- de lo calculado. poner la información del frente de onda con un haz de referencia se crea un patrón de interferencia real LA NECESIDAD DE SUPERCÓMPUTO en intensidad, que puede ser grabado sobre un mate- El objeto mostrado en este manuscrito es pequeño, rial fotosensible, el cual es conocido como holograma. de 300 x 260 pixeles; sin embargo, en el campo de la holografía digital, los objetos son de muy alta resolu- FRENTE DE ONDA ción ya que es necesario tener todos los detalles de la Y HOLOGRAMA CALCULADO POR COMPUTADORA escena con imágenes de 10,000 x 10,000 pixeles. Los Los cuatro puntos descritos que forman el frente de · Figura 1c. Holograma de Fresnel-Kirchoff 1200 x 1040 pixeles hologramas son generalmente, como mínimo, cuatro onda son los parámetros usados para generarlo en un veces el tamaño del objeto en pixeles. Por lo tanto, ordenador. A partir de las dimensiones del objeto y la hacer este tipo de cálculos en ordenadores conven- distancia al receptor, se calcula la distancia, punto a punto de la imagen digitali- cionales no es viable. Sin embargo, con la herramienta de súper cómputo del zada del objeto, a punto a punto de las dimensiones del receptor. Este es el cálcu- INAOE es posible hacer este tipo de hologramas. lo computacional más laborioso y pesado para cualquier ordenador. Tanto la ima- Un holograma de 10,000 x 10,000 pixeles, al fotorreducirse tendría dimensio- gen como el receptor se muestrean en unida- nes de 1 cm cuadrado. Es decir, si queremos des gráficas computacionales llamados pixe- tener un holograma físico de 10 cm x 10 cm, el les. Además, cada imagen tiene tres paletas holograma generado por computadora debe- de color: rojo, verde y azul. La Figura 1a des- ría tener 100,000 x 100,000 pixeles. Entonces cribe un objeto con 300 x 260 pixeles, el cual los cálculos para formar el frente de onda son es mapeado a un plano receptor, donde se colosales, sin embargo, con súper cómputo el forma el frente de onda (Figura 1b), después, cálculo sería de varios días de cpu con 20 pro- al sumarse con un haz de referencia, se forma cesadores en paralelo. el holograma (Figura 1c), éstos tienen un Podemos entonces concluir que la herra- tamaño cuatro veces el del objeto, es decir, mienta de supercómputo es indispensable pa- 1200 x 1040 pixeles. ra hacer hologramas digitales, por la capaci- dad de trabajar con múltiples procesadores en RECONSTRUCCIÓN DEL HOLOGRAMA El proceso de reconstrucción también requie- paralelo. Pero, además, es esencial utilizar propiedades de simetría para reducir los tiem- re de grandes recursos computacionales obte- pos de cálculo. Con el laboratorio de súper ner la transformada de Fourier del hologra- cómputo y el laboratorio de MEMS es viable ma de la Figura 1c (ver Figura 2). Por otro diseñar y realizar hologramas por computado- lado, para una reconstrucción óptica de este ra en el INAOE. holograma (Figura 1c) se ilumina con una onda de referencia plana, después pasa por · Figura 2. Reconstrucción numérica del holograma en la Figura 1c olivares@inaoep.mx

[close]

p. 5

diciembre · 2016 5 Luis Manuel Villaseñor Cendejas El supercómputo como herramienta en la investigación científica COMPUTADORAS Y SUPERCOMPUTADORAS E l nombre supercómputo, también llamado cómputo de alto rendimiento o de alto desempeño, se refiere al uso de las computadoras más poderosas que existen, aquellas que actualmente se usan para hacer operaciones matemáticas que serían imposibles en las computadoras de escritorio; estos cálculos son normalmente de tipo científico pero no necesariamente, por ejemplo cabe mencionar que las empresas que se dedican a hacer películas animadas o con efectos especiales, cuentan con equipos de supercómputo comparables a los de los mejores centros de investigación del mundo. Las primeras computadoras electrónicas se construyeron hace cerca de 80 años, anteriores a la invención del transistor que ocurrió en 1948. Eran unos aparatos impresionantes que ocupaban cuartos enteros llenos de tubos al vacío. Sin embargo, la computación tuvo un poderoso impulso gracias a la comercialización de las primeras computadoras personales a mediados de la década de los 70s. Estas primeras computadoras de escritorio contaban con procesadores que eran capaces de realizar hasta medio millón de instrucciones por segundo (una unidad que se llama MIPS). Para ejemplificar el enorme avance que han logrado las computadoras basta recordar que un procesador moderno, como los que se usan actualmente en las laptops más rápidas, tiene un poder de cómputo cercano a 200 000 MIPS, es decir que las computadoras personales han tenido un progreso en velocidad de cómputo de cerca de 400 mil veces. Avances igualmente espectaculares se han logrado también en la cantidad de memoria temporal y de almacenamiento de datos, por ejemplo la cantidad de memoria temporal, conocida como memoria RAM por las siglas en inglés “Random Acces Memory”, es ahora cerca de 2 millones de veces mayor en las computadoras portátiles que la que tenían las primeras computadoras personales de escritorio. LAS SUPERCOMPUTADORAS MÁS RÁPIDAS DEL MUNDO En contraste con las computadoras portátiles y las de escritorio que poseen un procesador, las supercomputadoras actualmente se construyen con cientos de miles de procesadores que trabajan simultáneamente. La lista de las 500 supercomputadoras más rápidas del mundo, conocida como “Lista TOP500”, se publica cada seis meses, de modo que la última lista se publicó en junio de 2016. En esta lista la computadora más rápida del mundo la ocupa una computadora recién construida que se llama “Sunway TaihuLight” y que pertenece al gobierno de China. La velocidad de cómputo de las supercomputadoras modernas se mide en unidades de PetaFLOPS, donde el prefijo Peta equivale a un uno seguido de 15 ceros, así como el prefijo kilo equivale a un uno seguido de tres ceros, y FLOPS es un acrónimo que significa “operaciones de punto flotante por segundo” por sus siglas en inglés. Esta supercomputadora china posee una velocidad máxima de cómputo de 93 PetaFLOPS, desplazando a otra supercomputadora también china que había sido la más rápida durante los últimos tres años. Mientras que la supercomputadora más rápida de Estados Unidos, llamada Titán, que hace cuatro años era la más rápida del mundo quedó ahora en el tercer lugar. ¿PARA QUÉ SIRVE EL SUPERCÓMPUTO CIENTÍFICO? El uso del supercómputo con fines científicos permite abordar una gran cantidad de problemas científicos que de otro modo serían difíciles o imposibles de resolver. Por ejemplo la predicción confiable del clima a escalas de tiempo cada vez mayores sería imposible sin el uso de las supercomputadoras. Otros ejemplos son la simulación de la creación y evolución de las galaxias que componen a nuestro Universo; el estudio de nuevos fármacos en el tratamiento de enfermedades; el estudio de las corrientes de aire en un nuevo diseño aerodinámico de un avión o de un auto; la búsqueda de números primos que tienen más de 100 millones de dígitos; el análisis de los datos de los mayores aceleradores de partículas para buscar nuevas partículas, como ocurrió en 2012 con la partícula Higgs descubierta en el laboratorio CERN en Europa; el análisis de los datos del movimiento de las galaxias para entender mejor la expansión acelerada del Universo; el estudio de nuevas moléculas, por mencionar solo algunos. Podemos afirmar que en prácticamente todas las áreas del conocimiento se requiere actualmente, o se requerirá en el futuro próximo, del uso de la supercomputación, lo cual nos permitirá aumentar substancialmente nuestro conocimiento de la naturaleza y sin duda incrementar la duración y la calidad de la vida humana. LABORATORIO NACIONAL DE SUPERCÓMPUTO DEL SURESTE DE MÉXICO El Laboratorio Nacional de Supercómputo del Sureste de México (LNS) se encuentra en el campus de la Benemérita Universidad Autónoma de Puebla (BUAP) y cuenta con una supercomputadora que tiene una velocidad máxima de cómputo de 0.2 PetaFLOPS. Este proyecto fue aprobado por el Consejo Nacional de Ciencia y Tecnología (Conacyt) en mayo de 2014 y en él participan además de la BUAP el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) y la Universidad de las Américas. En su calidad de Laboratorio Nacional de Supercómputo, el LNS permite que además de los investigadores del consorcio formado por estas tres instituciones, otros investigadores de cualquier parte de México puedan hacer uso de los recursos de supercómputo a través de convocatorias nacionales que periódicamente publica el LNS. La variedad de problemas científicos a los que el LNS está contribuyendo para su solución incluyen el misterio del origen y la naturaleza de las partículas más energéticas del Universo, conocidas como rayos cósmicos ultra energéticos, que se han detectado con el Observatorio Pierre Auger que se encuentra en Argentina, el estudio de las explosiones más violentas que ocurren en el Universo y que originan chubascos de rayos gamma que se buscan en el Observatorio HAWC que se encuentra en la Sierra Negra en México, el comportamiento de las partículas subatómicas que se estudian en el Laboratorio CERN en Europa a través del experimento llamado CMS, en particular el LNS permite hacer simulaciones de estas partículas que son vitales para este tipo de descubrimientos científicos, como fue el caso del descubrimiento de la partícula Higgs en 2012 en el CERN, el estudio de los rayos gamma de mayores energías que se detectan con el Observatorio HAWC, el comportamiento de la materia en condiciones extremas de alta temperatura y alta densidad que se estudian también en el CERN a través del experimento llamado ALICE. En el área de la salud la supercomputadora del LNS modela problemas de cardiología y neurociencias así como propiedades de algunas biomoléculas, se usa también para el diseño de circuitos integrados con aplicaciones biomédicas, se usa también para cuantificar la dosis entregada mediante la técnica de braquiterapia, entre otros. En el área de la ciencia de materiales los recursos de supercómputo del LNS se usan para estudiar el comportamiento de nanoestructuras y otros compuestos nuevos. En el área de las ciencias sociales se usa para el estudio de la dinámica de poblaciones. En el área de energías limpias se usa para investigar algunos yacimientos geotérmicos que existen en México. Los problemas científicos que se han mencionado constituyen solo una muestra del modo en que se está usando la supercomputadora del LNS para contribuir a resolver problemas científicos de nivel mundial y para contribuir a resolver algunos problemas nacionales como en el caso de la energía geotérmica o la dinámica poblacional. Otro aspecto de suma importancia es la formación de ingenieros y técnicos, para que sean capaces de enfrentar los retos actuales y futuros relacionados con esta nueva tecnología, así como el acompañamiento a los investigadores para aprovechen al máximo la alta velocidad de cómputo científico, y elevado volumen de datos que se pueden manejar en las nuevas instalaciones de supercómputo como el LNS. Por esta razón se imparte actualmente un programa de Diplomado 6

[close]

p. 6

6 diciembre · 2016 5 en Supercómputo en el LNS con una duración total de 120 horas. A corto plazo se impartirá, además, un programa de Especialidad en Supercómputo y a mediano plazo esperamos abrir un programa de Maestría en esta disciplina emergente en nuestro país. PERSPECTIVAS DEL SUPERCÓMPUTO EN EL FUTURO PRÓXIMO Ante la pérdida frente a China del liderazgo en supercómputo que tuvo Estados Unidos hasta hace tres años, el presidente Obama ha firmado un acuerdo para incrementar el presupuesto de su país en este ramo, y poner en funcionamiento al menos tres supercomputadoras con velocidades superiores a los 150 PetaFLOPS a partir del año 2018. Aparte del uso de los procesadores convencionales, conocidos como CPUs por sus siglas en inglés, algunas supercomputadoras están usando un nuevo tipo de procesamiento que tiene sus orígenes en las tarjetas de video y que se llaman unidades de procesamiento gráfico (GPUs). Las GPUs tienen la ventaja de que, para una misma velocidad de supercómputo, son de más baratas y consumen menos electricidad que los sistemas basados en CPUs. Podemos esperar un número cada vez mayor de supercomputadoras de tipo híbrido que usen tanto procesadores centrales CPU como tarjetas de GPU, como es el caso de la supercomputadora Titán. La aparición de las tarjetas GPU en supercómputo científico viene a aliviar en parte la preocupación de la comunidad científica de que cada vez se hace más difícil que se siga cumpliendo la llamada Ley de Moore, la cual expresa el hecho empírico de que, en los últimos 50 años, los fabricantes de procesadores de cómputo han logrado duplicar cada dos años el número de transistores en sus chips. Por otro lado, la anhelada computación cuántica, la cual permitirá incrementar dramáticamente la velocidad de supercómputo, aún tiene muchos obstáculos que superar antes de convertirse en una realidad. lvillasen@gmail.com Denise Lucero Mosqueda La LNS, herramienta para ampliar nuestros conocimientos sobre el Universo Desde que se proyectó, el Laboratorio Nacional de Supercómputo del Sureste de México (LNS) tiene el respaldo de 90 investigadores de tres instituciones de educación superior que desarrollan investigación en ciencia básica y aplicada: la Benemérita Universidad Autónoma de Puebla (BUAP), el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) y la Universidad de las Américas Puebla (UDLAP). Esta herramienta permitirá el desarrollo de estudios de investigadores y estudiantes. Ivânio Puerari, astrofísico del Instituto Nacional de Astrofísica, Óptica y Electrónica, es uno de los investigadores interesados y en espera de usar supercómputo para desarrollar parte importante de sus investigaciones; en entrevista con este suplemento comparte el uso del supercómputo en el área de la Astronomía en que desarrolla sus investigaciones. Saberes y Ciencias (SyC): ¿De qué modo participa en el uso del LNS? Ivânio Puerari (IP): Somos varios los interesados en usar los clústeres del LNS, incluyendo a los estudiantes. Soy astrofísico y en este momento estudio dinámica de galaxias. La dinámica galáctica es el estudio de cómo las estrellas se mueven en una galaxia. Hay galaxias de formas variadas y las estrellas se mueven de manera diferente; por ejemplo, hay galaxias que contienen un disco de estrellas las cuales sabemos que están rotando y hay otras galaxias donde las estrellas van en distintas direcciones. Nosotros investigamos para entender por qué una galaxia presenta determinada morfología y por qué no hay galaxias con morfologías más complejas. SyC: ¿Cuál es su especialidad? IP: Soy astrofísico teórico y computacional, pero también realizo análisis de datos obervacionales. Mis principales areas de investigación son la astrofísica extragaláctica y la dinámica de sistemas estelares. SyC: Dicen que hay astrónomos observacionales, teóricos y computacionales, ¿cuál es la diferencia? IP: Como su nombre lo indica, los astrónomos observacionales trabajan principalmente con datos obtenidos de observaciones. Pueden obtener dicha información por cuenta propia, u obtenerlos de grandes bases de datos que están disponibles para la comunidad científica. Su investigación se centra en analizar los datos y obtener parámetros físicos de los objetos para entender su naturaleza. Por otro lado, los astrofísicos teóricos hacen su investigación calculando y resolviendo ecuaciones matemáticas sin realizar observaciones; buscan entender la naturaleza del universo basados en principios básicos que a su vez son expresados en lenguaje matemático. Estas ecuaciones son interpretadas para generar relaciones matemáticas entre los parámetros físicos que conocemos. Y los astrofísicos computacionales basan sus investigaciones en la utilización de computadoras para la resolución de sus ecuaciones de una manera numérica. Así, utilizando grandes recursos computacionales, pueden resolver problemas que son imposibles de resolver de forma analítica. SyC: ¿Para qué la astronomía requiere del Supercómputo? IP: Las supercomputadoras —conjuntos de procesadores que pueden tener de cientos a millones de cpu’s— tienen la capacidad de realizar una gran cantidad de cálculos matemáticos. Sus aplicaciones en astrofísica se efectúan a diversas escalas, como formación de planetas, formación de estrellas, medio interestelar, formación de galaxias, dinámica de galaxias, formación de cúmulos de galaxias y la evolución del universo mismo. Una de las grandas e importantes aplicaciones del supercómputo en astronomía es el cálculo de modelos cosmológicos para entender como el universo se ha formado y como evolucionará en el futuro. Ahora, se pueden hacer simulaciones de galaxias sólo considerando las estrellas —que son la mayor parte de la masa de una galaxia—, pero si quieres saber cómo es la formación estelar entonces necesitas otro modelo matemático que maneje ecuaciones de la evolución del gas. Un modelo puede entenderse como una serie de ecuaciones a ser resueltas; mientras más complejo sea el modelo, mucho más ecuaciones a ser resueltas tendrá y las computadoras necesitan tener más poder de cálculo para resolver todas éstas en menos tiempo. También es posible realizar cálculos de órbitas de potenciales gravitacionales que representan distintas distribuciones de materia. Cada distribución de masa —por ejemplo el sol— crea un potencial de determinada forma; a partir de ello es posible describir las fuerzas que crea este potencial y calcular las órbitas que evolucionan en ese potencial. Es posible realizar análisis de estabilidad y de caos de órbitas; antes se pensaba que todas las órbitas serían bastante estables porque las galaxias sobreviven muchísimo tiempo, pero ahora es posible saber que una órbita es caótica y que puede dar soporte una estructura sin destruirla. El estudio de la interacción de galaxias es otro caso del uso del supercómputo en astronomía. Por ejemplo, supongamos que realizamos dos simulaciones de galaxias: se crea el modelo y se crea toda la distribución de partículas —esas son las estrellas de la galaxia. Una de esas simulaciones evoluciona como un modelo aislado y al otro se le integran perturbaciones. Es importante destacar que no es posible hacer interacciones de galaxias a mano calculando y resolviendo ecuaciones: se hace todo con simulaciones numéricas y para ello necesitas clústeres científicos de alto rendimiento. Es importante comprender que no sólo es necesario el recurso, en este caso de cómputo, sino sobre todo, tener ideas, tener curiosidad y la necesidad de saber más. Una computadora no funciona por sí sola, se requiere de un cerebro detrás de ella. La evolución tecnológica permite ampliar nuestros conocimientos en menor tiempo: hace unos años, las simulaciones numéricas que yo hacía eran de 40 mil partículas; ahora con esta tecnología es posible hacer simulaciones de varios millones de partículas. Los resultados son diferentes: esta última simulación es más creíble, tiene mucho más resolución. Claro, si es la realidad, eso es otra cosa. SyC: Entonces, ¿hay áreas de la astronomía que no se realizarían sin supercómputo? IP: Uno podría pensar que sólo el astrofísico computacional depende de supercómputo, pero esa impresión dista mucho de la verdad. Por ejemplo, el astrónomo observacional muchas veces recurre a resultados de modelos calculados con supercomputadoras para encontrar el mejor valor de determinadas cantidades físicas basadas en las cantidades observacionales que él determina. De la misma manera, mucha investigación teórica de la formación y evolución del Universo, por ejemplo, está basada en resultados de grandes simulaciones numéricas que son procesadas en supercomputadoras. deniselucero@gmail.com

[close]

p. 7

diciembre · 2016 7 María del Pilar Gómez Gil El Supercómputo como herramienta de investigación para problemas difíciles de reconocimiento A todos aquellos que hemos tenido la fortuna de vivir el crecimiento vertiginoso de la tecnología nos resulta complicado transmitir a los más jóvenes la sorpresa que nos ocasiona comprobar todo lo que se puede hacer actualmente con los dispositivos electrónicos. Por ejemplo, mi teléfono celular posee más poder de cómputo que la computadora que utilicé en los años 80’s para programar mi proyecto de grado de licenciatura. Sin embargo, lo que más me sorprende es que el crecimiento en velocidad de ejecución y el decremento en el costo de la fabricación de hardware, ha puesto al supercómputo al alcance de todos. ¿Qué es una supercomputadora y para qué puede servirme? La famosa enciclopedia digital Wikipedia define a una supercomputadora como “aquella computadora con una capacidad de cálculo de alto nivel, esto comparado con computadoras de propósito general.” Esta definición suena más bien vaga, pero es bastante representativa del concepto. La capacidad de las computadoras convencionales se mide en términos del número de instrucciones que pueden realizar por segundo, y dado que este valor es bastante grande y crece cada día, es más práctico usar como unidad de medida a “millones de instrucciones por segundo” (MIPS por sus siglas en inglés). Cuando se habla de supercomputadoras lo importante es el número de operaciones que pueden ejecutarse con números reales por segundo (FLOPS por sus siglas en inglés). En la actualidad los científicos que deciden cuáles son las 500 computadoras más poderosas del mundo1 ya no se preocupan mucho por definir lo que es una supercomputadora, sino más bien evalúan a una computadora “candidata” a supercomputadora con respecto a una serie de parámetros, entre ellos la velocidad con que resuelve un problema típico donde hay una gran cantidad de operaciones matriciales: la solución de un sistema lineal de ecuaciones de la forma Ax = b que utiliza aritmética flotante, donde A es una matriz densa generada al azar. Las computadoras que actualmente pueden resolver más rápidamente este problema son capaces de ejecutar 4x1015 instrucciones de aritmética flotante ¡por segundo! Además de estos monstruos del cálculo, existen otros sistemas de cómputo bastante más lentos, pero aun así mucho más poderosos que las computadoras de escritorio, conocidos como GPU’s (siglas en inglés de “unidad de procesamiento gráfico”). Estos sistemas ejecutan multiplicaciones y sumas en paralelo a través de tarjetas de hardware que se añaden a la arquitectura original de una computadora. Los GPU’s son muy populares debido a su alto desempeño al utilizarse en videojuegos, además de que actualmente se utilizan en una gran cantidad de aplicaciones. Sin embargo, es importante considerar que para utilizar al máximo el poder de las supercomputadoras, o de los procesadores basados en GPU’s, es necesario ajustar cuidadosamente la manera en que se formulan los problemas y en que se escriben los programas de cómputo, a fin de aprovechar el paralelismo en la ejecución de las instrucciones2. La siguiente pregunta a responder es: ¿para qué necesitamos ejecutar tantas operaciones por segundo y tan rápidamente? Realmente hay muchas razones, algunas bien conocidas incluyen el resolver los sistemas de ecuaciones que permiten predecir el clima o estimar distancias entre sistemas solares. Sin embargo, una razón para usar supercómputo, que está ganando un profundo interés en la comunidad científica de la inteligencia artificial (IA), es para entrenar automáticamente sistemas capaces de reconocer patrones e inferir conocimiento a través de analizar millones de datos. Esta inferencia puede realizarse usando datos almacenados sin ningún tipo de estructura, lo cual es muy útil dada la cantidad de información que se genera y almacena diariamente en las computadoras. Yann LeCun, científico y actualmente director de Investigación de IA en Facebook, opina que en el futuro, la mayoría del conocimiento del mundo estará en las computadoras y será extraído de computadoras3. La inteligencia computacional o “cómputo suave” es una de las ramas de la IA que se encarga de diseñar algoritmos capaces de representar conocimiento a través de modelos matemáticos que operan usando números. Entre las muchas técnicas que se han propuesto para extraer conocimiento, está la que se conoce ac- tualmente con el nombre de “aprendizaje profundo” (DL por sus siglas en inglés). La gran ventaja del DL es que encuentra patrones en los datos sin necesidad de contar con una definición explícita y a priori de las características que identifican a los patrones que se buscan, sino que automáticamente se generan dichas caracte- rísticas manipulando los datos crudos. Para extraer características, los sistemas DL utilizan una gran cantidad de niveles jerárquicos de procesadores-extrac- tores, los cuales se encuentran dentro de un sistema que final- mente consigue aprender automáticamente. El adjetivo “profundo” en el nombre de la técnica, se refiere precisamente a que se utilizan varios niveles de aprendizaje para la extracción del conocimiento. Los extractores de conocimiento y clasificadores usados en DL se constru- yen con base en modelos matemáticos conocidos como “redes neuronales artificia- les” (RNA), los cuales están inspirados en la ar- quitectura del cerebro y de las neuronas biológicas. De manera similar al cerebro, los componentes de una RNA están hechos de procesadores simples (neuronas) que funcionan de forma paralela y distribuida. El conocimien- to de las RNA se representa en parámetros que son valores rea- les, cuyos valores son “aprendidos” de forma incremental a través de operaciones matriciales. Uno de los primeros experimentos notorios obtenidos con las redes neuronales profundas se · Big Sur: servidor basado en GPU’s desarrollado por Facebook para aplicaciones de inteligencia artificial usando aprendizaje profundo. Imagen tomada de https://scontent.xx.fbcdn.net/t3 9.23656/12057171_16513078284800 35_1295090969_n.jpg publicó en 2012, cuando el proyecto de Google conocido como “Google Brain” presentó un sistema que aprendió a reconocer gatos sin ninguna supervisión, a través de “ver” cerca de 10 millones de imágenes en YouTube, usando aproximadamente 16 mil computadoras4. Actualmente DL ha mostrado su poderío y practicidad para el reconocimiento de caras y para el entendimiento del lenguaje. DeepFace5 es una de las aplicaciones más famosas de DL, ya que forma parte de los algoritmos que utiliza la compañía Facebook. Esta red neuronal utiliza alrededor de 120 millones de parámetros y fue entrenada usando una base de datos con 4 millones de imágenes pertenecientes a más de 4,000 clases. De forma similar a la utilizada para analizar imágenes o texto, los algoritmos DL también pueden analizar series de tiempo u otro tipo de señales digitales, aun- que este paradigma de aplicación está empezando a investigarse. En el INAOE estamos desarrollando un proyecto para diseñar algoritmos DL capaces de reco- nocer y predecir eventos en señales digitales complejas, tales como los electro- encefalogramas (EEG). Dichos algoritmos deberán descubrir patrones que permi- tan identificar automáticamente posibles estados anormales o enfermedades, a través de observar dichas señales de forma continua y encontrar automáticamen- te los patrones de señales que representen a dichos estados y que no son obvios a primera vista. Para realizar este proyecto, estamos utilizamos el equipo proporcio- nado por el Laboratorio de Supercómputo del INAOE, el cual forma parte del Laboratorio de Supercómputo del Sureste de México6. Referencias pgomez@inaoep.mx 1 Top 500, the List. https://www.top500.org 2 http://spectrum.ieee.org/tech-talk/computing/hardware/use-a-gpu-to-turn-a-pc-into-a-supercomputer 3 “The Five Tribes of Machine Learning (And What You Can Learn from Each),” Pedro Domingos, Webminar, Association of Computing Machinery (ACM). Dec. 29, 2015. https://www.youtube.com/watch?v=E8rOVwKQ5-8 4 http://www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machinelearning.html 5 https://research.facebook.com/publications/deepface-closing-the-gap-to-human-level-performance-inface-verification/ 6 http://www.inaoep.mx/noticias/?noticia=341&anio=2015 7 https://code.facebook.com/posts/1687861518126048/facebook-to-open-source-ai-hardware-design/

[close]

p. 8

8 diciembre · 2016 Enrique Varela, Alejandra Parra, Humberto Salazar, Oscar Martínez Los rayos cósmicos ultra energéticos RAYOS CÓSMICOS la influencia de los modelos de interacción hadrónica en la determinación de la compo- L os rayos cósmicos son partículas cargadas que llegan desde el espacio y que están continuamente bombardeando a la sición química de los rayos cósmicos. El parámetro experimental considerado es la llamada Xmax (la profundidad atmosférica donde la Tierra, desde cualquier dirección. En su mayo- lluvia adquiere su máximo desarrollo), a con- ría son protones con una componente menor tinuación enumeramos los pasos que realiza- formada por núcleos de átomos más pesados. mos en el LNS. Los rayos cósmicos ultra energéticos en parti- 1. Los chubascos cósmicos son simulados cular viajan a velocidades cercanas a las de la usando el programa de Monte Carlo CONEX luz y constituyen las partículas más energéti- [2]. Se generaran ocho conjuntos de 10 mil cas detectadas hasta el momento. lluvias cada uno, para primarios compuestos Hasta ahora el origen de los rayos cósmi- de protones y hierros con los modelos hadró- cos sigue siendo uno de los grandes misterios nicos QGSJET versión 04 [3] y SIBYLL versión de la ciencia, y se han desarrollado múltiples 2.1 [4]; las lluvias se generaran en un rango modelos para explicar este fenómeno. Uno de energía de 1 × 1017 eV y 1x1018 eV. Las de los factores que dificulta conocer de directivas del programa fueron fijadas a fin dónde provienen es que, al tratarse de partí- de evaluar el perfil longitudinal de partículas. culas cargadas, sus trayectorias se ven afecta- 2. Se simula la respuesta de los telescopios das por los campos magnéticos que deben de fluorescencia HEAT ante una lluvia de par- atravesar en su camino a la Tierra. Los cientí- tículas originada por un rayo cósmico de muy ficos han especulado sobre diferentes posibi- alta energía, se efectuó mediante software lidades para el origen de los rayos cósmicos; de la colaboración Auger llamado offline con sin embargo, no se tienen pruebas contun- modificaciones hechas por el grupo de inves- dentes para ninguna de ellas, por esto es que tigadores de la BUAP y lee directamente los se espera recabar más datos para saber cuál perfiles longitudinales de partículas genera- de las propuestas es correcta o bien si es algo dos externamente mediante el programa completamente diferente. CONEX (punto 1). Cada conjunto de 10,000 lluvias de un mismo tipo (primario y modelo OBSERVATORIO PIERRE AUGER El Observatorio Pierre Auger es el más grande en su género y cuenta con una colaboración internacional formada aproximadamente por Una de las estaciones del arreglo de superficie del Observatorio Pierre Auger. Primer SSD instalado en campo, en una de las estaciones del arreglo de superficie. En la imagen aparecen miembros de la Colaboración Pierre Auger, que se encargaron de su instalación. hadrónico) se distribuye 200 veces en forma aleatoria dentro del campo de visión de HEAT. 3. Se reconstruyen datos de eventos reales 500 investigadores de 19 países diferentes. de HEAT con el software offline y se corrige Entre estos, se encuentran investigadores y estudiantes de la Benemérita los resultados de la medición de la Xmax usando las simulaciones. Universidad Autónoma de Puebla. El Observatorio Pierre Auger, que se encuentra 4. Una vez que se corrigen las mediciones de la Xmax se hace el análisis de estos operando desde el año 2004 cerca de la localidad de Malargüe, en la provincia de resultados para obtener información de la composición. Mendoza, en Argentina, utiliza dos técnicas de detección de las cascadas de partí- Los resultados de estas simulaciones por parte del grupo Auger Puebla, usan- culas secundarias debidas a los rayos cósmicos ultra energéticos. Una se basa es un do los recursos de súpercómputo del LNS, se han usado para determinar los erro- arreglo de detectores de superficie (SD) y la otra utiliza detectores de fluorescen- res sistemáticos en la medición de la Xmax. El LNS se ha usado también por este cia (FD). Con estos dos sistemas de detectores se toman datos sobre la llegada de grupo para estudiar las posibles fuentes de los rayos cósmicos ultra energéticos. las partículas secundarias al suelo y su paso a través de la atmósfera. (Pierre Auger Collaboration, 2015). AUGERPRIME Hace algunos años, el Observatorio Pierre Auger se mejoró con la puesta en En noviembre del año pasado fue anunciada la nueva etapa del Observatorio marcha de dos extensiones a sus arreglos de detección con el objetivo de ser sen- Pierre Auger, denominada AugerPrime, la cual consiste en la adición de un detec- sible a rayos cósmicos de más baja energía ( 1x1017 eV). La principal motivación tor de centelleo a las estaciones de superficie del Observatorio (Pierre Auger para realizar estas mejoras fue el estudio de la transición de los rayos cósmicos de Collaboration, 2016). origen galáctico a los de origen extragaláctico, que con la evidencia actual se cree Esta actualización tiene como objetivo mejorar los resultados en cuanto a com- que ocurre entre 3x1016 eV y 5x1018 eV. Otra motivación fue el estudiar posibles posición de los rayos cósmicos ultra energéticos, lo cual tiene implicaciones direc- cambios de composición. Estas mejoras nos permitirán lograr un mayor entendi- tas en el conocimiento de su origen. Para esto se tienen considerados varios esce- miento de los rayos cósmicos. narios astrofísicos o posibles fuentes. Entre estas fuentes se encuentran las explo- En particular, el grupo de México (BUAP) está jugando un papel importante en siones de rayos gamma (GRB's), las galaxias con núcleo activo (AGN's), es decir, el análisis de los datos para determinar el cambio en el índice espectral que ocurre aquellas que tienen un agujero negro en su centro, además de los remanentes de entre 1017 y 1018 eV. super novas y de las colisiones de galaxias. Desde su inicio varios investigadores y alumnos de la Facultad de Física y Contribución del Laboratorio Nacional de Supercómputo del Sureste Matemáticas de la Benemérita Universidad Autónoma de Puebla, han participado de México en el Estudio de los Rayos Cósmicos Ultra Energéticos muy de cerca en esta nueva etapa del Observatorio Pierre Auger. Es importante El Laboratorio Nacional de Supercómputo del Sureste (LNS) cuenta actualmente mencionar que el LNS ha jugado un papel detonador de esta participación para con una supercomputadora constituida por 272 nodos con 24 núcleos de procesa- permitir desentrañar un misterio centenario de la Naturaleza en relación con las miento de última generación cada uno, que en conjunto tienen la capacidad de propiedades de los rayos cósmicos ultra energéticos. realizar aproximadamente 200 billones de operaciones por segundo (200 Teraflops). enrique.varela@correo.buap.mx · alejandra.parra@alumno.buap.mx Su alta velocidad de cómputo, aunada a su gran capacidad de almacenamiento de datos, han permitido que el LNS se esté usando ampliamente por investiga- Referencias dores en el área de la Física de Partículas Elementales y de Astropartículas, enriqueciendo la participación de México en los proyectos internacionales siguientes: HAWC, AUGER, LAGO, ALICE-LHC y CMS-LHC. [1] http://visitantes.auger.org.ar/index.php/los-rayos-cosmicos.html [2] Pierre Auger Collaboraion, A. Aab et al. (2015). “The Pierre Auger Cosmic Ray Observatory”, Nuclear Instruments and Methods in Physics Reserach, Section A, 798 (2015), pp 172-213. En particular en el área de los rayos cósmicos ultraenergéticos el trabajo que se [3] Pierre Auger Collaboration, Alexander Aab, et al. (2016). “The Pierre Auger Observatory Upgrade: realiza con la infraestructura del LNS, es el estudio, por medio de simulaciones, de Prelimary Design Report”, asXiv:1604.03637.

[close]

p. 9

diciembre · 2016 Cederik León de León Acuña, Humberto Salazar Ibargüen, Luis Manuel Villaseñor Cendejas Destellos de rayos gamma 9 Nodos de procesamiento en el Laboratorio Nacional de Supercómputo del Sureste de México (BUAP) ANTECEDENTES SOBRE LOS DESTELLOS DE RAYOS GAMMA L os destellos de rayos gamma (GRBs por sus siglas en inglés), son las explosiones más violentas conocidos en el Universo (Mészáros, 2013). Su descubrimiento ocurrió por casualidad a fines de los años 60´s, cuando los detectores a bordo de los satélites Vela, puestos en órbita por el gobierno de los Estados Unidos unos años antes con el propósito de monitorear, desde el espacio, la posible existencia de pruebas nucleares clandestinas por parte de la Unión Soviética. Para este fin los satélites Vela contaban con detectores de rayos gamma, los cuales son partículas similares a los fotones de la luz ordinaria pero de mucho mayor energía, que se producen como subproducto en las explosiones nucleares. Después de algún tiempo de tomar datos en forma sistemática se descubrieron los destellos, también llamados ráfagas, de rayos gamma provenientes del espacio exterior de origen natural, es decir, no relacionado con explosiones nucleares de origen humano (Rees M, 2000). Para que el lector tenga una idea de la energía involucrada en las explosiones que originan los destellos de rayos gamma, podemos decir que la energía electromagnética liberada por un GRB durante algunos segundos es comparable con la energía que una estrella típica como nuestro Sol liberara en un lapso de tiempo de 10 mil millones de años! (Rees M, 2000). Hasta ahora los GRBs solo se han detectado por instrumentos a bordo de satélites, aunque se buscan también por observatorios en tierra. La frecuencia con la que se detectan es de alrededor de una docena cada año. Su detección es muy importante debido a que los fotones de alta energía, producidos en estos eventos, viajan en línea recta, a diferencia de las partículas cargadas que son afectados por los campos magnéticos que existen en nuestra galaxia y en el espacio intergaláctico. Por esta razón se puede obtener información precisa sobre la localización espacial de los objetos que los producen. SIMULACIONES QUE AYUDAN EN LA DETECCIÓN Y ESTUDIO DE LOS GRBS Una de las propuestas para estudia los GRBs, sus propiedades y características, involucra el diseño, desarrollo, construcción y mantenimiento de instrumentos especializados; estos pueden estar orbitando la tierra, por ejemplo en satélites, ó en observatorios ubicados en la Tierra. En las simulaciones por computadora se pueden reproducir las condiciones de un experimento y su entorno de manera virtual, sin tener que construir dispositivos complejos, maquinarias o equipos electrónicos sofisticados y evitar gastos, lo que permite conocer de antemano y con un alto grado de precisión cuales serán los posibles resultados y desempeño de los experimentos. Todo ello se reproduce mediante programas de computadora que pueden ser manejados por una sola persona en una computadora de escritorio, inclusive hasta en tabletas, teléfonos celulares “inteligentes” y computadoras portátiles. Dependiendo del grado de complejidad de las simulaciones, el tiempo que los equipos de cómputo requieren para arrojar resultados podrá ser considerablemente mayor, de tal manera que una simulación de un fenómeno físico complejo podría tomar decenas de años en una computadora casera. Al inicio de una simulación se definen las condiciones iniciales, mismas que son procesadas por la computadora resolviendo ecuaciones que pertenecen a modelos matemáticos que describen puntualmente el desarrollo del fenómeno. El resultado sirve como insumo para un nuevo conjunto de cálculos, y así, una y otra vez hasta que se cumplan ciertas condiciones propias de los modelos, este proceso puede repetirse unas pocas veces (decenas) o puede que se requieran miles de millones para lograr algún resultado. SIMULACIONES A GRAN ESCALA EN EL LABORATORIO NACIONAL DE SUPERCÓMPUTO DEL SURESTE DE MÉXICO Cuando un fotón de alta energía interactúa con los núcleos de los átomos que constituyen nuestra atmósfera, produce un chubasco de partículas secundarias que a su vez vuelven a interactuar, esto se repite hasta que ya no hay suficiente energía para ello. En este proceso algunas partículas, dependiendo de su naturaleza y propiedades, depositan toda su energía y ya no siguen su camino, otras alcanzan a llegar a los detectores dejando señal que se puede analizar y eventualmente realizar afirmaciones; esto requiere de la construcción y operación de dispositivos que permitan registrar las señales producidas por las partículas pertenecientes al desarrollo del chubasco. Lo anterior puede simularse con programas de computadora muy sofisticados que se encargan de calcular las ecuaciones involucradas en el modelo físico y matemático del fenómeno, esto se realiza para cada una de las partículas que se van produciendo a lo largo de la vida del chubasco. La simulación de estos chubascos, requiere, además de los cálculos matemáticos, de almacenar y relacionar toda la información de cada partícula del proceso para dar seguimiento a millones y millones de partículas. Posteriormente estos resultados pueden ser analizados por expertos, permitiéndoles mejorar los modelos y refinar las teorías científicas, e inclusive proponer nuevas teorías. Pero hasta ahora hemos hablado de un fotón, es decir una partícula, que inicia un chubasco atmosférico. El realizar una sola simulación resulta ser insuficiente para que de ella se puedan obtener resultados estadísticamente significativos y tener la certidumbre sobre afirmaciones que de ellos resulten; simular 2 eventos de esta naturaleza tampoco es suficiente, 10 tampoco, ni 100, ¡ni siquiera 1000! Normalmente se requieren millones de simulaciones, decenas de miles de millones en algunos casos, para un tipo específico de fenómeno, para que los resultados obtenidos sean estadísticamente significativos, es decir, que sean lo suficientemente confiables para poder decir algo científicamente confiable a partir de ellos. Lo antes mencionado requiere una capacidad de cómputo muy grande, la cantidad de operaciones que deben de realizarse excede por mucho la que una computadora de escritorio moderna, además se debe de tomar en cuenta que los resultados deben de almacenarse y analizarse, esto requiere de dispositivos de almacenamiento especiales de gran capacidad. En el Laboratorio Nacional de Supercómputo del Sureste de México (LNS), ubicado en Ciudad Universitaria de la Benemérita Universidad Autónoma de Puebla 10

[close]

p. 10

10 diciembre · 2016 9 factor importante a gran altitud, donde el flujo (BUAP), se realizan simulaciones de decenas de de rayos cósmicos de baja energía es bastante millones de chubascos inducidos por fotones de grande. (Colaboración HAWC 2016) alta energía, así como con otros tipos de partí- Por su parte el Observatorio de Rayos Ga- culas (protones, núcleos de hierro, helio, silicio, mma de Gran Apertura, LAGO, consiste de múl- entre otras más), con diversas características, tiples sitios y se ha diseñada para observar la estos trabajos son realizadas mediante la distri- componente de alta energía de los GRBs. Esta bución del total de simulaciones en secciones colaboración internacional, formada por apro- más pequeñas que son asignadas a diferentes ximadamente 75 personas de 25 institutos cien- nodos de supercómputo; con esto se agiliza tíficos representando a 12 países, ha construi- enormemente el procesamiento. do, iniciando en 2006, una red de detectores de Las simulaciones realizadas en el LNS son uti- agua Cherenkov en tierra (WCDs). El sitio de lizadas en la búsqueda de GRBs por experimen- México está ubicado en la Sierra Negra a una tos como HAWC (High-Altitude Water Cheren- altura de 4550 metros sobre el nivel del mar. El kov) y LAGO (Large Aperture Gamma Ray Ob- objetivo de LAGO es lograr detectar y estudiar servatory, LAGO), estos experimentos las proce- GRBs de alta energía. LAGO ha estado toman- san con sus herramientas computacionales con do datos desde 2007. (Villaseñor, L Forum on lo que realizan análisis de datos pertinentes que ayudan a los científicos a estudiar y desvelar secretos de los confines de nuestro Universo. · Sitios LAGO: Sierra Negra en México (Esquina superior izquierda), Pico Espejo en Venezuela (esquina superior derecha), Marcapomacocha en Perú (esquina inferior izquierda) y Chacaltaya en Bolivia (esquina inferior derecha) https://www.aps.org/units/fip/newsletters/201202/lago.cfm International Physics, 2012) Una ventaja de detectar GRBs con experi- mentos en el suelo, con respecto a detectarlos en satélites, es que se pueden detectar GRBs de LOS OBSERVATORIO HAWC Y LAGO energías mayores y con flujos de rayos gamma El Observatorio HAWC (High-Altitude Water Cherenkov) se ubica en una de las primarios menores que un instrumento en un satélite no podría detectar. laderas del volcán Sierra Negra, en el estado de Puebla en México, a 4100 m. de altura sobre el nivel del mar y actualmente es sensible a la detección de cascadas cederik@gmail.com individuales originadas por rayos gamma de energías entre 100 GeV (gigaelec- Referencias tronvoltios) y 100 TeV (teraelectronvoltios). HAWC usa detectores de agua Cherenkov (o simplemente tanques) para obser- Mészáros, P. (2013). “Gamma ray bursts”, Astroparticle Physics, 43, pp 134-141. var a las partículas de cascadas atmosféricas. El observatorio consiste de 300 tan- Rees, M. (2000). “A review of gamma ray bursts”, Nuclear Physics A, 663–664, pp 42c-55c, ques en total, cada uno con tres PMTs (tubos fotomultiplicadores) periféricos y uno HAWC Collaboration. (2016, noviembre). Disponible en http://www.hawc-observatory.org/ central. Por tanto el observatorio tiene 1200 PMTs en total. El aislamiento óptico Villaseñor, L. Forum on International Physics, Disponible en: https://www.aps.org/units/fip/newsletde los PMTs entre los tanques permite reducir el ruido en el detector. Esto es un ters/201202/lago.cfm [2012] Francisco J. Meléndez, María Eugenia Castro S., Rosa Elena Arroyo-Carmona, Lisset Noriega, Norma A. Caballero, Enrique González-Vergara y Ramses E. Ramírez Origen y usos del supercómputo en la BUAP EL ORIGEN magnitud sin precedente. El Laboratorio Através de la historia los seres humanos siempre hemos querido entender el mundo y sobre todo Nacional de Supercómputo del Sureste de México (LNS) de la BUAP, es el tercer laboratorio reconocido a nivel nacional después del de la Universidad Nacional Au- transformarlo. Nuestra curiosidad nos tónoma de México (UNAM, México) y del hace voltear hacia el cielo, indagar en Centro Nacional de Supercómputo del nuestra mente o asomarnos al mundo de Instituto Potosino de Investigación Cien- las especies microscópicas. Cada descubri- tífica y Tecnológica (CNS-IPICyT, San Luis miento nos abre nuevas incógnitas: más Potosí) [3]. complicadas, más confusas, más desafian- tes, y para resolverlas necesitamos herra- SUPERCÓMPUTO mientas que nos ayuden a realizar miles ¿Qué es el supercómputo? Un ejemplo de cálculos precisos y a tiempo. Cálculos podría ser la mejor manera de definir al que nos permitan por ejemplo, evaluar el Supercómputo. Imaginen ustedes el esta- impacto de una colisión sin necesidad de dio azteca con 100 mil personas dentro y destruir decenas de autos, medir propie- cada una con una calculadora realizando dades fármaco-químicas de un medicamento sin necesidad de probarlo en ani- Figura 1. Infraestructura de la Supercomputadora Cuetlaxcoapan una operación por segundo, todas estas personas necesitarían más de 50 años males y hasta predecir la simulación de la para realizar los cálculos que la supercom- circulación oceánica a través de modelos matemáticos. Realizar miles de simula- putadora “Cuetlaxcoapan” del LNS (Cuetlaxcoapan en náhuatl significa “Lugar ciones de este tipo requiere de computadoras más rápidas, precisas y poderosas donde las víboras cambian de piel”) realiza en un solo segundo [1]. Es decir, se trata que aquellas que tenemos en la oficina o en casa, ¡necesitamos de supercomputa- de tecnología informática avanzada de cálculo numérico para desarrollar investi- doras! [1]. gaciones complejas de alto nivel de especialización; es la única herramienta que le En el año 2013 nació una iniciativa por parte de un conjunto de investigadores permite al investigador llevar a cabo, con certeza y velocidad, billones de billones de la Benemérita Universidad Autónoma de Puebla (BUAP), que tuvo como pro- de cálculos matemáticos por segundo, para estudiar problemas de gran magnitud; yecto brindar servicios de alto rendimiento computacional; es decir, poder contar su altísima capacidad para procesar simultáneamente grandes volúmenes de infor- con plataformas de “Supercómputo de Altas Prestaciones” [2]. Por ello es que al mación facilita el estudio de fenómenos y condiciones que tan sólo hace menos 30 unir los esfuerzos de los investigadores de la BUAP, del Instituto Nacional de años eran imposibles; sus aplicaciones abrieron nuevas líneas de investigación cien- Astrofísica Óptica y Electrónica (INAOE) y de la Universidad de las Américas Puebla tífica en áreas como la ingeniería, la medicina, la geofísica, la astronomía, la quí- (UDLAP), en conjunto con el apoyo del Consejo Nacional de Ciencia y Tecnología mica y las ciencias nucleares, entre otras [4]. Este es el poder del supercómputo con (Conacyt), los ciudadanos del estado de Puebla y del sureste de México tenemos el que cuenta actualmente el LNS-BUAP. ante nosotros, una gran oportunidad de realizar cálculos computacionales de una 11

[close]

p. 11

diciembre · 2016 11 10 AVANCE TECNOLÓGICO Y RECURSOS El LNS además de representar un avance tecnológico, reúne la capacidad y el potencial de las tres instituciones que por tradición son las más representativas en el estado de Puebla en las diferentes áreas de investigación. El LNS es utilizado por investigadores de la BUAP, de la región y de otros estados de la República Mexicana; es una herramienta que impacta en las diferentes líneas de estudio que desarrollan los grupos de investigación. Además, apoya en la formación de recursos humanos de forma directa en las tres universidades participantes a través de los programas educativos que ofrecen, tanto de licenciatura como de posgrado. ETAPAS DE DESARROLLO DEL LNS El proyecto del LNS es un proyecto de largo aliento, cuyo desarrollo está dividido en tres diferentes etapas. La primera de ellas es la que soporta el mayor grado de A la fecha han logrado caracterizar teóricamente (además de espectroscópicamente) usando el supercómputo, los compuestos a partir de vanadio que han sintetizado y han realizado simulaciones entre fármaco y proteína In Silico, logrando resultados alentadores. Los compuestos que contienen vanadio diseñados por el grupo, son series de dos tipos: una a partir de bases de Schiff (para cáncer de mama) y otra de compuestos de vanadio como los llamados bisperoxo-oxovanadato. A la fecha han caracterizado teóricamente tres compuestos contra el cáncer de mama y seis contra la diabetes. Por lo tanto, los estudios teóricos realizados usando métodos Ab Initio, Teoría de Funcionales de la Densidad (DFT) y Simulación Molecular Docking utilizados en el Laboratorio Nacional de Supercómputo del Sureste de México (LNS) permiten conocer más acerca de las estructuras moleculares, la asignación del espectro IR, la reactividad química y otras características de estos complejos [8]. Con el supercómputo es posible revelar los misterios de la naturaleza, crear ciencia con los países desarrollados, calcular para competir y hacer real lo imaginario. Con el poder de supercómputo a nuestro alcance, solo nos queda hacernos una esperanzadora pregunta: “¿Hasta dónde podremos llegar? dificultad y responsabilidad porque ésta implicó poner a disponibilidad de la comunidad universitaria y de la sociedad en general, la herramienta de Supercómputo en total grado de operatividad. En dicha fase inicial se diseñó y se puso en funcionamiento la infraestructura de la supercomputadora “Cuetlaxcoapan”, de la BUAP, con los siguientes parámetros (ver Tabla1). Sin embargo, al ser un proyecto de gran aliento y con el debido apoyo de la BUAP y del Conacyt, se ha adquirido mayor infraestructura para poder realizar diferentes cálculos de gran envergadura en los diferentes ámbitos de las ciencias exactas, naturales, económicas-administrativas e ingeniería. Actualmente, el LNS cuenta con la siguiente infraestructura (ver Tabla 2). En la segunda etapa, el LNS ofrece los servicios de procesamiento de datos a los investigadores de la UDLAP y al INAOE, además de brindar el procesamiento de datos a investigadores de otras instituciones del sureste de México y por supuesto llevar a cabo la consolidación de la relación que existe en el cuestiones de supercómputo entre el LNS y el CNS-IPICyT de San Luis Potosí. Finalmente, la tercera etapa se encuentra en desarrollo y consiste en ofrecer el procesamiento y almacenamiento de datos tanto al sector industrial como a instituciones gubernamentales para hacer del LNS un Laboratorio autosustentable. Las ventajas que ofrece el LNS entre otras cosas son por ejemplo, la alta capacidad en el almacenamiento, la confiabilidad y la disponibilidad de datos. Además, cuenta con la certificación en el nivel 3 por parte de la International Computer Room Experts Association (ICREA) y cuya infraestructura se muestra en la siguiente figura (ver Figura 1). APLICACIONES DEL SUPERCÓMPUTO DEL LNS En la BUAP los diferentes grupos de investigación han utilizado la infraestructura del LNS para resolver problemas relacionados con la ciencia, tal es el caso del Cuerpo Académico de “Investigación Experimental y Teórica de Nuevos Materiales y Educación en Ciencias”, BUAP-CA-263, en donde los integrantes han logrado la caracterización molecular de los compuestos de vanadio —contra la diabetes mellitus tipo II y el cáncer de mama—, el cual actúa como un conductor para llevar el fármaco específico al órgano o tejido dañado. Durante los dos últimos años, los doctores Francisco Javier Meléndez, Norma Caballero Concha, Tom Scior, Ramsés Gutiérrez Ramírez y la estudiante de posgrado Lisset Noriega de la Facultad de Ciencias Químicas, así como los doctores María Eugenia Castro y Enrique González Vergara, del Instituto de Ciencias de la BUAP, han trabajado con estos compuestos, usando dos métodos Ab Initio y Docking. Referencias francisco.melendez@correo.buap.mx [1] https://www.youtube.com/watch?v=7zZr3QFVzmE [2] Proyecto Institucional: Centro de Servicios de Supercómputo de la BUAP “Cuetlaxcoapan”. 13 de Agosto de 2013. [3] https://www.youtube.com/watch?v=TZQi_xvy9P8 [4] E. Cruz Martínez, J. L. Gordillo Ruiz, “Supercómputo en la UNAM”, Entérate en Línea, Año 1, Número 14, Noviembre de 2002. [5] Rpeak – representa el valor de diseño. [6] Rmax – representa el máximo alcanzado en la prueba LINPACK. [7] http://www.lns.org.mx [8] Francisco J. Meléndez, “Investigadores de la BUAP, en el camino de desarrollar fármacos anticancerígenos y antibiabéticos”, 2016. En prensa.

[close]

p. 12

12 diciembre · 2016 Karina González López El LNS y una aplicación a la Biología E n las últimas décadas la tecnología ha evolucionado de manera sorprendente, el progreso en la ciencia numerosas veces implica avances tecnológicos y viceversa, la tecnología genera avances en la ciencia. Una manera muy clara grandes de aminoácidos y son la base de cómo se realizan los procesos en la biología, por tanto, investigar cómo es que determinan su actividad es de suma importancia. Dado que la funcionalidad de una proteína se define con su estruc- de ejemplificar esta simbiosis entre la ciencia y la tecnología es la computación. tura terciaria, es decir, cuando la cadena de aminoácidos se pliega para tomar su forma tridimensional, en el LNS se realizan simulaciones de proteínas con el fin CIENCIA EN LA COMPUTACIÓN de determinar las probabilidades del plegamiento El avance científico, como avances en el área de de éstas. materiales, ha propiciado que las computadoras El problema de determinar el plegamiento de las pasaran de ser del tamaño de una habitación entera, sin mucho poder de cómputo, al punto en que casi cada ser humano tenga en su bolsillo un celular EN EL AÑO 2014 LA BENEMÉRITA proteínas experimentalmente es que aparte de ser un proceso muy complejo este se realiza sorprendentemente rápido, tan rápido como una millonési- cuya capacidad de cómputo es aún mayor a las viejas computadoras. En recientes años surgieron las lla- UNIVERSIDAD AUTÓNOMA DE PUEBLA, ma de segundo. Mientras que en la escala de tiempo de una persona este tiempo es muy rápido, tomaría madas supercomputadoras, que son un conjunto de procesadores unidos entre sí para aumentar su potencia de trabajo y rendimiento. Al año 2008 los EL CONSEJO NACIONAL DE CIENCIA demasiado tiempo para simularlo en computadora. De hecho, las computadoras modernas pueden llevarse todo un día en simular 50 nanosegundos — ordenadores más potentes funcionaban en poco más de 1 PetaFlops, es decir, realizaban poco más de Y TECNOLOGÍA, EL INSTITUTO NACIONAL 0.000000050 segundos— y desafortunadamente, muchas proteínas se pliegan en escalas de milise- 1000 millones de millones de cálculos de punto flotante por segundo. En la actualidad esa cifra se supera por mucho y China es el país que lidera el top 500 DE ÓPTICA, ELECTRÓNICA Y gundos, es decir 1,000,000 nanosegundos. Entonces, tomaría 20, 000 días para simular el plegamiento, es decir, 60 años. de los ordenadores más potentes. En el año 2014 la Benemérita Universidad ASTROFÍSICA, Y LA UNIVERSIDAD DE LAS LNS EN LA COMPUTACIÓN Y LA CIENCIA Autónoma de Puebla (BUAP), el Consejo Nacional de Ciencia y Tecnología (Conacyt), el Instituto Nacional de Óptica Electrónica y Astrofísica (INAOE), y la AMÉRICAS DE PUEBLA REALIZARON UNA Una vez mencionada la gran importancia que tiene este tema y la complejidad de la situación se hace evidente el interés por estudiar estos procesos. En la Universidad de las Américas de Puebla (UDLAP), realizaron una gran inversión en este sector y en 2015 se GRAN INVERSIÓN EN ESTE SECTOR Y EN computadora Cuextlacoapan se realizan simulaciones moleculares con el software libre GROMACS de inauguró en Ciudad Universitaria el Laboratorio Nacional de Supercómputo del Sureste de México (LNS). La supercomputadora del LNS, Cuextlacoapan, 2015 SE INAUGURÓ EN CIUDAD manera distribuída y paralelizada con el fin de reducir los tiempos de cálculo. Se simula múltiples veces la misma proteína para obtener las posibles trayec- tiene un desempeño de alrededor de 200 millones de millones de cálculos de punto flotante por segun- UNIVERSITARIA EL LABORATORIO torias que sigue en cierto intervalo de tiempo y dado que la cantidad de datos recabados es muy do, capacidad de cómputo que es aprovechada por los dos sectores que atiende el LNS: el académico y el comercial. NACIONAL DE SUPERCÓMPUTO DEL grande, se emplean dos algoritmos de análisis de big data: tICA, que busca reducir la dimensión del conjunto de información, dejando solo aquella real- El sector académico es principalmente demandado tanto por profesores investigadores y alumnos de SURESTE DE MÉXICO (LNS) mente útil para los cálculos posteriores, y el agrupamiento Mini Batch K-Means, el cual es una variante la BUAP como de instituciones ajenas pertenecientes del algoritmo K-Means para reducir el tiempo de al área de ciencias y hacen uso del poder de cómpu- convergencia y se encarga de agrupar la informa- to que ofrece el LNS para llevar a cabo sus investiga- ción. Una vez que la información sobre las posibles ciones. En el presente artículo se hablará sobre una trayectorias que puede seguir la proteína se simpli- de las investigaciones que se realiza en este momento relacionada con el área de ficó, se aplica un método matemático llamado Modelos de Estados de Markov bioinformática y biofísica. para calcular la probabilidad de cada transición. Se repite el mismo procedimien- to, cambiando los parámetros —temperatura, presión, etcétera— de las simula- COMPUTACIÓN EN LA CIENCIA ciones con el fin de determinar bajo qué condiciones se pliega correcta o inco- La bioinformática es un campo de estudio que utiliza computación para extraer rrectamente la proteína bajo estudio. conocimiento a partir de datos biológicos; entre sus principales tareas se encuen- Una de las principales razones por las que el estudio de plegamiento de proteí- tra recabar, almacenar, manipular y modelar información para que posteriormen- nas es tan importante es que si una proteína se pliega de manera incorrecta pue- te sea analizada y visualizada o para predecir, a través de algoritmos y software, la den producirse distintas enfermedades como Hungtington y fibrosis cística. Tam- evolución de los sistemas biológicos. La biofísica, por otro lado, estudia la vida a bién se piensa que algunos tipos de cáncer y Alzheimer son resultado de una pro- cualquier nivel, desde átomos y moléculas hasta células y organismos; tiene como teína plegada incorrectamente. Por ello es evidente que a la comunidad científica principal objetivo esclarecer cómo funcionan los sistemas biológicos y para ello su le interesa obtener los resultados lo más pronto posible —¡no en 60 años por pro- investigación va desde el laboratorio hasta la aplicación de la informática para el teína!—, lo cual aumenta las razones para que se trabaje sobre esta línea de inves- cálculo de interacciones. tigación en el LNS. En el año 2003, después de 13 años, con ayuda de la bioinformática, se finali- El tiempo que este proyecto lleva en el LNS es relativamente corto, y la inves- zó el proyecto del genoma humano, el cual consistió en secuenciar 99 por ciento tigación apenas empieza. Hasta el momento solo se han hecho pruebas con del genoma humano y representó para la humanidad un logro equiparable al pri- proteínas sintéticas relativamente pequeñas, pero se espera que en poco tiem- mer aterrizaje del hombre en la luna. Sin embargo, a pesar de la impactante po se comience con cálculos más demandantes y a medida que el trabajo madu- importancia de tener casi 100 por ciento del genoma humano codificado, inclu- re se podría expandir esta línea de investigación a diseño de medicamento yendo el secuenciamiento de las proteínas, esto nos dice muy poco sobre qué especializado. hacen o cómo funcionan los sistemas biológicos. Como resulta natural, con los avances en la ciencia, las investigaciones requie- ren de aún más tecnología, precisión y rapidez, lo cual es un gran impulsor para INTERROGANTES EN LA BIOLOGÍA que las demás áreas del conocimiento se encuentren en constante crecimiento. Una de las interrogantes más grandes para la biología es el plegamiento de pro- teínas e investigadores del LNS trabajan sobre ello. Las proteínas son cadenas 94k.gonzalez@gmail.com

[close]

p. 13

diciembre · 2016 13 Manuel Martín Ortiz El Diplomado en Cómputo de Alto Rendimiento del Laboratorio Nacional de Supercómputo del Sureste de México (LNS/Conacyt) A no más de dos años de la creación del Laboratorio Nacional de Supercómputo del Sureste de México (LNS), ubicado en las instalaciones de la Benemérita Universidad Autónoma de Puebla (BUAP), y en colaboración con los otros miembros del Consorcio: Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), la Universidad de las Américas-Puebla (UDLAP) y la BUAP se ha ido forjando su nombre este Laboratorio Nacional, la primera tarea después de recibir el apoyo del Conacyt para la creación del primer Laboratorio de Supercómputo en una universidad pública fuera de la capital mexicana consistió en conseguir fuentes de financiamiento concurrentes que nos permitieran instalar el equipo, proveer de infraestructura de soporte y servicios a dicho equipo; y captar a personal calificado para su operación y puesta a punto para ofrecer los servicios que un Laboratorio Nacional se compromete a brindar a los usuarios de las instituciones públicas de investigación, enseñanza, servicios, gobierno y productivas en primera instancia; así como a la iniciativa privada como fuente de problemas y recursos para los Laboratorios Nacionales. Si bien muchos de los elementos dependen estrechamente del financiamiento y son estrictamente técnicos, hay uno que depende en mayor proporción de la necesidad de mantener la estructura funcionando y ampliando su espectro de servicios; y esta es la Formación de Recursos Humanos altamente calificados y especializados. Desde el nacimiento del Laboratorio se han impartido diversos cursos, algunos por parte de las empresas que suministraron la plataforma y los elementos de aprovisionamiento complementario; y otros por los profesores investigadores que laboran y cooperan con el Laboratorio. Muchos de estos cursos se motivaron por el interés de los becarios y alumnos asociados al Laboratorio, y otros por los usuarios de la supercomputadora y sus colaboradores. En general el punto era y sigue siendo el de aprender a utilizar los recursos que la supercomputadora ofrece y cómo estos se pueden utilizar en diferentes ámbitos, ya que las expectativas en general son amplias, pero el cómo aprovechar el medio no siempre es claro. Como se indica en la página del laboratorio (www.lns.org.mx) a la fecha se cuenta con cuatro grupos de recursos aprovechables de manera directa: Los nodos de cálculo de propósito general, los nodos CUDA, los nodos Xeon Phi y los nodos Gordos, cada uno de estos se puede explotar de dos maneras: utilizando un programa ya desarrollado que se ajuste a nuestro problema o desarrollando código de computadora específico a nuestro problema. En ambos casos se requiere que el usuario o grupo de trabajo elija correctamente la herramienta a utilizarse, así como capacitarse en su uso y finalmente manejarla de manera correcta para resolver el problema planteado. Cada uno de estos problemas se puede atender si el usuario se relaciona con otros usuarios o grupos de investigación alrededor de una temática y que utilicen recursos de supercómputo para solucionar algunos aspectos del tema científico o tecnológico. Esto ocasiona que se aprendan a identificar las herramientas de bajo y alto nivel para resolver los problemas de un área del conocimiento y eventualmente transferir soluciones entre dominios por homologías en los modelos. Ante estas problemáticas el Laboratorio Nacional de Supercómputo del Sureste de México (LNS) se planteó reducir el tiempo de la curva de aprendizaje para ser capaz de utilizar con éxito las herramientas que él ofrece para aprovechar los recursos disponibles en el Laboratorio. Como medida inicial se discutió la idea de estructurar un Diplomado en Cómputo de Alto Rendimiento (CAR) dirigido a los usuarios del Laboratorio, el primer nivel del diplomado se planteó como una introducción al manejo de los recursos a bajo nivel, esto comprende el manejo de las herramientas de desarrollo para crear soluciones a la medida de cada problema y a veces para muchos problemas de una clase dentro de un dominio concreto: Química, Biología, Física, Ingeniería, Medicina, etcétera. El Diplomado en CAR se ha planteado en dos etapas, una introductoria al supercómputo y otra que ayude en el manejo de herramientas de alto nivel y específicas a dominios concretos como los mencionados antes. La estructura del Diplomado en CAR-I se compone de cinco cursos y su objetivo general es: “Formar usuarios de calidad en los servicios que proporciona un laboratorio de Cómputo de Alto Rendimiento como el LNS”. Y sus objetivos particulares son dos: (1) Introducir a los participantes para el uso y desarrollo de aplicaciones de alto desempeño de cómputo; y (2) Capacitar a los participantes en el ambiente del sistema operativo LINUX utilizado en la supercomputadora del LNS. Este diplomado comenzó a impartirse en el mes de octubre de este año terminarán sus cursos en enero de 2017, es un programa intenso y se imparten 12 horas de clase teórico y prácticas a la semana. El perfil del aspirante a este diplomado es contar con una formación general en ciencias y/o en ingenierías y conocimientos básicos de programación. Cuando termine el Diplomado, será capaz de aplicar los conocimientos adquiridos a su área específica de trabajo en relación con el uso de Cómputo de Alto Rendimiento. El requisito académico es estar cursando o haber terminado una licenciatura en ciencias o ingeniería. Todos los participantes podrán acceder al acervo biblio-hemerográfico con que cuenta la Benemérita Universidad Autónoma de Puebla, así como a los servicios biblio-hemerográficos asociados. En particular, los participantes podrán acceder a todos los libros y revistas de computación con que cuenta la BUAP a través de su servicio bibliotecario. A cada alumno del Diplomado se le abrirá una cuenta en la supercomputadora del LNS para que realice sus prácticas y proyectos de curso, cuenta que en el futuro podrá mantener en caso de presentar en colaboración con un asesor académico para el caso de estudiantes un Proyecto de Investigación que requiera el uso de la supercomputadora del LNS. Los cursos que lo conforman son los siguientes: 1. Introducción al Sistema Operativo Linux a Nivel de Usuario. En este módulo se hace una introducción al Sistema Operativo que es utilizado en la supercomputadora del LNS y la idea es que los usuarios puedan desenvolverse en ese ámbito con soltura. Se hace un especial hincapié en el Entorno de Ejecución de Tareas (Sistema de Colas SLURM). 2. Elementos de Arquitectura de Computadoras. Aquí se estudia la manera en que las computadoras están organizadas, desde una máquina personal hasta una supercomputadora. Se discute la estructura de un equipo de CAR y la infraestructura que le da soporte. 3. Introducción a la Programación y a los Lenguajes. Los puntos más importantes de este módulo se refieren a los Lenguajes mediante los cuales se desarrollan programas de Computadora en ambientes de CAR. Se estudian los Lenguajes más importantes, el cómo ejecutarlos en el ambiente de colas multiusuario y multiproceso. 4. Cómputo Paralelo I. Se estudian en este módulo los modelos de programación más importantes en ambientes de supercómputo, el diseño de programas y las bases del Cómputo Científico. 5. Cómputo Paralelo II. En este módulo se hace una revisión detallada de las estrategias de programación en ambientes multiprocesador de memoria compartida y memoria distribuida, así como el uso de tarjetas aceleradoras GPGPU (CUDA). Y se incursiona en los métodos de programación mixta y heterogénea. Los instructores de esta primera edición del Diplomado son en el orden anterior de los módulos: doctor Enrique Varela, doctor José Luis Ricardo, doctor Manuel Martín, doctor Hugo García y doctor Luis Villaseñor. Los alumnos inscritos son 45 y su composición es heterogénea. Muchos son alumnos de las carreras de Computación que la BUAP ofrece, también hay alumnos de la carrera de Biomedicina, Física, Matemáticas Aplicadas e Ingeniería; y hay dos inscritos que vienen del INAOE y una egresada de la UPAEP. También se han incorporado varios trabajadores de la BUAP como participantes. La mayoría de los alumnos inscritos recibieron beca de inscripción parcial o condonación de pago en el caso de los trabajadores de la BUAP. A la fecha se está impartiendo el cuarto módulo. Los cursos se desarrollan en los Edificios Multiaulas de Ciudad Universitaria de la BUAP por las tardes y los sábados. Luego de cerrarse este Diplomado se espera iniciar en un tiempo no muy largo —algunas semanas— la segunda parte del Diplomado y en futuro muy cercano ofrecer una Especialidad de Cómputo de Alto Rendimiento (posgrado) con duración de un año. De tal manera que se puedan integrar los dos Diplomados como Especialidad y se pueda al mismo tiempo tomar los cursos sueltos a manera de Educación Continua y Formación Profesional. En fechas próximas se anunciará el Segundo Diplomado y la Especialidad, luego de evaluar este primer diplomado. manuel.martin@correo.buap.mx

[close]

p. 14

14 Homo sum diciembre · 2016 Sergio Cortés Sánchez Tratados comerciales M éxico tiene suscrito 53 tratados comerciales y de inversión con un centenar de países, el más importante por el valor y volumen es el signado con Estados Unidos y Canadá, vigente desde el primer día de enero de 1994: el Tratado de Libre Comercio (TLC). Entre los diferenciados productos comercializados destacan los estacionales agropecuarios: entre enero y junio, el valor de las exportaciones superan al de las importaciones; de julio a diciembre, el valor de lo importado es superior a lo exportado, y el saldo anual de la balanza agropecuaria suele ser negativo para México. Cuando inició el TLC la superficie sembrada con granos básicos en México (maíz, frijol, trigo y arroz) fue de 11.1 millones de hectáreas (ha), en 2015 fue de 10.05 millones ha: en 22 años de vigencia del TLC dejamos de cultivar un millón 53 mil 428 ha (Sagarpa, SIAP). El abandono del cultivo de granos básicos no menguó la producción, la cual creció a una tasa media anual de 1.3 por ciento entre 1993 y 2015, inferior a la tasa de crecimiento poblacional y del consumo per cápita, dicho déficit de granos básicos se cubrió con importaciones, lo cual aumentó la dependencia alimentaria de 20 por ciento en 1990 a 38 por ciento en 2015; es decir, en 1990 el déficit de granos básicos por persona fue de 59.5 kilos y de 130.9 kilos en 2015. El valor de las importaciones de maíz y frijol excedieron en 39 mil 238 millones de dólares a las exportaciones de esos productos entre los años 1994-2015 (Grupo de Trabajo de Estadísticas de Comercio Exterior, integra- do por el Banco de México, INEGI, Servicio de Administración Tributaria y la Secretaría de Economía), tal saqueo de divisas hace inviable cualquiera modalidad de crecimiento económico para México y amerita la revisión de los términos del TLC y de la estrategia y política económica sustentada en el libre mercado. México es centro de origen y diversificación del maíz, nuestro cereal principal: su milenaria domesticación ha generado más de medio centenar de razas nativas y millares de variantes aptas a la heterogeneidad de climas, suelos, humedad atmosférica, topografías, vientos y precipitaciones pluviales. Su cultivo ocupa a millones de agricultores quienes por varias centenas de generaciones se trasmiten prácticas agroecológicas sustentables y tienen en el territorio el centro de sus cosmovisiones. Hay un acervo ancestral de conocimientos que permiten la multifuncionalidad de prácticas agroecológicas en condiciones que son adversas para una actividad mercantil; esos productores disponen de limitados recursos productivos y generalmente lo generado es autoconsumido; elevar los rendimientos por unidad de superficie es posible con una política ad hoc que tenga como prioridad mejorar las condiciones de vida de esos sujetos. Además existen maíces certificados de alto rendimiento y una agricultura intensiva muy desarrollada en el centro y norte del país que pueden generar el autoabasto de maíz, incluso un saldo positivo en balanza comercial, como lo hiciera la agricultura en los años de posguerra, durante el llamado milagro mexicano. La agricultura en los países desarrollados es fuertemente subsidiada y la reproducción social de los productores agrícolas es prioritaria: los subsidios al valor agregado agrícola en Estados Unidos es tres veces más alta que la de nosotros, independientemente que los rendimientos físicos entre ambas agriculturas es de cuatro a uno favorable a los vecinos. En México hay opciones fundamentadas para una agricultura autosuficiente en la producción de granos básicos, generadora de empleos y menos depredadora de los recursos ambientales (Científicos Comprometidos con el Cambio Social). La indiscriminada apertura comercial, los términos convenidos en el TLC, las políticas neoliberales, y el abandono de políticas públicas de fomento agropecuario sustentables han generado, además de descampesinización, expoliación de territorios y precarización laboral, un desabasto permanente de alimentos y materias primas, migraciones rurales más intensas y deterioro en la calidad de vida de los productores agrícolas y de la población rural. El entorno macroeconómico es recesivo y hay hartazgo social ante los magros resultados neoliberales, tanto en términos económicos como en lo social y político; la necesidad del cambio de estrategia y de políticas públicas apremia revisar el TLC desde una óptica de soberanía y autosuficiencia alimentaria. sercorsan@hotmail.com · Fuente: Grupo de Trabajo de Estadísticas de Comercio Exterior, integrado por el Banco de México, INEGI, Servicio de Administración Tributaria y la Secretaría de Economía. · Fuente: Secretaría de Agricultura, Ganadería, Desarrollo Rural, Pesca y Alimentación.

[close]

p. 15

José Gabriel Ávila-Rivera diciembre · 2016 15 Tékhne Iatriké Las alteraciones circadianas H ablar del sueño es referirse a un algo verdaderamente fascinante y enigmático, sobre todo porque alrededor de él hay más dudas que afirmaciones. En términos médicos podemos plantear que se trata de un las esferas biológicas, psicológicas y sociales. Surge en este sentido la necesidad de establecer medidas preventivas, con una orientación a la denominada higiene de sueño, que no es otra cosa más que la regulación de los periodos de proceso regulado en una forma homeostática, es decir, con una tendencia al sueño y vigilia, a través del cultivo de los buenos hábitos. Este debe ser el deno- equilibrio. Deducimos fácilmente que si se ha minador común para ejercer de primera inten- dormido excesivamente, va a haber una franca ción, cualquier intervención enfocada a corregir disminución de sueño y lo contrario, es decir las alteraciones circadianas, aunque no consti- que si no se duerme lo suficiente, va a darse una tuyan la única medida a adoptar. necesidad impostergable de dormir más. La higiene de sueño está representada por También se puede afirmar que existe una regu- aquellas recomendaciones que deben adoptar lación cronobiológica del sueño, que se ajusta al las personas que padecen insomnio, para hacer ciclo de sueño y vigilia, sincronizándose con el mínimos los factores externos que impiden dor- periodo geofísico terrestre de 24 horas, lo que mir y proporcionar condiciones fisiológicas para significa en pocas palabras, dormir de noche y generar un sueño normal. Las más representa- estar activos a lo largo del día. tivas son: irse a la cama solo cuando se tenga La regulación biológica con respecto al tiem- sueño. Levantarse todos los días, incluidos los po se ubica específicamente en el cerebro a nivel fines de semana, a la misma hora. Evitar que- de una glándula conocida como hipotálamo y se darse en la cama despierto más tiempo del nece- adapta cotidianamente al horario de 24 horas sario. Prescindir de las siestas durante el día. del ciclo día y noche. Esta adaptación se da por Reducir o evitar el consumo de alcohol, cafeína, medio de un regulador altamente especializado hipnóticos o sedantes. Evitar comidas copiosas que se encuentra en la retina del ojo; sin embar- antes de acostarse. Mantener condiciones go, existen otros reguladores que dependen de ambientales adecuadas para dormir (tempera- las actividades sociales; por ejemplo, los tiempos tura agradable, apropiada ventilación, evitar en los que se debe trabajar, asistir a las labores ruidos, sustraerse de cualquier tipo de luz, por escolares, participar de actividades recreativas o leve que sea). Evitar actividades estresantes en algunas situaciones imprevistas. las horas previas de acostarse. Realizar un ejer- Se habla de alteraciones circadianas cuan- cicio físico moderado al final de la tarde. do se rompe con la sincronía entre el periodo Practicar ejercicios de relajación antes de acos- de vigilia y el sueño, tomando como base al tarse. Tomar baños de agua a temperatura cor- ciclo del día y de la noche en nuestro planeta y poral por su efecto relajante. Estas medidas son los horarios sociales. En pocas palabras, no se recomendadas como auxiliares de otras inter- puede dormir cuando se debe o se desea, con efectos extremadamente molestos como la somnolencia diurna o el insomnio. La frecuencia de estas alteraciones es muy alta, y si bien no existen estadísticas confiables que puedan servir de base para estimar la realidad, se cal- · Imagen tomada de http://ramanujan25449.blogspot.mx/2016/03/nuestros-relojes-biolo- gicos-2.html DE TODO LO QUE EL SER HUMANO PUEDE venciones terapéuticas, incorporándose a todos los tratamientos. La edad representa un factor de cambio en el patrón circadiano humano. Se acorta a partir de la sexta década de la vida, provocando la necesidad de acostarse más temprano y despertar en cula que alrededor de 10 por ciento de la población mundial sufre graves trastornos circadianos, con un impacto mucho más marca- HACER, EL SUEÑO ADECUADO ES EL MEJOR una forma precoz, sin que necesariamente esto represente una patología; sin embargo es reconocida como principal alteración, la dificultad do en personas invidentes, que puede alcanzar hasta 50 por ciento. CONSERVADOR DE LA SALUD MENTAL; SIN para iniciar el sueño a la hora deseada y el entorpecimiento para levantarse por las maña- Las causas que producen este problema se pueden circunscribir a las alteraciones de nuestros relojes biológicos, desordenando los ciclos y EMBARGO, EN LA SOCIEDAD ACTUAL, nas. Otro problema que se puede reconocer fácilmente es la irregularidad del sueño durante el día y la noche. Se entiende como una frag- condicionando su prolongación (más de 24 horas de ausencia de sueño) o incluso su acortamiento. Existen algunos factores que ejercen DORMIMOSMENOS. LUEGO ENTONCES, ES mentación a la forma en la que se dispersa, a lo largo de las 24 horas, el patrón de sueño, con un periodo corto entre las 2 y 6 de la mañana y dis- un efecto sobre el sistema de entrenamiento en nuestros hábitos de sueño, como por ejemplo, JUSTO QUE RECONOZCAMOS NUESTROS tribución a lo largo del día de las denominadas siestas. Aunque existen otros desajustes, estos los horarios sociales o la exposición a la luz. son los más frecuentes y obligan a establecer Mecanismos reguladores extremadamente complejos van a ir determinando la forma en la que PATRONES CIRCADIANOS Y ASÍ ASPIRAR A una terapéutica que se enfoque a mejorar la calidad de vida. nos adaptaremos para dormir lo suficiente y tener el debido descanso para llevar a cabo puntualmente nuestras actividades cotidianas. CONVERTIR LA VIDA EN UN SUEÑO Las opciones actuales de tratamientos con menores efectos secundarios, indudablemente tienen que ver con la administración de melato- Finalmente, la ruptura en el equilibrio de sueño nina, disminuir fuentes de luz artificial, así circadiano se da en una forma particularmente intensa cuando se llevan a como limitar la utilización de teléfonos celulares, tabletas, computadoras o cabo viajes transoceánicos, al realizar trabajos nocturnos con frecuentes cam- televisión, por las noches. Aunque existen otras opciones como la utilización bios de turno, situaciones de tensión emocional, consumo de estimulantes de algunos antihistamínicos o las benzodiacepinas, por sus efectos secunda- como cafeína, nicotina, teobromina (sustancia que se encuentra esencialmen- rios, deben reservarse para que especialistas en el sueño, los puedan indicar te en el chocolate), para culminar con el consumo de bebidas alcohólicas que con el debido perfil de seguridad. si bien pueden generar un aparente efecto estimulante, llega a deprimir en una De todo lo que el ser humano puede hacer, el sueño adecuado es el mejor forma importante el sistema nervioso central y fraccionar el descanso. conservador de la salud mental; sin embargo, en la sociedad actual, dormimos Aunque los malestares son múltiples, hay dos manifestaciones que pueden menos. Luego entonces, es justo que reconozcamos nuestros patrones circa- analizarse desde un punto de vista práctico y son, el insomnio y la somnolen- dianos y así aspirar a convertir la vida en un sueño. cia diurna. Estos dos aspectos pueden condicionar un verdadero círculo vicio- so que van a generar una mala calidad de vida y un consecuente impacto en jgar.med@gmail.com · y h

[close]

Comments

no comments yet