La forma de hacer ciencia cambió en los últimos años. Los avances tecnológicos están presentes en el diseño y puesta en escena de las múltiples hipótesis que surgen día a día en el mundo científico. La supercomputación, concentrada en centros de alto desempeño, es el pilar en el que se apoya la ciencia en la actualidad. Y si bien en Argentina este tipo de tecnología no está totalmente impulsada, las universidades públicas buscan normalizar su uso dentro de la comunidad científica nacional.

“Yo quiero rescatar que es muy valioso hacer ciencia a la manera antigua, pero hoy en día se ve más y más complementada con la ayuda de supercomputadoras, y va a llegar un momento en el que ya no se va a poder competir en muchas áreas”, remarcó en diálogo con el Suplemento Universidad Oscar Reula, el director del Centro de Computación de Alto Desempeño de la Universidad Nacional de Córdoba (CCAD-UNC).

La supercomputadora es, como su nombre lo indica, una máquina compuesta por poderosos componentes, que es utilizada para realizar decenas de miles de cálculos en una corta fracción de tiempo en búsqueda de un resultado determinado. “Hoy en día, ninguno de los experimentos que se hacen se diseñan sin computación”, puntualizó Reula, y ejemplificó: “Para construir un avión antes uno decía ‘tengo que hacer las funciones de las alas’ y todo eso, y luego ponía las partes en túneles de viento para ver si funcionaban. Ahora no se hace así. Eso economiza mucho dinero porque se tiene que hacer el modelo final nada más”.

Pero no sólo se pueden hacer cálculos para construir aviones con las supercomputadoras. “Es de importancia para el desarrollo de nuevos fármacos, nuevos materiales, predicciones meteorológicas, predicciones en dispersión de contaminantes, procesamiento de imágenes de toda índole, toma de decisiones en tiempo real en situaciones de emergencia (sismo, inundaciones, etcétera), big data, minería de datos y aprendizaje automático, por citar algunos ejemplos”, puntualizó Carlos Ruestes, responsable del Consorcio para la Computación de Alto Desempeño y sus Aplicaciones en la Provincia de Mendoza, del que forma parte la UNCUYO.

Un complemento para la investigación

La supercomputadora (o clúster) de uso científico más grande del país fue adquirida por la UNC. Se trata de una inversión de más de 380 mil dólares realizada por la casa de estudios que será utilizada para hacer simulaciones que servirán tanto para la bioquímica como a la astrofísica, entre otras disciplinas.

Además, los clústers de la UNC que ya quedan viejos por los años de uso son readaptados para fomentar estudios. Por ejemplo, hay uno que se especializará en inteligencia artificial y dinámica molecular. Al respecto, Reula explicó: “Le vamos a poner tarjetas gráficas de última generación. De ese tipo no hay en el país. Los grupos de estudio tienen máquinas chicas y creemos que es un momento ideal para crear una grande, porque hay mucho empuje en esas dos áreas”.

No sólo eso, sino que la UNC desembolsó dos millones de dólares para construir el UNC “Data center”, cuyo objetivo es “alojar a las supercomputadoras y a toda la sección de informática” de esta casa de estudios.

La Universidad de Buenos Aires (UBA) también tiene su clúster, que está en el Centro de Computación de Alto Rendimiento (CeCAR) de la Facultad de Ciencias Exactas y Naturales.

“Lo que está disponible se usa para la investigación básica en química, física y biología. Son las tres áreas primarias del conocimiento. Dentro de ellas hay disciplinas que usan más la supercomputadora que otras”, detalló el supervisor del Centro, Esteban Mocskos.

En ese sentido, el científico explicó que “todas las tecnologías del CeCAR están dentro de lo que uno podría pensar como auxiliares” para la ciencia que uno piense investigar. “La forma de armar esa ciencia se sostiene en tres pilares: los experimentos en laboratorio, la teoría y, recientemente, se agregó el modelado matemático para entender y responder las preguntas más profundas de lo que ofrecen estas dos cosas que mencionaba antes”, añadió.

El Consorcio para la Computación de Alto Desempeño y sus Aplicaciones en la Provincia posee un clúster que es el núcleo tecnológico de la Facultad de Ciencias Exactas y Naturales de la UNCUYO. “Este clúster es ideal para estudios de interés regional y nacional. Esto se demuestra en los aportes hechos en áreas tan diversas como meteorología y química atmosférica (viento zonda, alertas de granizo y dispersión de contaminantes), procesamiento de imágenes para diagnóstico médico y propagación de plagas, bioinformática para genómica de vides, sistemática molecular de plantas y genética y epigenética de tumores”, detalló Reustes.

“La comunidad usuaria del clúster del Consorcio se caracteriza por su buena cohesión y trabajo mancomunado para mantener el clúster operativo y actualizado, en la medida de sus posibilidades”, reflexionó el científico.

Dificultades de mantenimiento

Como le sucede a cualquier aparato doméstico, las supercomputadoras tienen un período de vida útil que se puede extender hasta los cinco años desde su compra. El problema es que los costos de estos aparatos son inmensos y con presupuestos en dólares. “Por su vida útil, apenas se compra uno ya se tiene que pensar en los fondos para generar el próximo”, especificó el científico.

Además, no todos los grupos de estudio tienen uno, por lo que el uso de los clústers suele ser compartido entre establecimientos universitarios. Según detalló Reula, hay grupos que pueden llegar a “esperar días” para poder realizar cálculos con las supercomputadoras.

Sin embargo, para universidades como la UNCUYO, las posibilidades de acceder a un nuevo clúster son mínimas. Ruestes detalló: “Al término de cuatro o cinco años se considera que los equipos se vuelven ineficientes y lo ideal sería su reemplazo por tecnología actualizada. Esto no sucede en FCEN y, en general, en Argentina. Esto suele obedecer a razones coyunturales asociadas a limitaciones en el financiamiento. En particular, FCEN no se encuentra en condiciones de realizar las erogaciones necesarias para modernizar este tipo de equipos”.

“No tenemos una política de Estado que asegure a la comunidad científica un mínimo de infraestructura actualizada”, opinó Mocskos. Mientras que Reula consideró que “lo que sucede es que la política científica está en manos de investigadores que se formaron sin computación. Entonces, todavía hay un problema en el que no se aprecia la disciplina”.

“Un centro de cómputos no debe estar asociado con proyectos determinados. Uno no compra para hacer fans o baterías de litio, sino que la supercomputación es transversal, todas las disciplinas pueden sacar provecho”, añadió.

El científico de la UNC dio un ejemplo para ilustrar los problemas de financiamiento: “Cuando ganamos un proyecto, ese proyecto tiene un cierto monto que se paga en cuotas uno o dos años después, cuando la inflación se lo comió. Si quiero comprar un equipamiento necesito el dinero completo y ahora”, apuntó.

Mocskos resaltó que además hay que “ayudar y crear usuarios” de clúster porque muchos científicos tienen la necesidad de usarlo, pero dar el salto hacia las supercomputadoras “no es fácil”.

Para el supervisor del CeCAR, una política de Estado que acompañe el desarrollo de la supercomputación “también sirve para que piensen la investigación en términos más ambiciosos”. “La revolución científico-tecnológica que actualmente adopta la forma y términos de aprendizaje automático, machine-learning e inteligencia artificial, requiere de recursos computacionales a la altura de dicha revolución. Un país que no disponga de capacidad de cálculo acorde estará sacrificando, en cierta forma, su independencia tecnológica. El desarrollo independiente de ciencia básica e investigación aplicada tiene, y cada vez con más fuerza, a la computación de alto desempeño en un rol preponderante. Pero es importante decir que una supercomputadora no resuelve los problemas si no hay recursos humanos formados para usarlas”, reflexionó Ruestes.