Supercomputadoras estatales: Una nueva puerta al desarrollo de la IA académica


En los últimos años, el avance de la inteligencia artificial (IA) ha estado fuertemente condicionado por la disponibilidad de infraestructura tecnológica. Las grandes corporaciones tecnológicas, con su poder adquisitivo, han acaparado las unidades de procesamiento gráfico (GPUs) más avanzadas, dejando a muchas universidades y centros de investigación públicos con recursos limitados. Esta desigualdad no es trivial: entrenar modelos de IA modernos requiere una potencia de cálculo masiva y sostenida.

Los investigadores han tenido que conformarse con alternativas como el uso de nubes comerciales, donde alquilar capacidad de procesamiento puede salir más caro que comprar un coche cada mes. Además, los superordenadores federales disponibles suelen estar optimizados para simulaciones físicas, no para las cargas de trabajo específicas de la IA. En este escenario, la investigación académica queda en desventaja, sin las herramientas necesarias para innovar con libertad.



El modelo de Empire AI en Nueva York

Nueva York ha decidido intervenir ante esta brecha. El programa Empire AI es un ambicioso proyecto estatal que destina 500 millones de dólares durante 10 años para ofrecer a universidades públicas y privadas acceso a supercomputadoras especialmente diseñadas para IA. En lugar de depender de fondos federales o del mercado, el estado asume el liderazgo y democratiza el acceso a una infraestructura que hasta ahora era privilegio de Silicon Valley.

=> Recibir por Whatsapp las noticias destacadas

La primera máquina, bautizada como Alpha, fue donada por la Fundación Simons y cuenta con casi 200 GPUs de última generación de NVIDIA. Aunque modesta comparada con sistemas comerciales, ya ha beneficiado a más de 350 investigadores, permitiendo trabajos que antes eran inviables. Proyectos que analizaban decisiones cerebrales, predicciones de inundaciones urbanas o diagnósticos de cáncer, hoy avanzan gracias a esta infraestructura.

Pero Alpha es solo el comienzo. Pronto se pondrá en marcha Beta, con una capacidad diez veces superior y equipada con los codiciados chips Blackwell de NVIDIA, actualmente los más potentes para tareas de IA. La clave no está solo en el número de chips, sino en la red que los conecta, capaz de transmitir datos con mayor rapidez y eficiencia que supercomputadoras como El Capitan del Departamento de Energía. Eso significa que los modelos se entrenan más rápido, se exploran más variantes y se responde con agilidad a preguntas científicas complejas.

De la bioinformática a las ciencias sociales

La ventaja de este tipo de recursos es su versatilidad. Aunque se asocien a menudo con proyectos tecnológicos puros, las supercomputadoras impulsadas por IA están permitiendo avances en áreas tan diversas como la biomedicina, la estadística urbana o la neurociencia.

Por ejemplo, en la Universidad de Buffalo, el biofísico Thomas Grant trabaja en SWAXSFold, una alternativa abierta a AlphaFold, el sistema de Google que predice la estructura de las proteínas. Mientras que AlphaFold requiere ingentes recursos que solo una gran tecnología puede sostener, SWAXSFold está surgiendo en un entorno público, con acceso a infraestructura compartida.

En Columbia, la estadística Tian Zheng analiza patrones de inundaciones urbanas combinando datos dispersos de clima, reportes vecinales y registros municipales. Sin acceso a supercomputadoras, este tipo de análisis granulado sería simplemente imposible. Y en la Universidad de Nueva York, Christine Constantinople entrena redes neuronales artificiales para entender cómo tomamos decisiones, algo que con Empire AI pasa de tomar una semana a solo un día por simulación.

California y el surgimiento de CalCompute

El ejemplo neoyorquino ha encendido alarmas en otros estados. California, otro epicentro de la innovación, ha aprobado una ley que dará forma a CalCompute, un sistema similar que se alojará en la red de universidades públicas del estado. Aunque aún falta definir su presupuesto y estructura, la voluntad política está clara: ofrecer recursos públicos para que la IA sirva al bien común.

Russell Wald, del Instituto de IA Centrada en el Humano de Stanford, lo resume bien: no se trata de competir con OpenAI o DeepMind, sino de asegurar que investigadores de todas las disciplinas puedan crear soluciones para la sociedad, sin depender de motivaciones comerciales.

El debate federal y la desigualdad territorial

Mientras tanto, el gobierno federal intenta no quedarse atrás. La Fundación Nacional de Ciencias (NSF) y el Departamento de Energía (DOE) han lanzado programas como CloudBank y la iniciativa NAIRR para facilitar el acceso a clústeres o nubes comerciales. Pero estos esfuerzos tienen límites: los recursos son escasos, la arquitectura de muchos supercomputadores no está optimizada para IA y los costos de uso en la nube se disparan con rapidez.

Un panel de expertos ha recomendado invertir 2.600 millones de dólares en seis años para ampliar la infraestructura pública en IA, aunque recortes presupuestarios impulsados por la administración Trump amenazan estos planes. Aun así, la IA se mantiene como prioridad, y recientemente se firmó una orden ejecutiva que crea la misión Genesis, orientada a centralizar conjuntos de datos científicos para ser usados por sistemas de IA.

Aunque iniciativas como Empire AI o CalCompute son una luz de esperanza, también plantean un dilema: ¿qué pasa con estados que no tienen capacidad económica ni voluntad política para replicar estos modelos? Investigadores de regiones menos favorecidas podrían quedar relegados, profundizando la brecha tecnológica entre territorios.

La clave será encontrar un equilibrio entre apoyo federal y liderazgo estatal. Mientras tanto, iniciativas como Empire AI demuestran que, con inversión sostenida y visión a largo plazo, es posible devolver el poder de la innovación a las universidades y laboratorios públicos.

Fuente: https://wwwhatsnew.com/