Las cifras multimillonarias de inversiones en el desarrollo de IA Generativa en los últimos años no dejan de crecer. Elon Musk ya construyó una supercomputadora-supercontaminante en el sur de Memphis que costó más de 7.000 millones de dólares solo en hardware. Ahora planea construir otra, para la que ya consiguió inversiones por 12.000 millones de dólares, aunque se calcula que costará bastante más.
A esto se suman los sueldos cada vez más altos de ingenieros y especialistas a los que se seduce con cheques enormes como anzuelo. OpenAI recibe el equivalente de varios miles de millones de dólares anuales en servicios de cómputo de Microsoft. Alphabet, Meta y otras grandes tecnológicas también apuestan fuerte. Los montos de las inversiones sumados dan cifras astronómicas aunque cuesta medirlas con exactitud porque las empresas prefieren no publicarlas. Todo vale por ser el primero en desarrollar la IA General.
El problema es que nadie tiene muy claro qué sería exactamente esa tecnología que marcaría un punto de llegada, además de permitir ganancias extraordinarias. Vagamente se dice que sería más inteligente que un ser humano, aunque nadie tiene claro cómo medirla con precisión ni contra qué tipo de humano contrastarla. Como esa tecnología es requisito para terminar la relación entre OpenAI y Microsoft, estas empresas decidieron, frente a lo fangoso del término, que se consideraría como "General" a cualquier tipo de IA que produzca 100.000 millones en ganancias.
Lo que parece preocupante es que esta tecnología, que algunos consideran inminente, y que se presenta como el santo grial que resolverá los problemas ambientales o aumentará la productividad a escalas inimaginables (entre otras cosas), es la que se usa para incentivar a los inversores. Hasta tal punto llegó la confusión que el CEO de OpenAI, quien había vaticinado hace poco más de un año la inminencia del desarrollo de la IA General, recientemente declaró: "Creo que el término no resulta super útil" porque hay demasiadas definiciones sobre su significado.
De cualquier manera la carrera continúa. El camino elegido para alcanzarla se basa en aumentar una y otra vez el cómputo, los parámetros y los datos de los modelos de IA Generativa. Pese a todo, las investigaciones que no provienen directamente de las empresas interesadas plantean serias dudas acerca de que estos desarrollos se estén acercando a la capacidad de razonamiento. Es por ejemplo lo que dice una investigación muy reciente de Harvard y el MIT.
Nada los detendrá
A las dudas sobre esa tecnología casi mágica que siempre se mantiene en el horizonte se suman dificultades crecientes para hacer sustentables a las IA Generativas ya desarrolladas. Un problema es que las alucinaciones y falta de criterio de las IA hace que cometan errores que cuesta tiempo y dinero arreglar. Ya existen profesionales especializados en reparar productos hechos con IA Generativa.
Incluso en algunos sectores en los que la tecnología está más avanzada, como los lenguajes de programación, con una fuerte codificación que debería facilitar el desempeño de herramientas estadísticas, las opiniones están divididas acerca de su alcance: por un lado los CEOs hablan del inminente reemplazo de los programadores mientras que los trabajadores creen que es alto el riesgo de que cometan errores y resulte necesario revisar todo desde cero, algo que aumenta costos. Cabe aclarar que la experimentación sigue y la utilidad real sigue en disputa.
En la práctica, lo que parece estar creciendo no es el reemplazo de puestos de trabajo sino la delegación supervisada de ciertas tareas a las distintas herramientas de IA Generativa, tal como indica un reciente estudio de la Global Partnership on AI realizado en varios países latinoamericanos. Se podría decir que si permite trabajar más rápido a los profesionales, se producirá un aumento de la productividad más que bienvenido por la economía global (si es que esa productividad implica menos trabajo y más ingresos para la mayoría). Pero el problema es que incluso plataformas de IA Generativa establecidas no parecen económicamente sostenibles.
Es sabido que las plataformas suelen subsidiar (o directamente hacer dumping) en sus comienzos como forma de instalarse entre los usuarios. Esto implica trabajar por debajo de los costos. Incluso "quemar dinero" es visto como paso necesario hacia la rentabilidad. El problema es que tarde o temprano el optimismo flaquea si los costos crecen siempre más que los ingresos. Por ejemplo, recientemente Anthropic limitó a usuarios premium en su uso de Claude, una IA especializada en programación. Algunos pagaban 200 dólares mensuales por el servicio.
El año pasado, Sam Altman aseguró que con 7 billones de dólares podría "reformar la industria de los semiconductores". Un conocido crítico de la IA Generativa le contestó lo evidente: si necesitaba semejante monto era porque lo estaba intentando con "la arquitectura equivocada". Es posible que algunos de los objetivos de estas corporaciones sean alcanzables si no hay limitaciones económicas y nadie cuestiona los efectos ambientales de sus métodos, pero incluso así hay dudas de que se sostenga en términos capitalistas puros y duros.
Límites en el funcionamiento y costos desproporcionados dificultan también creer en la sensatez de usar IA Generativa en áreas sensibles como la salud, la educación o en armas de guerra, pese a los esfuerzos de las empresas por expandir sus negocios hacia allí y reducir el déficit acumulado.
La urgencia por la rentabilidad crece en parte porque las expectativas de que se cumpla lo prometido parecen desvanecerse. Esto pone ansiosos a los inversionistas que piden resultados tangibles frente a una IA General que parece moverse con el horizonte pese a los costosos esfuerzos de las empresas por acercarse a ella.