Mustafa Suleyman, CEO de Microsoft AI, acaba de publicar un artículo en MIT Technology Review que es todo un manual de arrogancia tecnológica. Su mensaje es cristalino: “Los escépticos seguirán prediciendo muros. Y seguirán equivocándose.” Porque claro, cuando eres el tipo que maneja presupuestos de 100.000 millones de dólares para clusters de IA, la humildad es opcional.
El evangelio del compute infinito
Suleyman viene a contarnos que desde 2010, la cantidad de datos de entrenamiento para modelos de IA ha crecido un billón de veces. Sí, has leído bien: 10¹⁴ a 10²⁶ flops. Es como presumir de que tu factura de la luz ha subido un billón de veces, pero en plan positivo.
Su argumento es que tres fuerzas están convergiendo para mantener esta explosión exponencial:
- Chips más rápidos: De 312 a 2.250 teraflops en 6 años (Nvidia se frota las manos)
- Memoria de alta velocidad: HBM3 triplica el ancho de banda de su predecesor
- Superordenadores masivos: Conectando cientos de miles de GPUs como si fuera Lego para adultos millonarios
Todo esto suena muy impresionante hasta que te das cuenta de que cada rack del tamaño de una nevera consume 120 kilovatios. Es decir, lo que consumen 100 hogares. Pero tranquilos, que Suleyman ya tiene la solución: la energía solar ha bajado de precio un 97% en 50 años. Problema resuelto, ¿no?
El elefante energético en la habitación
Aquí es donde la cosa se pone interesante. Suleyman prevé que para 2030 estaremos añadiendo 200 gigavatios de computación IA al año. Para que os hagáis una idea: es como el consumo pico de Reino Unido, Francia, Alemania e Italia juntos. Cada año. Solo para entrenar chatbots más listos.
Su respuesta es que la energía solar y las baterías han bajado de precio dramáticamente. Lo cual es cierto, pero ignora convenientemente que:
- Las redes eléctricas no se construyen de la noche a la mañana
- Los materiales para baterías a esa escala no crecen en los árboles
- La geopolítica de las tierras raras es, digamos, complicada
Pero hey, son detalles menores cuando tienes una visión exponencial.
Mientras tanto, en el mundo real…
Ironías de la vida: mientras Suleyman proclama la llegada de agentes casi humanos que trabajarán durante semanas de forma autónoma, CNN publica que los trabajos de ingeniería de software no van a desaparecer como se predecía. De hecho, están creciendo un 11% anual.
Resulta que cuando democratizas la capacidad de escribir código con IA, necesitas más ingenieros senior para dar sentido a todo ese caos generado automáticamente. Quién lo iba a decir: que hacer algo más fácil puede crear más demanda, no menos.
Las empresas como IBM e Intuit están contratando más desarrolladores junior que sepan manejar IA, no para reemplazar a los senior, sino para liberarlos de tareas rutinarias. Los ingenieros ahora se dedican más al diseño de sistemas y a resolver problemas reales de usuarios. Revolucionario, ¿verdad?
La realidad tiene una fijación molesta por los límites
No me malinterpretéis: el progreso en IA es real e impresionante. Pero entre el bombo y el progreso real hay una diferencia que los evangelistas del crecimiento exponencial tienden a ignorar.
Suleyman dice que “evolucionamos para un mundo lineal” y que nuestra intuición “falla catastróficamente” ante las tendencias exponenciales. Puede que tenga razón. Pero también evolucionamos para detectar cuando alguien nos está vendiendo humo con números muy grandes.
La historia de la tecnología está llena de predicciones exponenciales que se estrellaron contra muros físicos, económicos o sociales. No porque los visionarios fueran tontos, sino porque la realidad es testaruda y tiene esta manía de imponer límites.
El futuro probable
¿Va a seguir progresando la IA? Absolutamente. ¿Vamos a ver mejoras dramáticas en los próximos años? Sin duda. ¿Vamos a llegar al nirvana computacional que describe Suleyman sin tropezar con límites físicos, económicos o sociales? Ahí ya tengo mis dudas.
Mientras tanto, los desarrolladores que sepan trabajar con IA van a estar muy cotizados. Las empresas van a necesitar más ingenieros, no menos. Y la factura energética va a ser… bueno, exponencial.
Pero por favor, sigamos hablando de números astronómicos mientras ignoramos que algunas GPUs siguen petándose cuando intentas hacer inferencia en paralelo. Porque nada dice “revolución tecnológica” como un kernel panic a las 3 de la mañana.