Imagínate que tienes un Ferrari y lo estás utilizando para arrastrar un carro de bueyes. Más o menos así están las cosas cuando hablamos de agentes de IA intentando trabajar con nuestras herramientas actuales. Y no lo digo yo — lo dicen Jeff Dean (Google) y Bill Dally (NVIDIA), dos tipos que saben un pelín del tema.
En la reciente conferencia NVIDIA GTC 2026, estos dos gurús han soltado una bomba que muchos veíamos venir pero que pocos se atrevían a decir en voz alta: todo el software actual necesita un rediseño fundamental para funcionar con agentes IA que operan a velocidad de máquina.
El Problema: Velocidad Humana vs Velocidad Máquina
Dean lo explica de forma brillante: cuando un desarrollador humano arranca un compilador de C, le da igual que tarde unos segundos. Pero cuando tienes un agente IA que puede procesar miles de operaciones por segundo, esos mismos segundos se convierten en una eternidad cósmica.
Es como si tuviéramos un piloto de Fórmula 1 intentando correr en un circuito lleno de peatones paseando. Las herramientas actuales — desde compiladores hasta aplicaciones de productividad — están diseñadas para el ritmo pausado del pensamiento humano, no para la velocidad frenética de los agentes IA.
La Respuesta: Laboratorios Autónomos de I+D
Google ya no se conforma con que la IA sea un ayudante obediente. Su objetivo es crear modelos que actúen como laboratorios de I+D autónomos. Dean habla de un futuro donde puedes decirle a una IA: “Explora algoritmos de destilación interesantes usando información que no estamos utilizando actualmente”, y la IA se va, hace los experimentos, y vuelve con resultados.
Básicamente, IA creando IA. ¿Qué podría salir mal? (Y antes de que salten los alarmistas: que algo pueda salir mal no significa que vaya a salir mal, pero sí que deberíamos prestar atención).
NVIDIA: Obsesionados con los Nanosegundos
Por su parte, NVIDIA está atacando el problema desde el hardware. Dally revela que están experimentando con arquitecturas de router simplificadas que sacrifican ancho de banda por latencia — pasando de 400 a 200 gigabits por segundo, pero reduciendo la latencia del router a menos de 50 nanosegundos.
El resultado: modelos grandes funcionando a 10.000-20.000 tokens por segundo. Para que te hagas una idea, eso es como pasar de leer una novela a velocidad normal a poder absorber toda la biblioteca del Congreso en una tarde.
“No Muevas los Datos” — La Filosofía del Futuro
La solución más elegante que propone Dally para el consumo energético suena casi zen: “No muevas los datos”. Explica que hacer un cálculo de multiplicación-suma consume solo 10 femtojoules, pero mover los datos necesarios desde la memoria externa consume 1.000 veces más energía.
Su respuesta: tecnologías de apilamiento 3D que fusionan físicamente memoria y procesamiento. Es como tener tu cocina, despensa y comedor en la misma habitación en lugar de correr por toda la casa cada vez que quieres preparar algo.
IA Diseñando IA (Y Sus Propios Chips)
Lo más fascinante es que esto no es ciencia ficción. Google ya usa IA para colocación y enrutamiento en diseño de chips, y NVIDIA tiene una herramienta llamada NVCell que hace en tiempo récord lo que antes requería un equipo de 8 personas durante 10 meses.
También tienen ChipNeMo, un modelo de lenguaje entrenado específicamente con documentos de diseño de hardware de NVIDIA. Actúa como mentor para ingenieros junior y puede resumir informes de bugs automáticamente.
Dally fantasea medio en broma con poder decir: “Diseñame una nueva GPU”, e irse a esquiar un par de días hasta que esté lista. Aunque admite que estamos lejos de eso, la dirección está clara.
El Verdadero Cambio de Paradigma
Lo que realmente me llama la atención de todo esto no son los números técnicos (por muy impresionantes que sean), sino el cambio conceptual que representa. Estamos pasando de “IA como herramienta” a “IA como colega autónomo”.
Y eso significa que todas nuestras herramientas — desde el IDE donde programas hasta las hojas de cálculo donde haces presupuestos — necesitan repensarse completamente. No es solo hacerlas “más rápidas”; es diseñarlas para un tipo de usuario completamente diferente: uno que procesa información a velocidades sobrehumanas y que puede estar ejecutando cientos de tareas en paralelo.
La pregunta no es si esto va a pasar. La pregunta es si vamos a liderar este cambio o nos va a pillar con el pie cambiado. Y por ahora, parece que Google y NVIDIA han decidido no esperar a que el resto del mundo se ponga al día.
Así que ya sabes: la próxima vez que te quejes de que tu herramienta favorita es lenta, recuerda que pronto podría quedarse obsoleta por razones que ni siquiera habías considerado.