Google Acaba de Joder el Negocio de los Chips de Memoria (Y No, No Es Broma)

Ayer Google soltó una bomba que ha hecho que las acciones de Samsung, SK Hynix y Micron caigan más rápido que mi fe en la humanidad cuando leo los comentarios de LinkedIn. Se llama TurboQuant, y básicamente es la manera de Google de decir “oye, ¿y si en lugar de comprar más memoria para IA, simplemente usáramos la que tenemos de forma inteligente?”

Qué Coño Hace TurboQuant (En Cristiano)

Para entenderlo, primero hay que saber que los modelos de IA funcionan como ese amigo que necesita escribir todo en post-its para recordar las cosas. Estos “post-its” se llaman cachés KV (key-value), y normalmente ocupan una barbaridad de memoria. Google ha descubierto cómo comprimir estos post-its de 16 bits a solo 3 bits sin perder ni un ápice de información.

El resultado: 6 veces menos memoria necesaria y hasta 8 veces más velocidad. Y cuando digo “sin perder información”, me refiero a que el modelo da respuestas idénticas a las que daría sin comprimir. Es como conseguir que tu móvil dure 6 veces más sin cambiar la batería.

Ah, y lo mejor de todo: no hace falta reentrenar los modelos. Es un parche que se aplica y ya está. Como cuando actualizas WhatsApp y de repente va más rápido (aunque en ese caso suele ir peor, pero bueno).

Por Qué Los Inversores Se Han Cagado

Los fabricantes de chips de memoria llevan años viviendo como reyes gracias al boom de la IA. “¡Necesitamos más memoria! ¡Más HBM! ¡Más de todo!”, gritaban los data centers. Y Samsung, Micron y compañía se frotaban las manos vendiendo chips como rosquillas.

Pero resulta que Google acaba de demostrar que tal vez, solo tal vez, no necesitemos tanta memoria como pensábamos. Las acciones han caído entre un 5% y un 6% en un día. Para que te hagas una idea, es como si Netflix anunciara que han descubierto cómo comprimir películas para que ocupen 6 veces menos espacio. Los fabricantes de discos duros no estarían muy contentos, ¿verdad?

La Magia Técnica (Sin Dormirte)

TurboQuant funciona con un truco matemático de dos partes. Primero convierte los datos de coordenadas normales a coordenadas polares (imagínate cambiar de un mapa cuadriculado a uno circular), lo que hace que los patrones sean más predecibles. Luego aplica una corrección de errores de 1 bit que asegura que no se pierde nada por el camino.

Lo más alucinante es que en menos de 24 horas, desarrolladores independientes ya habían recreado la tecnología y la estaban probando. Algunos incluso consiguieron compresión de 2 bits (mejor que lo que Google publicó) en tarjetas gráficas normales como la RTX 4090.

Esto me recuerda a Pied Piper de Silicon Valley, pero en la vida real y funcionando de verdad.

Mi Opinión: Esto Cambia Todo (Y Nada a la Vez)

Aquí viene la parte donde me pongo serio (tranquilo, dura poco). TurboQuant es genuinamente revolucionario porque democratiza el acceso a modelos grandes. Una startup que antes necesitaba 50.000€ al mes en GPUs ahora puede conseguir el mismo rendimiento por menos de 10.000€. Eso no es evolución, es disrupción pura y dura.

Para Google, es una jugada maestra. Operan uno de los mayores data centers de IA del mundo – cada optimización se traduce directamente en margen. Y encima pueden usar esto para hacer dumping de precios en Google Cloud y joder a AWS y Azure.

Pero los analistas que dicen que esto es “evolutivo, no revolucionario” también tienen razón en parte. Sí, necesitamos menos memoria por consulta, pero si el volumen de consultas se multiplica por 10, seguimos necesitando más chips. Es la paradoja de Jevons aplicada a la IA: hacer algo más eficiente a menudo aumenta su consumo total.

¿Quién Gana y Quién Pierde?

Ganadores claros: Google (obviamente), startups de IA (pueden jugar en primera división), desarrolladores (modelos más baratos), y paradójicamente, Nvidia. Sí, has leído bien. GPUs más eficientes significan que más gente puede permitirse usarlas.

Los jodidos: Fabricantes de memoria que habían hecho planes quinquenales asumiendo que la demanda seguiría creciendo linealmente. Spoiler alert: ya no.

El Futuro es Software, No Hardware

Esto marca un punto de inflexión. Durante años hemos resuelto los problemas de rendimiento de IA tirando más hierro al problema. “¿Va lento? Más GPUs. ¿Necesitas más memoria? Más chips.” TurboQuant demuestra que a veces la solución es más elegante que bruta.

Google sacará el código abierto en Q2 2026, probablemente en ICLR (la conferencia de machine learning más importante del año). Para entonces, Meta, OpenAI y Anthropic ya estarán desarrollando sus propias versiones.

El mensaje es claro: en IA, el futuro está en el software inteligente, no en acumular hardware como un dragón acumula oro. Y eso, amigos míos, es bueno para todos… excepto para los que vendían el oro.

Aviso Legal · Política de Privacidad · Política de Cookies
© 2026 KMOOPS — Consultoría IT, IA & Automatización
Scroll to Top