Las Big Tech ya no son empresas de IA: son contratistas de guerra sin regulación

Mientras seguimos discutiendo si ChatGPT nos va a quitar el trabajo, la verdadera revolución está pasando en los despachos del Pentágono. Las grandes tecnológicas ya no son empresas de inteligencia artificial. Son contratistas de defensa sin regulación.

Y eso, estimados lectores, debería darnos mucho más miedo que cualquier apocalipsis robótico de Hollywood.

La guerra automatizada ya está aquí

Gaza ha sido descrita como la primera “guerra de IA” de la historia. Israel utilizó sistemas algorítmicos para procesar miles de millones de puntos de datos y generar listas automáticas de “combatientes” a eliminar. Un sistema produjo más de 37,000 objetivos en las primeras semanas de guerra. Otro era capaz de generar 100 potenciales blancos de bombardeo por día.

¿El proceso de verificación humana? 20 segundos por objetivo. Tiempo suficiente para confirmar que el blanco era varón y darle al botón de “aprobar”. Los humanos no ejercían juicio crítico; gestionaban una cola de producción.

El resultado: según datos de la propia base militar israelí revisados por The Guardian, de más de 53,000 muertes registradas en Gaza, solo el 17% eran combatientes identificados de Hamas o Jihad Islámica. El 83% restante eran civiles. Estas no son las estadísticas de una guerra de precisión; es una guerra donde la imprecisión es el objetivo.

Pero si pensáis que Gaza fue horrible, esperaد a ver lo que pasó en Irán.

Cuando la IA mata niños por error de datos obsoletos

En la escuela primaria Shajareh Tayyebeh de Minab, en el sur de Irán, murieron 168 personas al inicio del conflicto con Estados Unidos. La mayoría eran niñas de 7 a 12 años.

Las armas fueron “increíblemente precisas”, según expertos en municiones. Cada edificio fue impactado individualmente, nada falló. El problema no fue la ejecución. El problema fue la inteligencia.

La escuela había sido separada de una base militar adyacente hacía casi una década y reconvertida para uso civil. Pero en algún lugar del ciclo de targeting algorítmico, ese dato nunca se actualizó. Los niños murieron porque una base de datos tenía información de hace 10 años.

¿Responsables? Nadie. El algoritmo no puede explicar su razonamiento. Los operadores solo aprueban recomendaciones. Las empresas que construyeron el sistema están fuera del marco legal internacional.

Los verdaderos señores de la guerra llevan sudadera

Aquí viene la parte que me revienta: seguimos llamándolas “empresas tecnológicas” cuando son contratistas de defensa puros y duros.

Palantir, con financiación inicial de la CIA, suministró sistemas para la campaña de Irán usando Claude de Anthropic. Google firmó Project Nimbus con Israel por más de 1,000 millones de dólares. Microsoft tenía integración profunda con sistemas militares israelíes. Amazon se unió a Google en Project Nimbus. OpenAI eliminó discretamente las restricciones de uso militar de sus términos de servicio a principios de 2024.

Estas no son empresas que “casualmente” encontraron un cliente militar. Están integradas en la arquitectura de targeting de la guerra moderna. Sus sistemas se sientan dentro de la cadena de muerte, sus ingenieros tienen autorizaciones de seguridad, sus ejecutivos rotan por la misma puerta giratoria que siempre ha conectado Silicon Valley con el Pentágono.

Palantir gastó casi 6 millones de dólares en lobbying en Washington en 2024. En un trimestre de 2023 gastó más que Northrop Grumman. Tienen una fundación dedicada exclusivamente a moldear el entorno regulatorio donde operan.

La regulación que nunca llegó

Y aquí está el verdadero escándalo: la Ley de IA de la UE, el intento más ambicioso hasta la fecha de regular la inteligencia artificial, exime explícitamente las aplicaciones militares y de seguridad nacional.

Es un acto de circularidad notable: el único cuerpo legal que está siendo sistemáticamente destruido por estos sistemas es designado como su regulador, mientras que los reguladores que realmente podrían restringirlos miran hacia otro lado.

En Estados Unidos, las disposiciones de IA de la Ley de Autorización de Defensa Nacional de 2025 no regulan la IA militar. Ordenan a las agencias adoptar más.

El futuro que nadie pidió

Lo que estamos viendo no es solo la militarización de la IA. Es la creación de un sistema donde las decisiones más consecuentes en la guerra moderna las toman sistemas que no pueden explicarse a sí mismos, suministrados por empresas que no responden a nadie, en conflictos que no generan responsabilidad ni rendición de cuentas.

Eso no es un fallo del sistema. Eso ES el sistema.

Mientras debatimos si la IA nos va a ayudar a escribir mejores emails, estas mismas empresas están automatizando la muerte a escala industrial. Y lo están haciendo desde Palo Alto, sin riesgo personal, sin exposición legal, y con todos los incentivos para hacerlo de nuevo.

La próxima vez que alguien os hable de los “riesgos existenciales” de la IA, recordadle que el riesgo existencial ya está aquí. Tiene nombre y apellidos, cotiza en bolsa, y acaba de matar a 168 niños en una escuela de Irán.

Porque al final, el verdadero peligro de la IA no es que se vuelva consciente. Es que ya es letal, y las empresas que la controlan han decidido que eso es un feature, no un bug.

Aviso Legal · Política de Privacidad · Política de Cookies
© 2026 KMOOPS — Consultoría IT, IA & Automatización
Scroll to Top