Por Redacción
redaccion@latinocc.com
La posibilidad de que la inteligencia artificial termine integrada a sistemas de armas autónomas y vigilancia masiva abrió una nueva fractura entre Washington y algunas de las compañías más influyentes del sector tecnológico.
El conflicto estalló después de que Anthropic, creadora del chatbot Claude, rechazó otorgar al Pentágono acceso sin restricciones a su tecnología para usos militares, una negativa que ya provocó respaldo interno entre empleados de empresas rivales como Google y OpenAI.
Según una declaración pública de Anthropic fechada el 27 de febrero, la disputa con el Departamento de Defensa se centró en dos salvaguardas que la empresa buscó mantener: impedir el uso de Claude en vigilancia masiva doméstica y en armas totalmente autónomas.
La compañía dijo que no podía aceptar “de buena fe” una solicitud que eliminara esos límites y sostuvo que ese tipo de uso es incompatible con “valores democráticos”.
En ese mismo posicionamiento, el director ejecutivo Dario Amodei defendió el uso de la IA para la defensa de Estados Unidos y otras democracias, pero marcó una línea roja sobre ciertas aplicaciones.
Anthropic afirmó que las amenazas del gobierno de retirarla de sistemas oficiales o tratarla como un riesgo de cadena de suministro no cambiarían su postura.
La respuesta no pasó inadvertida en Silicon Valley.
Un grupo de empleados de Google y OpenAI comenzó a circular cartas y pronunciamientos internos en apoyo a Anthropic, con el argumento de que sus propias herramientas no deberían utilizarse para vigilar ciudadanos estadounidenses ni para operar armamento autónomo sin supervisión humana.
TechCrunch reportó que más de 300 empleados de Google y más de 60 de OpenAI habían firmado una carta abierta en respaldo a Anthropic.
La tensión llega en un momento en que las grandes tecnológicas ya profundizaron sus vínculos con el Pentágono.
OpenAI obtuvo en junio de 2025 un contrato de 200 millones de dólares con el Departamento de Defensa para desarrollar prototipos de inteligencia artificial dirigidos a desafíos de seguridad nacional, tanto en dominios de combate como en funciones administrativas.
Un mes después, el Departamento de Defensa anunció nuevos contratos, también de hasta 200 millones de dólares cada uno, para Google, Anthropic y xAI, además de OpenAI, como parte de una estrategia para acelerar la adopción de capacidades avanzadas de IA en seguridad nacional.
Reuters reportó que el gobierno federal estaba ampliando su uso de inteligencia artificial bajo nuevas directrices de la Casa Blanca, en un entorno de menor regulación tras decisiones del presidente Donald Trump.
OpenAI, además, ya había dado una señal clara de acercamiento al sector defensa en diciembre de 2024, cuando anunció una alianza con Anduril Industries para desarrollar inteligencia artificial aplicada a misiones de seguridad nacional, con énfasis en sistemas de defensa contra drones.
Informen señalan entonces que la colaboración se enmarcaba en la carrera entre Estados Unidos, sus aliados y China por sistemas militares impulsados por IA.
La controversia actual revela un choque más profundo que una simple negociación contractual.
Por un lado, la Casa Blanca y el Pentágono ven la inteligencia artificial como una herramienta estratégica de valor geopolítico, útil para mantener ventaja militar y tecnológica.
Por el otro, una parte de la industria, incluidos ingenieros dentro de las propias empresas, teme que la presión por competir con China o por cerrar contratos multimillonarios termine desdibujando límites éticos que hasta hace poco parecían firmes.
