Anthropic demanda a Trump por bloquear su IA militar: la batalla entre seguridad y defensa

Anthropic, la empresa detrás de Claude, demandó al gobierno de Trump tras ser etiquetada como "riesgo" de seguridad nacional por rehusar permitir usos militares sin restricciones de su inteligencia artificial. El Pentágono ordenó a contratistas militares dejar de usar la tecnología de la startup californiana. Ingenieros de OpenAI y Google respaldan a Anthropic, argumentando que la IA de armas autónomas y vigilancia masiva requieren límites regulatorios.
La tensión entre la seguridad nacional y los principios éticos en la inteligencia artificial acaba de llegar a un tribunal federal de San Francisco. Anthropic, la empresa que desarrolla Claude (uno de los modelos de IA más avanzados del mundo), demandó el lunes al gobierno de Trump, acusándolo de represalias por negarse a permitir que su tecnología se use sin límites en aplicaciones militares. Todo comenzó cuando el Pentágono la designó como un "riesgo" para la cadena de suministro de seguridad nacional, una clasificación que normalmente se reserva para empresas de países considerados rivales, como Huawei.
La disputa es más que un enfrentamiento corporativo. Detrás está una pregunta incómoda: ¿quién decide los límites éticos de la tecnología de defensa? Anthropic insiste en que se fundó bajo el principio de que su IA debe "usarse de una manera que maximice los resultados positivos para la humanidad" y ser "la más segura y la más responsable". Cuando la empresa se negó a permitir que Claude se usara para vigilancia masiva o sistemas de armas totalmente autónomos, enfureció al secretario de Defensa Pete Hegseth. Trump respondió con una orden presidencial: todas las agencias federales debían dejar de usar la tecnología de Anthropic. Hegseth fue más lejos, prohibiendo a contratistas y proveedores militares "realizar ninguna actividad comercial con Anthropic", aunque concedió seis meses de transición para el propio Pentágono.
Las consecuencias económicas son reales. Anthropic es una de las startups de IA de más rápido crecimiento del mundo, y esta designación la aísla efectivamente del mercado de defensa estadounidense. Por eso, en su demanda de 48 páginas, la empresa sostiene que las medidas violan sus derechos constitucionales. "La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso", argumenta en el texto presentado ante el tribunal.
Pero Anthropic no está sola. Más de treinta ingenieros de IA de OpenAI y Google, incluyendo a Jeff Dean (científico jefe de Google), presentaron un escrito conjunto apoyando la demanda. Aunque aclararon que hablaban en capacidad personal y no representaban a sus empresas, su mensaje fue claro: "Estamos unidos en la convicción de que los sistemas de IA de vanguardia actuales presentan riesgos cuando se usan para permitir la vigilancia masiva doméstica o en la operación de sistemas de armas letales autónomas sin supervisión humana, y que esos riesgos requieren algún tipo de límites, sea con medidas de seguridad técnicas o restricciones de uso". Además, acusaron al gobierno de hacer un "uso de poder impropio y arbitrario" que afectará a toda la industria.
Lo irónico es que Claude es precisamente el modelo de IA más ampliamente desplegado por el Pentágono. Es el único sistema de este tipo que actualmente opera en los sistemas clasificados del Departamento de Defensa, lo que hace que su bloqueo sea especialmente problemático para las operaciones militares. Esto podría significar que Trump está creando un vacío que otras naciones podrían llenar con tecnologías menos reguladas.
Anthropic, fundada en 2021 por los hermanos Dario y Daniela Amodei (ambos antiguos empleados de OpenAI), se ha posicionado en la carrera de la IA como la empresa que dice no a todo. Mientras otros compiten por velocidad y adopción, ellos eligieron seguridad y restricciones. Ahora, ese posicionamiento ético los enfrenta a la maquinaria más poderosa del mundo: el gobierno estadounidense.
Fuente original: El Colombiano - Tecnología

