Anthropic se niega a desarmar su IA para el Pentágono y gana de todas formas

Anthropic rechazó quitar los límites de seguridad de su IA Claude para que el Departamento de Defensa de Estados Unidos la usara en armas autónomas y vigilancia masiva. El gobierno amenazó con vetar sus contratos y OpenAI se llevó un acuerdo de 200 millones de dólares. Pero en un giro inesperado, Claude se convirtió en la app más descargada en EE.UU., superando a ChatGPT. La empresa apuesta por mantener sus principios éticos mientras enfrenta espionaje industrial de compañías chinas de IA.
Mientras OpenAI y Google dominan los titulares con ChatGPT y Gemini, existe otra empresa de IA que está protagonizando una de las historias más extrañas del sector: Anthropic, fundada por antiguos miembros de OpenAI y liderada por los hermanos Dario y Daniela Amodei. A diferencia de sus competidores, esta compañía ha construido su modelo Claude bajo un concepto radical: la IA Constitucional, que es básicamente un conjunto de principios éticos que el sistema debe seguir de forma autónoma, sin necesidad de instrucciones constantes.
Todo cambió cuando Pete Hegseth, secretario de Defensa estadounidense, le exigió a Anthropic que desactivara esos límites de seguridad (guardrails) para que el Pentágono pudiera usar Claude sin restricciones. La solicitud incluía desarrollo de armas autónomas y vigilancia masiva. Anthropic respondió con un comunicado contundente: "Nos mantuvimos firmes en nuestras excepciones por dos razones. En primer lugar, no creemos que los modelos actuales de IA de vanguardia sean lo suficientemente fiables como para utilizarlos en armas totalmente autónomas. En segundo lugar, creemos que la vigilancia masiva de los ciudadanos constituye una violación de los derechos fundamentales". La negativa fue clara y sin matices.
La consecuencia fue brutal. El gobierno designó a Anthropic como riesgo para la cadena de suministro de seguridad nacional, una etiqueta que normalmente se reserva para adversarios extranjeros como Huawei. Esto les costó un contrato de 200 millones de dólares y les impidió hacer negocios con contratistas militares estratégicos como Palantir o Lockheed Martin. Mientras tanto, Sam Altman de OpenAI anunció en redes sociales que su empresa había llegado a un acuerdo con el Departamento de Guerra para desplegar sus modelos en redes clasificadas. Hegseth, por su parte, escribió en X que Anthropic había cometido "un acto de arrogancia y traición".
Pero aquí está lo irónico: el 28 de febrero, CNBC informó que Claude se convirtió en la aplicación más descargada en la App Store estadounidense, superando a ChatGPT. Los usuarios civiles parecían estar recompensando la postura ética que el gobierno estaba castigando. El éxito de Claude radicaba en esa "Constitución" que tanto molestaba al Pentágono: un documento que comenzó como una lista de reglas y evolucionó hasta 23 mil palabras (84 páginas) de reflexiones filosóficas sobre cómo debe comportarse responsablemente una IA.
Mientras Anthropic celebra su victoria en el mercado de consumidores, enfrenta otros problemas igualmente serios. La empresa denunció ataques de inteligencia artificial provenientes de laboratorios chinos como DeepSeek, Moonshot y MiniMax, que estarían usando una técnica llamada destilación para analizar cómo funciona Claude y mejorar sus propios sistemas. Este espionaje industrial le ha obligado a invertir recursos significativos en proteger sus algoritmos.
De cara al futuro, Anthropic está diversificando sus apuestas hacia el mercado corporativo global y la expansión de herramientas de programación autónoma. Claude Code ya representa una fracción importante de actividad en plataformas de desarrollo de software, indicando un camino claro hacia la automatización de procesos técnicos. La pregunta que nadie sabe responder aún es si mantener sus principios éticos le permitirá competir en el largo plazo, o si terminará siendo un lujo que solo pueden darse las empresas que ganan la batalla comercial primero.
Fuente original: Impacto TIC
