Trump prohíbe uso de IA de Anthropic en agencias federales tras disputa ética con el Pentágono
Trump prohíbe IA de Anthropic en EE.UU. tras pelea con Pentágono

Trump ordena prohibición de IA de Anthropic en agencias federales de EE.UU.

El presidente Donald Trump ha emitido una orden ejecutiva que exige a todas las agencias federales de los Estados Unidos detener inmediatamente el uso de la tecnología de Inteligencia Artificial desarrollada por Anthropic. Esta decisión pone fin a una intensa disputa entre la firma tecnológica y el Pentágono, pero al mismo tiempo desata una guerra más amplia sobre los límites éticos en el empleo de herramientas de IA con fines militares y de seguridad nacional.

Un ultimátum que marca un hito sin precedentes

La medida, anunciada este viernes después de que expirara el plazo impuesto por el secretario de Defensa, Pete Hegseth, para que Anthropic aceptara los términos del Departamento de Defensa, representa un momento histórico. En esencia, el Gobierno estadounidense está declarando que prefiere renunciar a una de las herramientas de IA más avanzadas del mundo antes que ceder a las restricciones éticas que la compañía exige para su uso en operaciones militares.

"Los izquierdistas desquiciados de Anthropic han cometido un ERROR DESASTROSO al intentar presionar al Departamento de Guerra", publicó Trump en sus redes sociales. El mandatario advirtió que la empresa enfrentará "importantes consecuencias civiles y penales" si no coopera con la transición, estableciendo un período de eliminación gradual de seis meses para que agencias clave como el Departamento de Estado y el Pentágono desconecten el asistente Claude de sus sistemas.

La raíz del conflicto: ética versus soberanía tecnológica

El gobierno de Trump exige acceso total al modelo de Anthropic para "cualquier uso legal", lo que incluye vigilancia masiva y sistemas de armas autónomas para misiones potencialmente letales sin control humano directo, según informes de la DW. Por su parte, Anthropic se niega a permitir que sus herramientas sean utilizadas sin supervisión humana, temiendo que se empleen de manera poco ética en violación de sus principios fundacionales.

La disputa escaló significativamente tras la captura de Nicolás Maduro en enero. Reportes de The Wall Street Journal indican que el uso de Claude en esta operación militar llevó a Anthropic a cuestionar a su socio, Palantir, sobre posibles violaciones a sus políticas de seguridad. Esta intervención privada en asuntos de Estado enfureció a Hegseth, quien argumenta que las herramientas militares "no pueden tener límites" impuestos por corporaciones.

Anthropic, fundada bajo el principio de "seguridad constitucional" y la creencia de que la IA "no debe ser un peligro" para la humanidad, se mantiene firme en su postura. La compañía rechaza que su tecnología actúe como juez final en operaciones letales o en el espionaje de ciudadanos sin supervisión humana, transformando el conflicto de un simple desacuerdo contractual en una lucha profunda por la ética y la soberanía tecnológica.

Un punto de no retorno y sus consecuencias

El conflicto alcanzó su clímax cuando Dario Amodei, CEO de Anthropic, se negó a eliminar las salvaguardas que impiden que Claude sea utilizado en operaciones de vigilancia masiva o sistemas de armas totalmente autónomos. "Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su petición", declaró Amodei, reafirmando el compromiso de la empresa con la ética en la IA.

Esta firmeza provocó una reacción visceral en el Pentágono. Emil Michael, subsecretario de Defensa, calificó a Amodei de "mentiroso" con "complejo de Dios", acusándolo de poner en riesgo la seguridad nacional al intentar imponer los términos de servicio de una empresa por encima de las necesidades militares del país.

Impacto financiero y el futuro de la IA en seguridad nacional

La decisión de Trump representa un terremoto financiero para Silicon Valley. La expulsión de Anthropic anula contratos por aproximadamente 200 millones de dólares con el ejército estadounidense y pone en duda la valoración de 380.000 millones de dólares de la compañía, justo cuando se preparaba para su salida a bolsa.

Con la salida de Anthropic, se crea un vacío crítico en la seguridad nacional de EE.UU., ya que Claude era la única IA autorizada para operar en la nube clasificada del Pentágono. Sin embargo, el Gobierno ya tiene una lista de posibles sustitutos. XAI, de Elon Musk, ya obtuvo la aprobación para realizar trabajos clasificados sin las restricciones que bloquean a Anthropic.

Por otro lado, OpenAI, liderada por Sam Altman, ha adoptado una postura de defensa hacia Anthropic, a pesar de ser su rival directo. Mientras tanto, gigantes tecnológicos como Google y Microsoft enfrentan una presión interna masiva de sus empleados, quienes se han unido al bando de Anthropic exigiendo que se rechace el uso sin restricciones de la IA en contextos bélicos.

¿Quién controla la tecnología del futuro?

Para el Pentágono, Estados Unidos debe ser una fuerza "AI-first" (con IA estadounidense priorizando los intereses del gobierno) y solo contratará modelos que estén "libres de restricciones políticas de uso que limiten las aplicaciones militares legales". Analistas de The New York Times han advertido que el riesgo bajo esta lógica es la automatización de la vigilancia y la persecución de "focos de deslealtad" mediante sistemas que carecerán de supervisión humana, planteando serias preocupaciones sobre derechos civiles y ética global.