Startup de IA enfrenta al gobierno estadounidense en batalla legal histórica
La empresa tecnológica californiana Anthropic ha presentado una demanda de 48 páginas contra el gobierno del presidente Donald Trump, marcando un enfrentamiento sin precedentes entre el sector privado de inteligencia artificial y las autoridades federales de Estados Unidos.
Designación como "riesgo" para la seguridad nacional
El conflicto estalló cuando el Departamento de Defensa estadounidense designó la semana pasada a Anthropic como un "riesgo para la cadena de suministro de seguridad nacional", una categorización normalmente reservada para empresas de países considerados rivales, como el gigante tecnológico chino Huawei.
Esta designación ocurrió después de que Anthropic se negara rotundamente a autorizar el uso militar sin límites de sus modelos de inteligencia artificial Claude, específicamente para vigilancia masiva o fines bélicos. La medida obliga a todos los proveedores y contratistas de defensa a certificar que no utilizan tecnología de Anthropic en sus trabajos con el Pentágono.
Fundamentos éticos de la empresa
En documentos judiciales presentados ante un tribunal federal de San Francisco, Anthropic argumenta que su fundación en 2021 por los hermanos Dario y Daniela Amodei -ambos exempleados de OpenAI, creadora de ChatGPT- se basó en la convicción de que su IA debe "usarse de una manera que maximice los resultados positivos para la humanidad" y debe ser "la más segura y la más responsable".
"Anthropic presenta esta demanda porque el Gobierno federal ha tomado represalias por expresar ese principio", afirma la compañía en su escrito legal, señalando que las acciones gubernamentales violan derechos constitucionales al castigar a una empresa por su postura ética.
Consecuencias económicas y estratégicas
La demanda advierte que "las consecuencias de este caso son enormes", ya que el gobierno "pretende destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo". Anthropic se ha posicionado como una alternativa centrada en la seguridad dentro de la competitiva carrera de desarrollo de inteligencia artificial.
El diferendo se intensificó cuando el jefe del Pentágono, Pete Hegseth, reaccionó con enfado ante la insistencia de Anthropic de que su tecnología no debía utilizarse para vigilar ciudadanos o para sistemas de armas totalmente autónomos. Posteriormente, el presidente Trump ordenó a todas las agencias federales dejar de utilizar tecnología de Anthropic.
Contexto militar y tecnológico
La disputa entre el Pentágono y Anthropic estalló días antes de la ofensiva militar estadounidense contra Irán, en un momento particularmente sensible para las operaciones de defensa. Claude representa el modelo de IA de vanguardia más ampliamente desplegado por el Pentágono y el único de su tipo que opera actualmente en sistemas clasificados del Departamento de Defensa.
Hegseth no solo designó a Anthropic como riesgo para la cadena de suministro, sino que ordenó explícitamente que ningún contratista, proveedor o socio militar "puede realizar ninguna actividad comercial con Anthropic", aunque concedió un período de transición de seis meses para el propio Pentágono.
Implicaciones legales y constitucionales
Anthropic sostiene en su demanda que las medidas adoptadas en su contra "violan exceden la autoridad legal del Pentágono" y representan una violación de derechos constitucionales fundamentales. "La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso", señala el texto legal presentado ante el tribunal federal.
Esta demanda marca la primera vez que una empresa estadounidense es calificada como "riesgo" por el gobierno federal, estableciendo un precedente potencialmente transformador para la relación entre el sector tecnológico privado y las autoridades de seguridad nacional en la era de la inteligencia artificial avanzada.
