Qué ha pasado entre Anthropic y el Gobierno de EEUU: el fallo que tumba la prohibición de Trump
La jueza encargada del caso afirma que la orden de la Casa Blanca es "probablemente contraria a la ley".

-Actualizado a
Anthropic, la empresa estadounidense de inteligencia artificial, ha ganado el primer round contra Trump en los tribunales. A principios de marzo, la compañía tecnológica presentó una demanda para impedir que el Pentágono la incluyese en una lista negra de seguridad nacional.
Ahora, una jueza federal en California ha fallado a su favor, paralizando temporalmente la orden dada por la Casa Blanca el mes pasado mientras se desarrolla la querella legal.
La tecnológica alega que la orden de la Casa Blanca para que las agencias gubernamentales dejaran de utilizar su tecnología viola la Primera Enmienda de la Constitución de EEUU, que prohíbe al Congreso limitar la libertad de expresión, prensa, religión, reunión pacífica y petición al gobierno.
Qué es Anthropic y por qué es clave en la industria de la IA
Anthropic es una entidad estadounidense que se dedica a la investigación y seguridad en inteligencia artificial fundada en 2021 por exmiembros de OpenAI, la empresa creadora de ChatGPT.
Su producto principal es Claude, una IA diseñada para redactar, investigar, programar y analizar documentos extensos que destaca por su enfoque en seguridad.
En qué consistía la prohibición del Gobierno de EEUU
El pulso entre Anthropic y el Ejecutivo de Trump se ha centrado en las condiciones que la firma de IA ponía para limitar el uso de Claude. El Gobierno de Estados Unidos calificó Anthropic como riesgo nacional después de que la compañía se negara a eliminar las barreras contra el uso de su IA para armas autónomas o para vigilancia doméstica masiva en EEUU.
Es la primera vez que una empresa estadounidense se clasifica como riesgo nacional. Esto significa que ninguna agencia federal podría seguir utilizando su IA y podría tener consecuencias catastróficas para Anthropic ya que la mayor parte de sus ingresos previstos para 2026, que ascienden a 14.000 millones de dólares, provienen de empresas y agencias gubernamentales.
También supondría una remodelación para muchas agencias estadounidenses. Por eso Trump concedió al Pentágono seis meses para retirar gradualmente este producto, que está integrado en sistemas militares clasificados, incluidos los usados en la guerra de Irán.
Qué ha dicho la justicia para anular la prohibición
La jueza Lin suspendió la ejecución de la orden de Trump por un plazo de una semana, tras determinar que el Ejecutivo excedió su autoridad y la declaración de Anthropic como un "riesgo para la cadena de suministro" es "probablemente contraria a la ley, además de arbitraria y caprichosa".
Sin embargo, en su fallo de 43 páginas también afirmó que la medida cautelar emitida “no exige” al Ejecutivo estadounidense a continuar usando a Claude en sus sistemas de seguridad nacional.
Qué puede pasar ahora: próximos pasos del Gobierno
Tras el fallo de la jueza Lin, queda esperar a ver si el Gobierno estadounidense decide apelar la decisión. Aunque así lo hiciera, de momento la clasificación de Anthropic como riesgo nacional queda paralizada por orden judicial.
Por qué este caso marca un precedente en la industria de la IA
Anthropic sería la primera empresa estadounidense en entrar en la lista negra, una decisión que la entidad ha calificado como "sin precedentes e ilegal" y que la jueza Lin aseguró que probablemente fuera “arbitraria”.
En caso de permitir que el Gobierno de Trump incluyese la compañía en esta lista de peligros nacionales, se abriría la puerta a un posible exceso de poder que el presidente podría utilizar para presionar a otras entidades para que hagan lo que el Ejecutivo solicite.

Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.