Inhaltsverzeichnis
Toggle
Die Begründung des Gerichts ist direkt: Die staatlichen Sicherheitsinteressen bei der Steuerung der KI-Lieferkette haben Vorrang vor den finanziellen Verlusten, die Anthropic erleidet. Dieser Vermerk wurde in der Vergangenheit typischerweise für Unternehmen feindlicher Staaten oder potenzielle Bedrohungsakteure genutzt; heute trifft er eine US-inländische KI-Einrohquelle, was seine symbolische Bedeutung nur allzu deutlich macht.
Der Vorfall nahm seinen Ursprung im Juli 2025. Anthropic und das Pentagon unterzeichneten einen Vertrag über 200 Millionen US-Dollar, der das hauseigene KI-Modell Claude in das Maven-Intelligentsystem integrieren sollte, um bei der Durchführung von Aufgaben in der Informationsanalyse und der Zielidentifizierung zu helfen.
Doch die Verhandlungen zwischen beiden Seiten scheiterten im September 2025. Anthropic bestand darauf, zwei ethische rote Linien einzurichten: Claude nicht für vollautomatische Waffensysteme zu verwenden und es nicht für die Überwachung im Inland einzusetzen. Diese beiden Positionen gerieten in einen grundlegenden Konflikt mit den Erwartungen der Trump-Regierung. Trump ordnete anschließend über soziale Medien an, dass Bundesbehörden die Produkte von Anthropic stoppen sollen, und setzte eine 6-monatige Übergangs- bzw. Auslaufphase fest.
Von Ende 2025 bis Anfang 2026 nahm das Verteidigungsministerium Anthropic offiziell in die Liste der Risiken in der Lieferkette auf. Dieser Vermerk schnitt die Teilnahme von Anthropic an Regierungs- und Verteidigungsverträgen direkt ab.
Derzeit existieren in diesem Rechtsstreit sich widersprechende Entscheidungen. Ein Bundesgericht in San Francisco hatte Ende März zuvor eine einstweilige Verfügung bewilligt, die es Anthropic erlaubte, weiter mit Nicht-Verteidigungs-Regierungsstellen zusammenzuarbeiten; doch die Entscheidung des Bundesberufungsgerichts für den District of Columbia vom 9. April stärkte die Sperrposition des Verteidigungsministeriums und lehnte jede Spielraumgewährung für eine einstweilige Aussetzung ab.
Das bedeutet, dass Anthropic sich derzeit in einer heiklen rechtlichen Zwischenlage befindet: Es kann zwar mit einigen Regierungsstellen zusammenarbeiten, wird aber außerhalb von Verteidigungsverträgen ausgeschlossen. Anthropic erklärte, dass dieser Fall eine politische Vergeltung darstelle und gegen die Verfassungsgarantien verstoße, und werde weiterhin Berufung einlegen. Ein beschleunigtes Gerichtsverfahren wird zur nächsten entscheidenden Phase.
Laut einem Bericht aus dem Electronic Engineering Times gilt jedoch: Obwohl Anthropic im Geschäft massiv getroffen wurde und nicht mehr an groß angelegten Verteidigungsverträgen teilnehmen kann, findet sein Festhalten an ethischen Positionen in der Regel-User-Marktlandschaft vielmehr eine positive Resonanz. Das zieht mehr Unternehmen und einzelne Nutzer an, die sich um die Sicherheit von KI sorgen.
Die Auswirkungen dieses Urteils gehen jedoch über nur ein einziges Unternehmen hinaus. Es legt einen tieferen strukturellen Widerspruch offen: Wenn die ethischen Rahmenwerke von KI-Entwicklern mit der Definition der nationalen Sicherheit durch die Regierung kollidieren, wohin kippt die Waage des geltenden Rechtssystems derzeit — gibt es bereits erste Antworten. Das endgültige Urteil in diesem Fall wird für die gesamte Tech-Industrie, wie sie mit der Regierung über die Grenzen der Nutzung von KI verhandelt, eine weitreichende Referenzbedeutung haben.