Konfrontation im Pentagon gefährdet anthropische KI-Sicherheitsvorkehrungen und $200 -Millionen-Verteidigungsvertrag

Spannungen zwischen einem führenden KI-Labor und dem US-Verteidigungsministerium haben sich zu einem hochkarätigen Konflikt über anthropische KI und den Einsatz im Schlachtfeld ausgeweitet.

Anthropic hält stand gegen Druck des Pentagon

Anthropic hat die Forderungen des US-Verteidigungsministeriums abgelehnt, wichtige Sicherheitsgrenzen für KI aus seinen Systemen zu entfernen, obwohl sein Vertrag über 200 Millionen US-Dollar nun auf dem Spiel steht. Das Unternehmen hat klargestellt, dass es in seinem Streit mit dem DoD nicht nachgeben wird, was die Einsatzmöglichkeiten seiner fortschrittlichen Modelle in militärischen Netzwerken betrifft.

Die Rivalen des Startups, OpenAI, Google und xAI, sicherten sich 2023 ähnliche Aufträge vom DoD in Höhe von bis zu 200 Millionen US-Dollar. Diese Unternehmen stimmten jedoch zu, dem Pentagon die Nutzung ihrer Systeme für alle rechtmäßigen Missionen innerhalb der unklassifizierten militärischen Umgebungen zu erlauben, was der Regierung größere operative Flexibilität verschafft.

Im Gegensatz dazu unterzeichnete Anthropic im Juli einen eigenen Vertrag über 200 Millionen US-Dollar mit dem DoD und wurde das erste KI-Labor, das seine Modelle direkt in Missionsabläufe auf klassifizierten Netzwerken integrierte. Zudem wurden seine Tools in sensible Verteidigungsoperationen eingebunden, was das Unternehmen in den Mittelpunkt des US-amerikanischen Sicherheits-KI-Ausbaus stellte.

Die Verhandlungen mit Pentagon-Vertretern sind in den letzten Wochen zunehmend angespannt. Eine mit den Gesprächen vertraute Person sagte, die Spannungen „gehen mehrere Monate zurück“, noch bevor öffentlich wurde, dass Claude in einer US-Operation im Zusammenhang mit der Beschlagnahmung des venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde.

Streit um Überwachung und autonome Waffen

Im Kern des Konflikts steht die Frage, wie weit militärische Behörden mächtige KI-Modelle in Richtung Überwachung und Autonomie treiben können. Anthropic sucht verbindliche Zusicherungen, dass seine Technologie nicht für vollautonome Waffen oder für massenhafte inländische Überwachung Amerikaner verwendet wird, während das DoD solche Grenzen vermeiden möchte.

Dies ist jedoch kein rein kommerzieller Streit, sondern ein hochkarätiger Konflikt um KI-Sicherheitsvorkehrungen mit direkten Auswirkungen auf die zukünftige Automatisierung im Schlachtfeld. Das Pentagon besteht auf maximaler rechtlicher Freiheit, während Anthropic argumentiert, dass die aktuellen Systeme noch nicht vertrauenswürdig genug sind, um lebenswichtige Entscheidungen in großem Maßstab zu treffen.

In einer ausführlichen Erklärung warnte CEO Dario Amodei, dass KI in einem „engen Anwendungsbereich“ „demokratische Werte untergraben, anstatt sie zu verteidigen“ vermag. Er betonte, dass einige Anwendungen „einfach außerhalb der Grenzen dessen liegen, was die heutige Technologie sicher und zuverlässig leisten kann“, und hob die Risiken des Missbrauchs bei komplexen Militäroperationen hervor.

Zur Erweiterung der Überwachungssorgen argumentierte Amodei, dass mächtige Systeme es jetzt ermöglichen, „diese verstreuten, einzeln harmlosen Daten automatisch und in großem Maßstab zu einer umfassenden Darstellung des Lebens einer Person zusammenzufügen.“ Zudem warnte er, dass eine solche Fähigkeit, wenn sie nach innen gerichtet ist, die Beziehung zwischen Bürgern und Staat grundlegend verändern könnte.

Amodei bekräftigte, dass Anthropic den Einsatz von KI für rechtmäßige ausländische Geheimdienstsammlungen unterstützt. Er fügte jedoch hinzu, dass „der Einsatz dieser Systeme für massenhafte inländische Überwachung unvereinbar mit demokratischen Werten ist“, und zog eine klare ethische Grenze zwischen ausländischer Geheimdienstarbeit und interner Überwachung US-amerikanischer Personen.

Bedrohungen, Fristen und rechtlicher Druck

Der Machtkampf verschärfte sich während eines Treffens am Dienstag im Pentagon zwischen Amodei und Verteidigungsminister Pete Hegseth. Hegseth drohte, Anthropic als „Lieferkettenrisiko“ zu brandmarken oder den Defense Production Act zu aktivieren, um die Einhaltung zu erzwingen. Am Mittwochabend legte das DoD sein „letztes und endgültiges Angebot“ vor, das dem Unternehmen bis Freitag um 17:01 Uhr ET Zeit gab, zu antworten.

Eine Sprecherin von Anthropic bestätigte den Erhalt der überarbeiteten Vertragsklauseln am Mittwoch, sagte jedoch, dass dies „praktisch keinen Fortschritt“ darstelle. Laut ihr war die neue Formulierung, die als Kompromiss gedacht war, mit rechtlicher Sprache versehen, die es im Wesentlichen erlauben würde, wichtige Sicherheitsvorkehrungen „nach Belieben zu ignorieren“, was die erklärten Schutzmaßnahmen untergräbt.

Zur Bewältigung des zunehmenden Drucks sagte Amodei: „Das Department of War hat erklärt, dass sie nur mit KI-Unternehmen Verträge abschließen werden, die ‚jegliche rechtmäßige Nutzung‘ akzeptieren und Sicherheitsvorkehrungen in den oben genannten Fällen entfernen.“ Er fügte hinzu, dass Beamte gedroht hätten, Anthropic aus ihren Systemen zu entfernen und das Unternehmen als „Lieferkettenrisiko“ zu kennzeichnen, falls es sich weigert; dennoch bestand er darauf: „Wir können in gutem Gewissen ihrer Forderung nicht nachkommen.“

Für das Pentagon ist die Sache anders formuliert. Sprecher Sean Parnell sagte am Donnerstag, das DoD habe „kein Interesse“ daran, Anthropic-Systeme für vollautonome Waffen oder zur massenhaften Überwachung Amerikaner zu verwenden, da solche Praktiken illegal wären. Stattdessen wolle das Department lediglich, dass das Unternehmen die Nutzung seiner Technologie für „alle rechtmäßigen Zwecke“ gestatte, was er als eine „einfache, gesunden Menschenverstand erfüllende Bitte“ beschreibt.

Persönliche Angriffe und öffentliche Unterstützung

Der Konflikt ist auch auf höherer Ebene persönlich geworden. Am Donnerstagabend attackierte US-Verteidigungsstaatssekretär Emil Michael Amodei auf X und behauptete, der Geschäftsführer „will nichts anderes, als die US-Militärführung persönlich zu kontrollieren.“ Michael ging noch weiter und schrieb: „Es ist eine Schande, dass Dario Amodei ein Lügner ist und einen Gott-Komplex hat.“

Allerdings hat Anthropic bedeutende Unterstützung aus Teilen der Tech-Branche erhalten. In einem offenen Brief unterstützten mehr als 200 Mitarbeiter von Google und OpenAI öffentlich die Position des Unternehmens. Zudem sagte ein ehemaliger DoD-Beamter der BBC, die Begründung von Hegseth für die Verwendung des Begriffs „Lieferkettenrisiko“ erscheine „äußerst schwach“, was Zweifel an der Robustheit des Pentagon-Falls aufkommen lässt.

Der Konflikt ist auch zu einem Symbol in der breiteren Debatte über KI-Ethik und Militärpolitik geworden. KI-Forscher und Bürgerrechtsaktivisten beobachten die Entwicklung genau und sehen den Fall als einen frühen Test, wie weit Verteidigungsbehörden private Labore dazu drängen können, eingebaute Beschränkungen bei fortschrittlichen Systemen zu lockern.

Strategische Bedeutung für US-Verteidigungs-KI

Trotz der eskalierenden Rhetorik betonte Amodei, dass er „tief in der existenziellen Bedeutung der Nutzung von KI zur Verteidigung der Vereinigten Staaten“ stehe. Er stellte die Frage nach verantwortungsvoller Einsatzweise in den Vordergrund und argumentierte, dass die langfristige Glaubwürdigkeit der US-KI-Fähigkeiten davon abhänge, demokratische Normen aufrechtzuerhalten.

Ein Vertreter von Anthropic sagte, die Organisation sei „bereit, die Gespräche fortzusetzen und sich für die operative Kontinuität des Departments und der US-Kämpfer einzusetzen.“ Doch mit der tickenden Uhr des Pentagon-Deadlines und den Drohungen, eine Lieferketten-Klassifizierung zu verhängen, stehen beide Seiten unter Druck, die Pattsituation zu lösen, ohne kritische Innovationen zu gefährden.

Letztlich ist der Konflikt zwischen Anthropic und Pentagon über Sicherheitsvorkehrungen, Überwachung und Autonomie zu einem prägenden frühen Fall in der Militär-KI-Governance geworden. Sein Ausgang wird wahrscheinlich maßgeblich beeinflussen, wie zukünftige anthropische KI-Modelle und konkurrierende Systeme in den US-Verteidigungsoperationen vertraglich geregelt, eingeschränkt und eingesetzt werden.

XAI1,66%
Original anzeigen
Diese Seite kann Inhalte Dritter enthalten, die ausschließlich zu Informationszwecken bereitgestellt werden (keine Zusicherungen oder Garantien), und sie sind nicht als Billigung der darin geäußerten Ansichten durch Gate oder als finanzielle bzw. fachliche Beratung zu verstehen. Weitere Informationen finden Sie im Haftungsausschluss.
  • Angebot
  • Kommentieren
  • Reposten
  • Teilen
Kommentieren
0/400
Keine Kommentare
  • Anheften

Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
Deutsch
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)