Der Beitrag Richter blockiert Pentagon daran, Anthropic als nationale Sicherheitsbedrohung zu brandmarken erschien auf BitcoinEthereumNews.com. Kurz gesagt Ein Bundesrichter hat dasDer Beitrag Richter blockiert Pentagon daran, Anthropic als nationale Sicherheitsbedrohung zu brandmarken erschien auf BitcoinEthereumNews.com. Kurz gesagt Ein Bundesrichter hat das

Richter blockiert Pentagon daran, Anthropic als nationale Sicherheitsbedrohung einzustufen

2026/03/27 12:23
4 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter [email protected]

Kurz zusammengefasst

  • Ein Bundesrichter hat das Pentagon daran gehindert, Anthropic als Lieferkettenrisiko einzustufen, da dieser Schritt wahrscheinlich die Rechte des Unternehmens auf freie Meinungsäußerung (First Amendment) und ordnungsgemäße Verfahren verletzt hat.
  • Der Streit entstand aus einem KI-Vertrag des Verteidigungsministeriums über 200 Millionen Dollar, der scheiterte, nachdem Anthropic sich weigerte, die Nutzung seines Modells für Massenüberwachung oder tödliche autonome Kriegsführung zu erlauben.
  • Die Entscheidung stellt vorübergehend Anthropics Status bei Bundesauftragnehmern wieder her und könnte beeinflussen, wie KI-Unternehmen Nutzungsbeschränkungen bei Regierungsverträgen festlegen.

Ein Bundesrichter hat das Pentagon am Donnerstag daran gehindert, Anthropic als Lieferkettenrisiko einzustufen, und entschieden, dass die Kampagne der Regierung gegen das KI-Unternehmen dessen Rechte auf freie Meinungsäußerung und ordnungsgemäße Verfahren verletzt hat.

Die US-Bezirksrichterin Rita Lin erließ eine einstweilige Verfügung vom Northern District of California zwei Tage nach Anhörung der mündlichen Argumente beider Seiten, in einem Fall, der laut Beobachtern durch die eigenen Unterlagen der Regierung unvermeidlich wurde.

„Nichts im geltenden Gesetz unterstützt die Orwellsche Vorstellung, dass ein amerikanisches Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden darf, weil es Meinungsverschiedenheiten mit der Regierung zum Ausdruck bringt", schrieb Richterin Lin.

Die interne Dokumentation war fatal für den Fall der Regierung, so Andrew Rossow, Anwalt für öffentliche Angelegenheiten und CEO von AR Media Consulting, der Decrypt mitteilte, dass die Einstufung „durch Presseverhalten ausgelöst wurde, nicht durch eine Sicherheitsanalyse."

„Die Regierung hat im Wesentlichen ihr eigenes Motiv niedergeschrieben, und es war Vergeltung", sagte Rossow.

Der Streit dreht sich um einen zweijährigen Vertrag über 200 Millionen Dollar, der Anthropic im Juli 2025 vom Chief Digital and Artificial Intelligence Office des Verteidigungsministeriums vergeben wurde. 

Die Verhandlungen über den Einsatz von Claude auf der GenAI.Mil-Plattform des Ministeriums scheiterten, nachdem sich beide Seiten nicht über Nutzungsbeschränkungen einigen konnten.

Anthropic bestand auf zwei Bedingungen: dass Claude nicht für Massenüberwachung von Amerikanern oder für tödliche Anwendungen in autonomer Kriegsführung eingesetzt wird, mit der Begründung, dass das Modell für keinen dieser Zwecke noch sicher sei.

Bei einem Treffen am 24. Februar teilte Kriegsminister Pete Hegseth den Vertretern von Anthropic mit, dass das Ministerium das Unternehmen sofort als Lieferkettenrisiko einstufen würde, wenn es seine Beschränkungen nicht bis zum 27. Februar aufhebe.

Anthropic weigerte sich nachzukommen.

Am selben Tag veröffentlichte Präsident Trump eine Anweisung auf Truth Social, die jede Bundesbehörde anwies, die Nutzung der Technologie des Unternehmens „sofort einzustellen", und nannte Anthropic ein „radikal linkes, wokes Unternehmen".

Etwas über eine Stunde später beschrieb Hegseth die Haltung von Anthropic als „Meisterklasse in Arroganz und Verrat" und ordnete an, dass kein Auftragnehmer, der Geschäfte mit dem Militär macht, kommerzielle Aktivitäten mit dem Unternehmen durchführen darf. Die formelle Einstufung als Lieferkettenrisiko erfolgte durch einen Brief am 3. März.

Anthropic verklagte die Regierung am 9. März unter Berufung auf Verletzungen des First Amendment, ordnungsgemäßer Verfahren und des Verwaltungsverfahrensgesetzes.

„Anthropic dafür zu bestrafen, dass es die öffentliche Prüfung der Vertragsposition der Regierung herbeigeführt hat, ist klassische illegale Vergeltung im Sinne des First Amendment", schrieb Richterin Lin in der Anordnung vom Donnerstag.

Die Anordnung, die für sieben Tage ausgesetzt wurde, blockiert alle drei Regierungsmaßnahmen, erfordert einen Compliance-Bericht bis zum 6. April und stellt den Status quo vor den Ereignissen vom 27. Februar wieder her.

Instrumentalisierung des Gesetzes

Die Einstufung als „Lieferkettenrisiko" war historisch ausländischen Geheimdiensten, Terroristen und anderen feindlichen Akteuren vorbehalten. 

Sie war vor Anthropic nie auf ein inländisches Unternehmen angewendet worden. Verteidigungsauftragnehmer begannen in den folgenden Wochen, ihre Abhängigkeit von Anthropic zu bewerten und in vielen Fällen zu beenden, wie die Anordnung von Richterin Lin feststellte.

Und die Haltung der Regierung könnte unvorhergesehene Konsequenzen haben, argumentieren Experten.

Tatsächlich könnte die Entscheidung vom Donnerstag KI-Unternehmen dazu bringen, „ethische Leitplanken bei der Zusammenarbeit mit Regierungen zu formalisieren", sagte Pichapen Prateepavanich, Politikstrategin und Gründerin des Infrastrukturunternehmens Gather Beyond, gegenüber Decrypt.

Bis zu einem gewissen Grad deutet die Entscheidung auch darauf hin, dass Unternehmen „klare Nutzungsgrenzen festlegen können, ohne automatisch strafende Regulierungsmaßnahmen auszulösen", sagte sie.

Aber dies „beseitigt nicht die Spannung", fügte sie hinzu. Was die Entscheidung begrenzt, ist „die Fähigkeit, diese Meinungsverschiedenheit in einen breiteren Ausschluss oder eine Kennzeichnung zu eskalieren, die vergeltend aussieht."

Dennoch ist die Anwendung der aktuellen gesetzlichen Befugnis zur Einstufung eines Unternehmens als Lieferkettenrisiko „weil es sich weigerte, Sicherheitsleitplanken zu entfernen" keine Erweiterung des Lieferkettenrisiko-Statuts,  erklärte Rossow. Stattdessen funktioniert es als „Instrumentalisierung" des Gesetzes.

„Dies ist Teil eines anhaltenden Verhaltensmusters des Weißen Hauses, wann immer es herausgefordert wird, das zu unverhältnismäßigen, emotional getriebenen und voreingenommenen Drohungen und staatlicher Erpressung führt", fügte er hinzu.

Wenn die „Theorie" der Regierung akzeptiert wird, würde sie einen „gefährlichen" Präzedenzfall schaffen, in dem KI-Unternehmen für Sicherheitsrichtlinien, die der Regierung missfallen, auf eine schwarze Liste gesetzt werden können, „bevor ein Schaden eintritt", ohne ordnungsgemäßes Verfahren, unter dem Banner der nationalen Sicherheit, sagte Rossow.

Daily Debrief Newsletter

Beginnen Sie jeden Tag mit den aktuellen Nachrichten, plus Originalfeatures, einem Podcast, Videos und mehr.

Quelle: https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat

Marktchance
Notcoin Logo
Notcoin Kurs(NOT)
$0.0003584
$0.0003584$0.0003584
-0.58%
USD
Notcoin (NOT) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an [email protected] um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.