Anthropic, US-Regierung

Anthropic verklagt US-Regierung nach Sicherheits-Einstufung

06.03.2026 - 22:23:10 | boerse-global.de

Das US-Verteidigungsministerium stuft Anthropic als Sicherheitsrisiko ein, nachdem das Unternehmen ethische Klauseln zu autonomen Waffen und MassenĂŒberwachung in VertrĂ€gen beibehielt. Die Klage markiert einen historischen Konflikt zwischen Tech-Ethik und militĂ€rischen Interessen.

Anthropic verklagt US-Regierung nach Sicherheits-Einstufung - Foto: ĂŒber boerse-global.de
Anthropic verklagt US-Regierung nach Sicherheits-Einstufung - Foto: ĂŒber boerse-global.de

Ein KI-Entwickler zieht gegen das Pentagon vor Gericht – wegen ethischer Grenzen bei Überwachung und autonomen Waffen. Die US-Regierung stufte das Unternehmen als Sicherheitsrisiko ein, nachdem es sich weigerte, Vertragsklauseln zu streichen, die MassenĂŒberwachung und tödliche autonome Waffensysteme verbieten. Dieser beispiellose Schritt gegen ein inlĂ€ndisches Unternehmen markiert einen gefĂ€hrlichen Bruch zwischen Silicon Valley und dem MilitĂ€r.

Unerhörte Einstufung als Sicherheitsrisiko

Das US-Verteidigungsministerium hat am Mittwoch, dem 4. MĂ€rz 2026, formell entschieden: Der KI-Entwickler Anthropic gilt fortan als Sicherheitsrisiko in der Lieferkette. Diese Einstufung war bisher auslĂ€ndischen Gegnern vorbehalten. FĂŒr ein US-Unternehmen ist sie ein Novum. Die BegrĂŒndung: Anthropic weigert sich beharrlich, zwei Vertragsklauseln zu entfernen.

Anzeige

WĂ€hrend internationale Konflikte die technologischen Anforderungen verschĂ€rfen, gelten seit August 2024 auch in der EU neue Regeln fĂŒr den Einsatz kĂŒnstlicher Intelligenz. Dieser kostenlose Leitfaden zeigt Ihnen, wie Sie KI-Systeme richtig klassifizieren und rechtssicher dokumentieren. Was Unternehmen ĂŒber die neue KI-Verordnung wissen mĂŒssen

Die Klauseln verbieten ausdrĂŒcklich den Einsatz seiner KI-Modelle fĂŒr MassenĂŒberwachung der US-Bevölkerung und fĂŒr vollautonome Waffensysteme ohne menschliche Kontrolle. „Wir haben keine andere Wahl, als vor Gericht zu ziehen“, erklĂ€rte CEO Dario Amodei am Donnerstag. Die Entscheidung der Regierung sei rechtlich nicht haltbar.

Die Eskalation folgt auf eine Direktive von PrĂ€sident Donald Trump vom 27. Februar. Er ordnete an, dass alle Bundesbehörden die Technologie von Anthropic nicht mehr nutzen dĂŒrfen. Auf sozialen Medien kritisierte er das Unternehmen scharf dafĂŒr, dem MilitĂ€r Bedingungen diktieren zu wollen.

Bundesbehörden kappen KI-VertrÀge

Die Anordnung des PrĂ€sidenten hat bereits konkrete Folgen. Bundesbehörden mĂŒssen ihre VertrĂ€ge mit Anthropic innerhalb von sechs Monaten kĂŒndigen. Die General Services Administration hat die Produkte des Unternehmens bereits von zentralen Beschaffungsplattformen entfernt.

Damit sind die wichtigsten Bezugsquellen fĂŒr Behörden blockiert. Auch das Finanzministerium, das Außenministerium und das Gesundheitsministerium bestĂ€tigten, ihre Integrationen der Claude-KI-Modelle zurĂŒckzubauen. Alternative KI-Plattformen von Wettbewerbern bleiben hingegen erlaubt.

Der schnelle Abbau der VertrĂ€ge gefĂ€hrdet Teile eines 200-Millionen-Euro-Auftrags, den das Pentagon Anthropic erst im Juli 2025 zugesprochen hatte. Die Logistik hinter der Abwicklung stellt viele Behörden vor erhebliche Herausforderungen, da sie die Technologie zuvor schnell eingefĂŒhrt hatten.

Der Kernkonflikt: Ethische Leitplanken vs. militÀrische Freiheit

Im Zentrum des Streits steht die Frage: DĂŒrfen private Unternehmen dem MilitĂ€r Einsatzgrenzen vorschreiben? Das Pentagon forderte von Anthropic eine All-Lawful-Use-Klausel. Sie hĂ€tte dem MilitĂ€r erlaubt, die KI ohne jegliche EinschrĂ€nkungen des Herstellers einzusetzen.

Anthropic lehnte dies ab und beharrte auf seinen ethischen Leitplanken. Das Verteidigungsministerium argumentiert hingegen, dass ein einmal beschafftes System fĂŒr jeden rechtmĂ€ĂŸigen Zweck genutzt werden können mĂŒsse. Private Anbieter dĂŒrften nicht missionweise ĂŒber den Einsatz entscheiden.

Der Wettbewerber OpenAI sprang in die Bresche. Das Unternehmen schloss einen Ersatzvertrag mit dem MilitĂ€r ab. Laut OpenAI enthĂ€lt dieser weiterhin explizite Verbote fĂŒr autonome Waffen und MassenĂŒberwachung – erfĂŒllt aber gleichzeitig die operativen Anforderungen des Pentagons.

Dominoeffekt fĂŒr die RĂŒstungsindustrie

Die Einstufung als Sicherheitsrisiko hat weitreichende Folgen. Jeder Zulieferer oder Partner des US-MilitĂ€rs ist nun strikt davon abgeschnitten, GeschĂ€fte mit Anthropic zu machen. Tausende RĂŒstungsunternehmen mĂŒssen prĂŒfen, ob sie in ihrer Software auf Anthropics KI-Modelle zurĂŒckgreifen, und dies zertifizieren.

Experten warnen vor massiven Störungen in der gesamten Technologiebranche. Die Modelle von Anthropic laufen auf großen Cloud-Plattformen wie Amazon Web Services und sind in militĂ€rische AufklĂ€rungssysteme integriert. Streng durchgesetzt, zwingt das Verbot Partner, sich entweder von Anthropic zu trennen – oder ihre lukrativen MilitĂ€rauftrĂ€ge zu riskieren.

Anzeige

Der Fall verdeutlicht die wachsende Bedeutung von Compliance und IT-Sicherheit in einer vernetzten Welt. Erfahren Sie in unserem Experten-Report, welche neuen Gesetze und Cyber-Security-Trends GeschĂ€ftsfĂŒhrer jetzt kennen mĂŒssen, um ihr Unternehmen proaktiv zu schĂŒtzen. Kostenlosen Cyber-Security-Report jetzt herunterladen

Analysten sehen darin eine abschreckende Botschaft an die Privatwirtschaft: Die Regierung ist bereit, Vergaberegeln als Waffe gegen einheimische Unternehmen einzusetzen, die sich ihren technologischen Forderungen widersetzen.

Ein gefÀhrlicher PrÀzedenzfall ohne gesetzliche Grundlage

Die Konfrontation markiert eine Zeitenwende an der Schnittstelle von nationaler Sicherheit, Unternehmensethik und KI-Entwicklung. BĂŒrgerrechtsorganisationen und Rechtsgelehrte beobachten den Fall genau. Einige argumentieren, die Regierung verletze mit ihrem Vorgehen den Ersten Verfassungszusatz, indem sie ein Unternehmen zur Entwicklung von Software zwinge, die es ablehnt.

Die beispiellose Einstufung eines inlĂ€ndischen Unternehmens als Sicherheitsrisiko könnte einen gefĂ€hrlichen PrĂ€zedenzfall fĂŒr kĂŒnftige Public-Private-Partnerships schaffen. Vor allem aber offenbart der Streit ein gravierendes Problem: Es gibt keinen umfassenden gesetzlichen Rahmen fĂŒr den militĂ€rischen KI-Einsatz.

Ohne klare Richtlinien des Kongresses werden die Grenzen von PrivatsphĂ€re und autonomer KriegsfĂŒhrung derzeit hinter verschlossenen TĂŒren ausgehandelt – zwischen Verteidigungsbeamten und Tech-Managern. Die anstehende Klage von Anthropic wird die rechtlichen Grenzen der staatlichen Befugnisse testen und könnte in einen langwierigen Rechtsstreit mĂŒnden.

Trotz der öffentlichen Konfrontation laufen Berichten zufolge bereits wieder HintergrundgesprÀche zwischen Anthropic und dem Verteidigungsministerium. Ob sie eine Lösung bringen, ist ungewiss. Das Ergebnis dieses Machtkampfes wird jedoch die Zukunft der KI-Beschaffung, den Einsatz von Spitzenmodellen in der US-Regierung und den Einfluss von Tech-Unternehmen auf militÀrische Anwendungen nachhaltig prÀgen.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
boerse | 68642635 |