Pentagon zwingt KI-Firma Anthropic in Ultimatum
25.02.2026 - 22:39:32 | boerse-global.deDie US-Regierung fordert die Aufhebung von SicherheitsbeschrĂ€nkungen fĂŒr MilitĂ€reinsĂ€tze bis Ende dieser Woche â andernfalls drohen Vertragsstornierung und Ausschluss von StaatsauftrĂ€gen.
Ein fundamentaler Konflikt zwischen militĂ€rischen Zielen und unternehmerischer KI-Ethik eskaliert diese Woche. Das US-Verteidigungsministerium hat der KI-Forschungsfirma Anthropic ein striktes Ultimatum gestellt: Bis Freitag mĂŒssen sĂ€mtliche SicherheitsbeschrĂ€nkungen fĂŒr militĂ€rische Anwendungen des Sprachmodells Claude fallen. Im Zentrum des Streits steht die Frage, inwieweit das MilitĂ€r die fortschrittliche KI fĂŒr Gefechtsfeldoperationen und AufklĂ€rung nutzen darf. Die Frist lĂ€uft am Freitag, dem 27. Februar, ab.
Der aktuelle Konflikt um militÀrische KI-EinsÀtze verdeutlicht, wie schnell technologische Entwicklungen neue regulatorische Rahmenbedingungen erfordern. Dieser kostenlose Leitfaden erklÀrt Ihnen kompakt die wichtigsten Anforderungen und Fristen der neuen EU-KI-Verordnung. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern
Drohungen mit Notstandsgesetz und Vertragsausschluss
Verteidigungsminister Pete Hegseth forderte Anthropic-CEO Dario Amodei bei einem Krisentreffen im Pentagon auf, uneingeschrÀnkten MilitÀrzugang zu gewÀhren. Das Ministerium argumentiert, operative EinsÀtze benötigten Werkzeuge ohne unternehmensinterne Limitierungen.
Die Konsequenzen bei Weigerung sind drastisch: Der Pentagon will einen 200-Millionen-Euro-Vertrag aus Juli 2025 stornieren. Zudem droht die Einstufung als Lieferkettenrisiko, was Anthropic von allen US-RegierungsauftrĂ€gen ausschlieĂen wĂŒrde. Als ungewöhnliche MaĂnahme wird sogar die Anwendung des Defense Production Act erwogen â ein Notstandsgesetz aus dem Kalten Krieg, das die Herausgabe der Technologie erzwingen könnte.
Autonome Waffen und MassenĂŒberwachung als rote Linien
Anthropic verweigert sich zwei konkreten Anwendungen: vollautonomen Waffensystemen ohne menschliche Entscheidungsbefugnis und der MassenĂŒberwachung von BĂŒrgern. Das von Ex-OpenAI-Forschern gegrĂŒndete Unternehmen betont seine Sicherheitsprinzipien.
âUnsere Sprachmodelle sind nicht frei von Halluzinationenâ, argumentiert Anthropic. âSie sind fĂŒr potenziell tödliche MilitĂ€roperationen ohne menschliche Aufsicht nicht verlĂ€sslich genug.â CEO Amodei warnte kĂŒrzlich öffentlich vor den Gefahren KI-gestĂŒtzter Ăberwachung und vollautomatisierter Kampfdrohnen fĂŒr demokratische Schutzmechanismen.
WĂ€hrend Regierungen ĂŒber den Einsatz von KI debattieren, mĂŒssen Unternehmen bereits heute neue gesetzliche Sicherheitsstandards erfĂŒllen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Strategie an die aktuellen Cyber-Security-Trends und KI-Gesetze anpassen. Kostenlosen Cyber Security Report fĂŒr 2024 herunterladen
Konkurrenten kooperieren, Anthropic steht allein
Anders als Anthropic zeigen sich andere KI-Labore kooperationsbereit. Google, OpenAI und Elon Musks xAI verhandeln laut Pentagon ĂŒber militĂ€rische Nutzung â teils auch fĂŒr geheime Anwendungen. xAIs Chatbot Grok ist bereits fĂŒr klassifizierte Umgebungen freigegeben.
Die Spannungen verschĂ€rften sich nach einem konkreten Einsatz Anfang 2026: Das US-MilitĂ€r nutzte Claude gemeinsam mit Software des RĂŒstungsunternehmens Palantir bei einer Geheimdienstoperation zur Gefangennahme des venezolanischen Ex-Staatschefs NicolĂĄs Maduro. Dieser Einsatz löste interne Debatten bei Anthropic ĂŒber die Einhaltung der eigenen Sicherheitsrichtlinien aus.
Paradigmenwechsel fĂŒr die gesamte Tech-Branche
Rechtsexperten warnen vor einem PrĂ€zedenzfall: WĂŒrde der Defense Production Act tatsĂ€chlich zur Beschlagnahmung eines kommerziellen KI-Modells genutzt, signalisierte dies der gesamten Technologiebranche, dass die Regierung Unternehmensethik bei Sicherheitsinteressen auĂer Kraft setzen kann.
âEs geht um die grundsĂ€tzliche Frage, wer ĂŒber den KI-Einsatz im Krieg entscheidetâ, analysieren Branchenbeobachter. Der Konflikt verdeutlicht die wachsende Kluft zwischen sicherheitsorientierten Tech-Firmen und den operativen PrioritĂ€ten von MilitĂ€rbehörden.
Reputation versus RegierungsauftrÀge
Bis Freitag muss Anthropic eine folgenschwere Entscheidung treffen: HĂ€lt das Unternehmen an seinen ethischen GrundsĂ€tzen fest, riskiert es den Verlust lukrativer StaatsauftrĂ€ge und seine finanzielle StabilitĂ€t. Gibt es nach, könnte sein Ruf als fĂŒhrender sicherheitsbewusster KI-Entwickler nachhaltig beschĂ€digt werden.
Der Ausgang des Ultimatums wird wegweisend sein fĂŒr den Umgang demokratischer Staaten mit autonomer Kriegstechnologie. UnabhĂ€ngig vom Ergebnis dĂŒrfte der Konflikt politische Forderungen nach stĂ€rkerer parlamentischer Kontrolle militĂ€rischer KI-Projekte beschleunigen.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

