Pentagon, KI-Firma

Pentagon zwingt KI-Firma Anthropic in Ultimatum

25.02.2026 - 22:39:32 | boerse-global.de

Das Pentagon stellt Anthropic ein Ultimatum zur Freigabe des KI-Modells Claude fĂŒr militĂ€rische Zwecke. Bei Verweigerung drohen Vertragsstornierung und Ausschluss von StaatsauftrĂ€gen.

Pentagon zwingt KI-Firma Anthropic in Ultimatum - Foto: ĂŒber boerse-global.de
Pentagon zwingt KI-Firma Anthropic in Ultimatum - Foto: ĂŒber boerse-global.de

Die US-Regierung fordert die Aufhebung von SicherheitsbeschrĂ€nkungen fĂŒr MilitĂ€reinsĂ€tze bis Ende dieser Woche – andernfalls drohen Vertragsstornierung und Ausschluss von StaatsauftrĂ€gen.

Ein fundamentaler Konflikt zwischen militĂ€rischen Zielen und unternehmerischer KI-Ethik eskaliert diese Woche. Das US-Verteidigungsministerium hat der KI-Forschungsfirma Anthropic ein striktes Ultimatum gestellt: Bis Freitag mĂŒssen sĂ€mtliche SicherheitsbeschrĂ€nkungen fĂŒr militĂ€rische Anwendungen des Sprachmodells Claude fallen. Im Zentrum des Streits steht die Frage, inwieweit das MilitĂ€r die fortschrittliche KI fĂŒr Gefechtsfeldoperationen und AufklĂ€rung nutzen darf. Die Frist lĂ€uft am Freitag, dem 27. Februar, ab.

Anzeige

Der aktuelle Konflikt um militÀrische KI-EinsÀtze verdeutlicht, wie schnell technologische Entwicklungen neue regulatorische Rahmenbedingungen erfordern. Dieser kostenlose Leitfaden erklÀrt Ihnen kompakt die wichtigsten Anforderungen und Fristen der neuen EU-KI-Verordnung. EU-KI-Verordnung kompakt: Jetzt Gratis-E-Book sichern

Drohungen mit Notstandsgesetz und Vertragsausschluss

Verteidigungsminister Pete Hegseth forderte Anthropic-CEO Dario Amodei bei einem Krisentreffen im Pentagon auf, uneingeschrÀnkten MilitÀrzugang zu gewÀhren. Das Ministerium argumentiert, operative EinsÀtze benötigten Werkzeuge ohne unternehmensinterne Limitierungen.

Die Konsequenzen bei Weigerung sind drastisch: Der Pentagon will einen 200-Millionen-Euro-Vertrag aus Juli 2025 stornieren. Zudem droht die Einstufung als Lieferkettenrisiko, was Anthropic von allen US-RegierungsauftrĂ€gen ausschließen wĂŒrde. Als ungewöhnliche Maßnahme wird sogar die Anwendung des Defense Production Act erwogen – ein Notstandsgesetz aus dem Kalten Krieg, das die Herausgabe der Technologie erzwingen könnte.

Autonome Waffen und MassenĂŒberwachung als rote Linien

Anthropic verweigert sich zwei konkreten Anwendungen: vollautonomen Waffensystemen ohne menschliche Entscheidungsbefugnis und der MassenĂŒberwachung von BĂŒrgern. Das von Ex-OpenAI-Forschern gegrĂŒndete Unternehmen betont seine Sicherheitsprinzipien.

„Unsere Sprachmodelle sind nicht frei von Halluzinationen“, argumentiert Anthropic. „Sie sind fĂŒr potenziell tödliche MilitĂ€roperationen ohne menschliche Aufsicht nicht verlĂ€sslich genug.“ CEO Amodei warnte kĂŒrzlich öffentlich vor den Gefahren KI-gestĂŒtzter Überwachung und vollautomatisierter Kampfdrohnen fĂŒr demokratische Schutzmechanismen.

Anzeige

WĂ€hrend Regierungen ĂŒber den Einsatz von KI debattieren, mĂŒssen Unternehmen bereits heute neue gesetzliche Sicherheitsstandards erfĂŒllen. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Strategie an die aktuellen Cyber-Security-Trends und KI-Gesetze anpassen. Kostenlosen Cyber Security Report fĂŒr 2024 herunterladen

Konkurrenten kooperieren, Anthropic steht allein

Anders als Anthropic zeigen sich andere KI-Labore kooperationsbereit. Google, OpenAI und Elon Musks xAI verhandeln laut Pentagon ĂŒber militĂ€rische Nutzung – teils auch fĂŒr geheime Anwendungen. xAIs Chatbot Grok ist bereits fĂŒr klassifizierte Umgebungen freigegeben.

Die Spannungen verschĂ€rften sich nach einem konkreten Einsatz Anfang 2026: Das US-MilitĂ€r nutzte Claude gemeinsam mit Software des RĂŒstungsunternehmens Palantir bei einer Geheimdienstoperation zur Gefangennahme des venezolanischen Ex-Staatschefs NicolĂĄs Maduro. Dieser Einsatz löste interne Debatten bei Anthropic ĂŒber die Einhaltung der eigenen Sicherheitsrichtlinien aus.

Paradigmenwechsel fĂŒr die gesamte Tech-Branche

Rechtsexperten warnen vor einem PrĂ€zedenzfall: WĂŒrde der Defense Production Act tatsĂ€chlich zur Beschlagnahmung eines kommerziellen KI-Modells genutzt, signalisierte dies der gesamten Technologiebranche, dass die Regierung Unternehmensethik bei Sicherheitsinteressen außer Kraft setzen kann.

„Es geht um die grundsĂ€tzliche Frage, wer ĂŒber den KI-Einsatz im Krieg entscheidet“, analysieren Branchenbeobachter. Der Konflikt verdeutlicht die wachsende Kluft zwischen sicherheitsorientierten Tech-Firmen und den operativen PrioritĂ€ten von MilitĂ€rbehörden.

Reputation versus RegierungsauftrÀge

Bis Freitag muss Anthropic eine folgenschwere Entscheidung treffen: HĂ€lt das Unternehmen an seinen ethischen GrundsĂ€tzen fest, riskiert es den Verlust lukrativer StaatsauftrĂ€ge und seine finanzielle StabilitĂ€t. Gibt es nach, könnte sein Ruf als fĂŒhrender sicherheitsbewusster KI-Entwickler nachhaltig beschĂ€digt werden.

Der Ausgang des Ultimatums wird wegweisend sein fĂŒr den Umgang demokratischer Staaten mit autonomer Kriegstechnologie. UnabhĂ€ngig vom Ergebnis dĂŒrfte der Konflikt politische Forderungen nach stĂ€rkerer parlamentischer Kontrolle militĂ€rischer KI-Projekte beschleunigen.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
boerse | 68612263 |