Anthropic: US-Regierung stoppt MilitÀr-Deal wegen ethischer Bedenken
02.03.2026 - 11:01:14 | boerse-global.de
Die US-Regierung hat den KI-Riesen Anthropic zur âRisikofirmaâ erklĂ€rt und seine Technologie aus MilitĂ€rsystemen verbannt. Grund ist ein Streit ĂŒber ethische Grenzen fĂŒr KI im Verteidigungsbereich. Gleichzeitig sichert sich der Konkurrent OpenAI einen umfassenden Vertrag mit dem Pentagon.
Washington D.C. â In einem beispiellosen Schritt hat die Trump-Administration alle Bundesbehörden angewiesen, die Technologie des KI-Unternehmens Anthropic nicht mehr zu nutzen. Das Verteidigungsministerium stufte den Hersteller des KI-Modells Claude offiziell als âLieferkettenrisikoâ ein. Der Bruch folgt auf gescheiterte Verhandlungen ĂŒber den militĂ€rischen Einsatz der KI. Parallel dazu gab der Konkurrent OpenAI bekannt, einen Vertrag zur Nutzung seiner Modelle in den geheimen Netzwerken des Pentagons unterzeichnet zu haben.
WĂ€hrend Regierungen ĂŒber ethische Grenzen streiten, schafft die neue EU-KI-Verordnung bereits klare Fakten fĂŒr hiesige Unternehmen. Dieser kostenlose Leitfaden erklĂ€rt kompakt, welche Kennzeichnungspflichten und Risikoklassen ab sofort fĂŒr Sie relevant sind. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern
Vertragliche âRote Linienâ als Zankapfel
Im Kern des Konflikts steht eine grundsĂ€tzliche Frage: Wer setzt die ethischen Grenzen fĂŒr militĂ€risch nutzbare KI? Anthropic, das sich mit einem âSafety-Firstâ-Ansatz und seiner âConstitutional AIâ-Methode profiliert, bestand auf vertragliche AusschlĂŒsse. Das Unternehmen wollte den Einsatz seiner KI fĂŒr MassenĂŒberwachung im Inland und fĂŒr vollautonome Waffensysteme ohne menschliche Kontrolle explizit verbieten lassen.
âWir konnten mit bestem Gewissen keine Lizenz fĂŒr alle âgesetzlichen Zweckeâ unterschreibenâ, erklĂ€rte CEO Dario Amodei. Die aktuellen Gesetze hĂ€tten mit den rasanten FĂ€higkeiten der KI, besonders im Bereich der Ăberwachung, nicht Schritt gehalten. Das Pentagon wies die Forderungen zurĂŒck. Bestehende Gesetze und interne Richtlinien wĂŒrden solche AktivitĂ€ten bereits ausreichend regeln, argumentierten Beamte. Man brauche die FlexibilitĂ€t, KI fĂŒr jeden rechtmĂ€Ăigen Zweck einzusetzen. Nach monatelangem Stillstand zog die Regierung die Notbremse und verhĂ€ngte das Nutzungsverbot. Anthropic hat nun sechs Monate Zeit, seine Technologie aus MilitĂ€rsystemen zu entfernen.
OpenAI setzt auf technische statt vertragliche Barrieren
Nur Stunden nach der öffentlichen Zuspitzung des Streits prĂ€sentierte OpenAI seine eigene Lösung. Der KI-Pionier bestĂ€tigte einen Vertrag mit dem Pentagon, der Ă€hnliche ârote Linienâ zieht. Der Ansatz ist jedoch ein anderer: Statt auf vertragliche Klauseln setzt OpenAI auf ein âmehrschichtiges Sicherheitskonzeptâ.
Die Modelle sollen ausschlieĂlich ĂŒber die OpenAI-Cloud bereitgestellt werden, wo das Unternehmen die Kontrolle ĂŒber die Sicherheitssysteme behĂ€lt. Zudem sollen freigegebene OpenAI-Mitarbeiter in die Aufsichtsprozesse eingebunden sein. Diese technische Architektur biete robustere und durchsetzbare Schutzvorkehrungen als ein reiner Vertragstext, so das Unternehmen. In einer Stellungnahme forderte OpenAI die Regierung auf, anderen KI-Laboren Ă€hnliche Konditionen anzubieten und den Konflikt mit Anthropic beizulegen.
Der technologische Wandel bringt nicht nur neue Möglichkeiten, sondern auch verschĂ€rfte gesetzliche Anforderungen an die IT-Sicherheit mit sich. Was GeschĂ€ftsfĂŒhrer heute ĂŒber Cyber Security und die aktuelle KI-Regulierung wissen mĂŒssen, erfahren Sie in diesem Experten-Report. Kostenloses E-Book zu Cyber-Security-Trends herunterladen
Paradigmenwechsel fĂŒr KI und nationale Sicherheit
Die Ereignisse markieren einen Wendepunkt fĂŒr die Zusammenarbeit zwischen Tech-Riesen und dem Staat. Das Pentagon treibt die KI-Integration aggressiv voran; ĂŒber eine Million Mitarbeiter nutzen bereits KI in ihrer tĂ€glichen Arbeit. Der öffentliche Disput hat die Branche aufgerĂŒttelt und zwingt KI-Firmen, ihren Weg zwischen Sicherheitsinteressen und ethischen GrundsĂ€tzen zu finden.
Interessanterweise verzeichnete Anthropic trotz der politischen Niederlage einen kurzfristigen PopularitĂ€tsschub. Sein KI-Modell Claude ĂŒberholte am vergangenen Wochenende kurzzeitig ChatGPT als meistheruntergeladene App in den USA. Die unterschiedlichen Verhandlungsstrategien von Anthropic and OpenAI werden wahrscheinlich einen PrĂ€zedenzfall fĂŒr die Zukunft setzen. Sie bestimmen mit, wie leistungsstarke KI in hochsensiblen staatlichen und militĂ€rischen Bereichen kĂŒnftig entwickelt, kontrolliert und eingesetzt wird.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

