Anthropic, US-Regierung

Anthropic: US-Regierung verhÀngt Totalverbot gegen KI-Pionier

01.03.2026 - 12:31:15 | boerse-global.de

Die US-Regierung entzieht Anthropic alle BundesauftrĂ€ge, nachdem das Unternehmen sich weigerte, Sicherheitsvorkehrungen seiner KI fĂŒr militĂ€rische Zwecke zu deaktivieren.

Anthropic: US-Regierung verhĂ€ngt Totalverbot gegen KI-Pionier - Foto: ĂŒber boerse-global.de
Anthropic: US-Regierung verhĂ€ngt Totalverbot gegen KI-Pionier - Foto: ĂŒber boerse-global.de

Die US-Regierung hat dem KI-Unternehmen Anthropic alle BundesauftrĂ€ge entzogen und es zum nationalen Sicherheitsrisiko erklĂ€rt. Der Grund: Das Unternehmen weigerte sich, ethische Sicherheitsvorkehrungen in seiner KI fĂŒr militĂ€rische Zwecke abzuschalten. Dieser beispiellose Schritt markiert einen dramatischen Höhepunkt im Konflikt zwischen dem MilitĂ€r und der Sicherheits-KI-Branche.

Ethische Grenzen gegen militÀrische Forderungen

Der Konflikt eskalierte am Freitag, dem 27. Februar 2026. Das Pentagon stellte Anthropic ein Ultimatum: Die Firma sollte bis zum Nachmittag die Sicherheitsvorkehrungen ihrer KI Claude entfernen, um einen uneingeschrÀnkten militÀrischen Einsatz zu ermöglichen. Anthropic-Chef Dario Amodei lehnte ab.

Anzeige

Der aktuelle Fall um Anthropic zeigt, wie schnell neue Regulierungen und ethische Standards die HandlungsfĂ€higkeit von Unternehmen beeinflussen können. Dieser kostenlose Leitfaden zur EU-KI-Verordnung erklĂ€rt Ihnen verstĂ€ndlich, welche rechtlichen Pflichten und Risikoklassen Sie schon heute kennen mĂŒssen. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

In einem öffentlichen Brief begrĂŒndete Amodei die Entscheidung. Sein Unternehmen könne die Nutzung der KI fĂŒr massive innenpolitische Überwachung oder den Betrieb vollautonomer Waffensysteme nicht autorisieren. Die aktuellen KI-Systeme seien fĂŒr solche Aufgaben nicht zuverlĂ€ssig genug. Zudem wĂŒrden ÜberwachungsfĂ€higkeiten grundlegende PrivatsphĂ€ren-Rechte aushöhlen. „Diese roten Linien zu wahren, ist ein Akt des Patriotismus zum Schutz der BĂŒrger“, so Amodei, selbst nach einem 200-Millionen-Dollar-Vertrag mit dem Pentagon von Juli 2025.

Unerhörte Vergeltung der US-Regierung

Die Antwort der Trump-Administration fiel hart aus. Per PrĂ€sidentenorder wurde die Nutzung von Anthropic-Technologie in allen Bundesbehörden sofort gestoppt. Eine sechsmonatige Übergangsfrist soll die Ablösung der Software einleiten.

Verteidigungsminister Pete Hegseth ging noch weiter: Er stufte Anthropic offiziell als Risiko fĂŒr die Lieferkette der nationalen Sicherheit ein. Diese Einstufung war bisher fast ausschließlich auslĂ€ndischen Gegnern vorbehalten. Hegseth begrĂŒndete den Schritt damit, dass private Tech-Firmen nicht ĂŒber militĂ€rische Operationen bestimmen dĂŒrften. Die Folge: Anthropic wurde auch aus den zentralen Vergabelisten der US-Behörden gestrichen und ist damit fĂŒr BundesauftrĂ€ge gesperrt.

Klage und Überlebensstrategie von Anthropic

Trotz des harten Vorgehens zeigt sich Anthropic-Chef Amodei zuversichtlich. In einem TV-Interview spielte er die wirtschaftlichen Folgen herunter. Die Einstufung als Lieferkettenrisiko betreffe nur spezifische RĂŒstungsauftrĂ€ge, nicht die gewerblichen AktivitĂ€ten von Verteidigungsunternehmen.

Gleichzeitig kĂŒndigte das Unternehmen an, gegen die Einstufung vor Bundesgericht zu klagen. Die Maßnahme sei rechtlich fragwĂŒrdig und stelle einen beispiellosen Eingriff in die Privatwirtschaft dar. Die AnwĂ€lte werden argumentieren, dass das entsprechende Gesetz nie dazu gedacht war, inlĂ€ndische Softwarefirmen zu ArchitekturĂ€nderungen zu zwingen.

Anzeige

WĂ€hrend staatliche Akteure massiven Druck auf Software-Entwickler ausĂŒben, wĂ€chst fĂŒr Unternehmen weltweit die Gefahr durch unregulierte KI-Systeme und Cyberangriffe. Erfahren Sie in diesem Experten-Report, wie Sie Ihre IT-Infrastruktur unter BerĂŒcksichtigung der neuesten KI-Gesetze wirksam schĂŒtzen. Kostenloses E-Book: Cyber Security Trends 2024 entdecken

OpenAI springt in die Bresche – mit gleichen Ethik-Regeln

Das Verbot löste sofort Verschiebungen im Markt fĂŒr MilitĂ€r-KI aus. Nur Stunden nach der Sperrung verkĂŒndete OpenAI-Chef Sam Altman, eine neue Vereinbarung zur Lieferung von KI-Tools fĂŒr geheime MilitĂ€rnetze getroffen zu haben.

Das Brisante: Altman betonte, dass der Vertrag mit dem Pentagon exakt dieselben Verbote enthalte, fĂŒr die Anthropic nun bestraft wird – also kein Einsatz fĂŒr MassenĂŒberwachung oder autonome Waffen. Diese Diskrepanz wirft die Frage auf: Warum war das Pentagon bei OpenAI zu ZugestĂ€ndnissen bereit, bestraft aber Anthropic fĂŒr eine identische ethische Haltung?

Ein PrÀzedenzfall mit globaler Signalwirkung

Der Konflikt zeigt den tiefen ideologischen Graben zwischen der sicherheitsbewussten KI-Entwicklung im Silicon Valley und dem Streben des MilitĂ€rs nach technologischer Überlegenheit ohne EinschrĂ€nkungen. Experten wie Dean Ball von der Foundation for American Innovation warnen vor dem PrĂ€zedenzfall: Die Nutzung von Lieferketten-Regeln zur Bestrafung einer inlĂ€ndischen Firma könnte Wellen durch den gesamten Technologiesektor schlagen.

FĂŒr die US-Behörden beginnt nun eine logistische Herkulesaufgabe. Die tiefe Integration von Claude in analytische Systeme macht die geforderte Ablösung innerhalb von sechs Monaten zu einer enormen Herausforderung.

Die anstehende Gerichtsschlacht wird wegweisend fĂŒr die Tech-Governance sein. Sie wird klĂ€ren, inwieweit das MilitĂ€r mit dem Instrument der nationalen Sicherheit private Firmen zwingen kann, ihre Sicherheitsprotokolle aufzugeben. Eines ist klar: Das VerhĂ€ltnis zwischen Staat und KI-Entwicklern hat sich dauerhaft verĂ€ndert. Der Druck wĂ€chst, klare gesetzliche Rahmen fĂŒr den KI-Einsatz in Krieg und Sicherheit zu schaffen – anstatt auf Ad-hoc-Verhandlungen zu setzen.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
boerse | 68624320 |