US-Regierung verbietet KI-Firma Anthropic nach MilitÀr-Streit
01.03.2026 - 18:32:01 | boerse-global.deDie US-Regierung hat alle Bundesbehörden angewiesen, Technologie des KI-Unternehmens Anthropic nicht mehr zu nutzen. Grund ist ein öffentlicher Konflikt um den militĂ€rischen Einsatz seiner KI-Modelle. Das WeiĂe Haus stufte das Unternehmen als Sicherheitsrisiko ein â ein beispielloser Schritt im Streit um ethische Grenzen von KI.
Der Fall Anthropic zeigt, wie schnell neue Technologien in den Fokus der Regulierung geraten können. Was Unternehmen ĂŒber die aktuelle EU-KI-Verordnung wissen mĂŒssen, um rechtssicher zu agieren, erfahren Sie in diesem Leitfaden. Kostenloses E-Book zur KI-Verordnung herunterladen
Pentagon-Ultimatum scheitert an ethischen Bedenken
Auslöser war die Weigerung von Anthropic, dem US-Verteidigungsministerium uneingeschrĂ€nkten Zugriff auf seine KI-Technologie zu gewĂ€hren. Das Pentagon hatte bis Freitagabend (Ortszeit) ein entsprechendes Ultimatum gestellt. Die KI-Firma, bekannt fĂŒr ihr leistungsstarkes Claude-Modell, lehnte ab.
âWir können mit gutem Gewissen nicht zustimmenâ, erklĂ€rte CEO Dario Amodei. Sein Unternehmen verbietet den Einsatz seiner KI fĂŒr MassenĂŒberwachung im Inland und fĂŒr vollautonome Waffensysteme. Das Pentagon argumentierte hingegen, solche EinschrĂ€nkungen könnten kritische MilitĂ€roperationen gefĂ€hrden.
Regierung isoliert KI-Pionier wie ein auslÀndisches Risiko
Die Reaktion der Trump-Administration folgte umgehend. Per Erlass mĂŒssen alle Bundesbehörden die Nutzung von Anthropic-Technologie sofort einstellen. Das Pentagon erhielt eine sechsmonatige Ăbergangsfrist.
Gleichzeitig wurde Anthropic offiziell als âLieferkettenrisikoâ eingestuft â eine MaĂnahme, die normalerweise Firmen auslĂ€ndischer Gegner wie Huawei trifft. Diese Einstufung erschwert oder verbietet es jedem US-MilitĂ€r-Zulieferer, gleichzeitig mit Anthropic GeschĂ€fte zu machen. Das Unternehmen wird damit praktisch vom lukrativen Verteidigungssektor abgeschnitten.
Tech-Branche gespalten, OpenAI winkt mit Kooperation
Der Konflikt hat die Tech-Industrie erschĂŒttert. Hunderte Mitarbeiter von Konkurrenten wie Google und OpenAI unterzeichneten eine Petition gegen den Einsatz von KI fĂŒr MassenĂŒberwachung oder autonome Waffen. Sie werfen dem Verteidigungsministerium vor, die Branche spalten zu wollen.
In einer bemerkenswerten Wendung kĂŒndigte OpenAIs CEO jedoch an, sein Unternehmen prĂŒfe nun selbst ein mögliches Abkommen mit dem Pentagon. Man hoffe, eine Vereinbarung zu finden, die den eigenen Prinzipien gerecht werde.
Kernfrage: Wer setzt die ethischen Grenzen?
Im Zentrum des Streits steht eine grundsĂ€tzliche Frage: Liegt die AutoritĂ€t, ethische Grenzen fĂŒr Dual-Use-Technologien festzustegen, bei den Entwicklern oder bei der Regierung als Nutzer?
WĂ€hrend die USA ĂŒber ethische Grenzen streiten, gelten in Europa bereits klare Regeln fĂŒr den Einsatz kĂŒnstlicher Intelligenz. Dieser kostenlose Praxis-Guide erklĂ€rt die neuen Kennzeichnungspflichten und Risikoklassen fĂŒr Unternehmen. Gratis Umsetzungsleitfaden zur EU-KI-Verordnung sichern
Das Pentagon betont, nur legale Befehle zu erteilen und keine illegalen AktivitĂ€ten zu planen. Es weigerte sich jedoch, die von Anthropic geforderten spezifischen EinschrĂ€nkungen vertraglich festzuschreiben. Anthropic sah in angebotenen Kompromissformulierungen zu groĂe rechtliche Schlupflöcher.
Rechtsstreit und sechs Monate Ăbergangsfrist
Anthropic kĂŒndigte an, die Einstufung als Sicherheitsrisiko gerichtlich anzufechten. Der Ausgang könnte einen PrĂ€zedenzfall fĂŒr das VerhĂ€ltnis zwischen US-Regierung und heimischen Tech-Zulieferern schaffen.
Die kommenden sechs Monate werden entscheidend sein. Die Regierung drohte mit âernsthaften zivil- und strafrechtlichen Konsequenzenâ, sollte Anthropic die Umstellung seiner Systeme beim MilitĂ€r behindern. Der öffentliche Bruch markiert eine neue, konfliktreiche Phase im Ringen um den verantwortungsvollen Einsatz der mĂ€chtigsten neuen Technologie unserer Zeit.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

