US-Regierung, KI-Modell

US-Regierung verbannt KI-Modell Claude aus Behörden

14.03.2026 - 00:00:26 | boerse-global.de

US-Behörden wechseln nach einem Präsidialerlass von Anthropics Claude zu OpenAI. Der Boykott folgt auf einen Streit über militärische Nutzung und ethische Grenzen der KI.

US-Regierung verbannt KI-Modell Claude aus Behörden - Foto: über boerse-global.de
US-Regierung verbannt KI-Modell Claude aus Behörden - Foto: über boerse-global.de

Das US-Außenministerium hat die KI-Modelle von Anthropic durch Alternativen ersetzt – eine direkte Folge von Präsident Trumps Anordnung zum Stopp der Nutzung. Die Maßnahme zeigt die Risiken der Abhängigkeit von einzelnen KI-Anbietern.

StateChat wechselt von Claude zu OpenAI

Im Zentrum des Technologie-Umbaus steht StateChat, die interne KI-Plattform des Ministeriums. Sie läuft nun nicht mehr mit Anthropics Claude Sonnet 4.5, sondern mit OpenAIs GPT-4.1. Mitarbeiter hatten bis zum 6. März Zeit, ihre Workflows umzustellen.

Der Wechsel brachte jedoch Rückschritte mit sich. Die alte Claude-Version kannte Daten bis Juni 2025. Das neue GPT-4.1-System ist nur bis Mai 2024 trainiert. Diese Wissenslücke von dreizehn Monaten könnte vorübergehend Analysen zu aktuellen geopolitischen Entwicklungen erschweren.

Anzeige

Während staatliche Behörden ihre KI-Systeme umstellen, müssen Unternehmen die neuen rechtlichen Rahmenbedingungen der EU im Blick behalten. Dieser kostenlose Leitfaden zur KI-Verordnung erklärt Ihnen kompakt alle wichtigen Anforderungen und Fristen. EU-KI-Verordnung kompakt: Jetzt kostenlos herunterladen

Ursache: Streit über militärische Nutzung

Der Boykott geht auf einen Grundsatzstreit zurück. Ende 2025 verhandelte Anthropic mit dem US-Verteidigungsministerium über den Einsatz von Claude in militärischen Netzwerken. Das Ministerium verlangte, Nutzungsbeschränkungen aufzuheben.

Anthropic blieb hart: Das Unternehmen verweigerte den Einsatz für autonome Waffensysteme ohne menschliche Kontrolle und die Massenüberwachung US-amerikanischer Bürger. Als Reaktion stufte das Pentagon Anthropic als Risiko für die Lieferkette ein und stoppte einen Vertrag über 200 Millionen Euro. Darauf folgte der Präsidialerlass zum kompletten Verbot.

Dominoeffekt in der Verwaltung

Nicht nur das Außenministerium ist betroffen. Auch Finanzministerium, Gesundheitsbehörden und der Geheimdienst Secret Service gaben interne Anweisungen, von Claude auf Modelle von OpenAI oder Google umzusteigen. Selbst Rüstungsunternehmen wie Palantir müssen die Software nun aus Systemen wie „Maven Smart Systems“ entfernen.

Herausforderungen und Lehren

Der Zwangswechsel legt Schwachstellen in der KI-Beschaffung des Staates offen. Behörden, die tief in eine Technologie investiert hatten, stehen nun unter enormem Zeitdruck. Sie müssen Code anpassen und Mitarbeiter schulen.

Doch es gibt auch Positivbeispiele. Systeme, die modular aufgebaut waren, kamen besser durch die Krise. Die Fähigkeit des Außenministeriums, StateChat innerhalb von Wochen umzustellen, zeigt eine technologische Agilität, die künftig zum Standard werden dürfte. Experten warnen jedoch: Solche abrupten Wechsel bremsen die KI-Einführung im öffentlichen Sektor aus.

Anzeige

Der technologische Wandel und neue Regulierungen fordern die IT-Sicherheit von Unternehmen heute mehr denn je heraus. Erfahren Sie in diesem Experten-Report, wie Sie Ihre Infrastruktur auch ohne riesige Budgets effektiv gegen moderne Bedrohungen absichern. Effektive Cyber-Security-Strategien jetzt entdecken

Anthropic geht in die Offensive

Das Unternehmen reagierte mit einer Klage. Am 9. März verklagte Anthropic mehr als ein Dutzend US-Behörden vor einem Bundesgericht in Kalifornien. Das Unternehmen hält die Einstufung als Lieferkettenrisiko für ideologisch motiviert und sachlich nicht haltbar. Der Ausgang des Verfahrens könnte wegweisend für die ethischen Grenzen kommercieller KI sein.

Interessanterweise profitierte Claude im Privatmarkt von dem Streit. Die App stieg in den USA und Großbritannien in den Charts auf. Nutzer suchten offenbar Alternativen zu Plattformen, die mit Militär und Überwachung assoiiert werden.

Was kommt jetzt?

Die Behörden haben nun sechs Monate Zeit, um alle Reste der Anthropic-Technologie aus ihren Systemen zu entfernen. In dieser Phase werden viele neue Verträge mit Konkurrenzanbietern erwartet.

Der Fall Claude wird zum Lehrstück. Er zeigt die Spannung zwischen militärischer Nutzbarkeit, ethischen Unternehmensgrundsätzen und nationaler Sicherheit. Diese Konflikte werden die Zusammenarbeit von Staaten und Tech-Konzernen noch lange prägen.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
boerse | 68671998 |