US-Regierung schreibt heimische KI-Modelle fĂŒr Behörden vor
19.03.2026 - 04:31:21 | boerse-global.deDie US-Regierung stellt die Beschaffung von KĂŒnstlicher Intelligenz auf eine neue Grundlage. Ein Entwurf der Bundesbeschaffungsbehörde GSA schreibt ab sofort ausschlieĂlich amerikanische KI-Systeme, ideologische NeutralitĂ€t und umfassende Datenrechte fĂŒr den Staat vor. Die Ănderungen treten voraussichtlich Ende MĂ€rz in Kraft.
Strikte âBuy Americanâ-Regel und NeutralitĂ€tsgebot
Der Kern des neuen GSA-Entwurfs ist eine klare Protektionsklausel: Bundesbehörden dĂŒrfen nur KI-Systeme einsetzen, die in den USA entwickelt und kontrolliert werden. AuslĂ€ndische Komponenten oder Modelle sind explizit verboten. FĂŒr Anbieter, die auf globale Entwicklungsteams oder im Ausland verarbeitete Open-Source-Komponenten setzen, bedeutet das massive Lieferkettenprobleme.
WĂ€hrend die USA eigene Regeln forcieren, mĂŒssen Unternehmen hierzulande die komplexen Vorgaben der europĂ€ischen Gesetzgebung meistern. Dieser kostenlose Leitfaden erklĂ€rt kompakt und verstĂ€ndlich, welche spezifischen Pflichten die neue EU-KI-Verordnung fĂŒr Ihr Unternehmen bereithĂ€lt. EU-KI-Verordnung kompakt: Endlich verstĂ€ndlich erklĂ€rt
ZusĂ€tzlich verankert die Regelung ein NeutralitĂ€tsgebot fĂŒr KI. Anbieter mĂŒssen âkommerzielle Anstrengungenâ unternehmen, um parteiische oder ideologische Verzerrungen in den Systemen zu vermeiden. Sie dĂŒrfen keine weltanschaulichen Urteile in die Datenausgaben einprogrammieren. Auch mĂŒssen sie offenlegen, ob ihre Systeme an auslĂ€ndische Vorgaben â wie den EU KI Act â angepasst wurden.
Staat erhÀlt umfassende Datenhoheit und Nutzungsrechte
Die geplanten Vertragsklauseln erweitern die Kontrolle des Staates ĂŒber Daten massiv. Die Regierung behĂ€lt das vollstĂ€ndige Eigentum an allen Daten-Inputs, Outputs und individuellen Entwicklungen. Vertragspartner ist es strikt untersagt, Regierungsdaten zum Training oder Verbessern ihrer kommerelles Modelle zu nutzen. Behörden-Daten mĂŒssen zudem logisch von anderen Kundendaten getrennt und nach Vertragsende gelöscht werden.
Die wohl weitreichendste Bestimmung: KI-Systeme dĂŒrfen Analysen oder Datenausgaben nicht verweigern, solange der staatliche Zweck legal ist. Kommerzielle Sicherheitsvorkehrungen oder Inhaltsrichtlinien der Anbieter sind damit auĂer Kraft gesetzt. Die Regierung erhĂ€lt eine unwiderrufliche Lizenz, das System fĂŒr jeden legalen Zweck zu nutzen.
Offene Standards gegen Anbieter-AbhÀngigkeit
Um Vendor-Lock-in zu verhindern, schreibt der Entwurf offene Standards vor. Alle KI-Systeme, Daten und Entwicklungen mĂŒssen offene, maschinenlesbare Formate und standardisierte Schnittstellen (APIs) nutzen. ProprietĂ€re Technologien, die AbhĂ€ngigkeiten schaffen, sind verboten.
Die rasanten technologischen Entwicklungen und neuen Gesetze wie der AI-Act verschĂ€rfen die Haftungsrisiken fĂŒr die GeschĂ€ftsfĂŒhrung erheblich. Erfahren Sie im aktuellen Experten-Report, wie Sie Ihre IT-Sicherheit und Compliance ohne explodierende Budgets zukunftssicher aufstellen. Was GeschĂ€ftsfĂŒhrer ĂŒber Cyber Security 2024 wissen mĂŒssen
Anbieter mĂŒssen zudem Werkzeuge bereitstellen, mit denen Behörden alle ihre Daten exportieren und in alternativen Systemen rekonstruieren können. Bei Modell-Updates gelten strenge Fristen: Die Regierung muss 30 Tage (Major Update) bzw. 15 Tage (Minor Update) vorab Zugang zum Nachfolgemodell erhalten. SicherheitsvorfĂ€lle sind innerhalb von 72 Stunden zu melden.
Haftung bis in die Lieferkette und Vertragsvorrang
Die neuen Regeln gelten nicht nur fĂŒr Hauptauftragnehmer, sondern erfassen die gesamte Lieferkette. Der Prime Contractor haftet dafĂŒr, dass auch alle Subunternehmer und Dienstleister â selbst bei reinem API-Zugang â die Klauseln einhalten.
Entscheidend: Die GSA-Klauseln haben Vorrang vor allen kommerziellen Lizenzbedingungen. Bei Konflikten zwischen staatlichen Vorgaben und den Allgemeinen GeschÀftsbedingungen eines Software-Anbieters gilt das Bundesrecht. Experten erwarten, dass dies massive Nachverhandlungen zwischen Auftragnehmern und ihren KI-Zulieferern erzwingt.
Hintergrund: Reaktion auf Konflikte mit Tech-Riesen
Der VorstoĂ ist eine direkte Reaktion auf jĂŒngste Konflikte zwischen Behörden und Tech-Unternehmen. Analysten verweisen auf einen Streit zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic. Die Regierung bestand auf uneingeschrĂ€nkter Nutzung der Modelle fĂŒr alle legalen Zwecke. Nach Uneinigkeiten ĂŒber Nutzungsrichtlinien strich die GSA Anthropic aus ihren Vertragsprogrammen.
Die neuen Klauseln sollen verhindern, dass unternehmenseigene Policies legitime Regierungsaufgaben blockieren. Marktbeobachter warnen jedoch: Die strengen Vorgaben könnten kommerzielle Anbieter davon abhalten, ihre neuesten Modelle der Regierung anzubieten â besonders wenn sie dafĂŒr ihre Sicherheitsarchitekturen grundlegend Ă€ndern mĂŒssten.
Kurze Umsetzungsfrist zwingt zum sofortigen Handeln
Die Anhörungsfrist endet am morgigen 20. MĂ€rz 2026. Die GSA plant, die finalen Klauseln noch im MĂ€rz oder April via âRefresh 31â in alle bestehenden und neuen RahmenvertrĂ€ge aufzunehmen.
FĂŒr Anbieter bleibt kaum Zeit. Sie mĂŒssen sofort Gap-Analysen ihrer Technologie und Compliance-Rahmen durchfĂŒhren. Der US-Markt dĂŒrfte sich in den kommenden Monaten spalten: in rein kommerzielle Anwendungen einerseits und hochgradig angepasste, regulierte Systeme fĂŒr die Bundesverwaltung andererseits. FĂŒr europĂ€ische KI-Anbieter verschlieĂt sich damit vorerst einer der gröĂten staatlichen BeschaffungsmĂ€rkte.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

