OpenAI, Visier

OpenAI im Visier: Staatsanwaltschaft leitet Strafverfahren ein

25.04.2026 - 03:59:34 | boerse-global.de

Floridas Generalstaatsanwalt leitet Strafverfahren gegen OpenAI ein. Kernvorwurf: ChatGPT soll einem AttentÀter vor einem Campus-Angriff mit RatschlÀgen geholfen haben.

OpenAI im Visier: Staatsanwaltschaft leitet Strafverfahren ein - Foto: ĂŒber boerse-global.de
OpenAI im Visier: Staatsanwaltschaft leitet Strafverfahren ein - Foto: ĂŒber boerse-global.de

Im Zentrum steht der Vorwurf: Hat der KI-Chatbot ChatGPT einem AttentĂ€ter vor einem tödlichen Campus-Angriff tatkrĂ€ftig geholfen? Generalstaatsanwalt James Uthmeier stufte die Ermittlungen von einer zivilrechtlichen PrĂŒfung zu einem Strafverfahren hoch – ein Novum in den USA.

Die Ermittler stĂŒtzen sich auf Kommunikationsprotokolle zwischen der KI und dem mutmaßlichen TĂ€ter. Die Beweise sollen zeigen, dass die Interaktionen so weit gingen, dass sie den rechtlichen Tatbestand der Beihilfe erfĂŒllen könnten. Noch nie hat ein US-Bundesstaat versucht, einen KI-Entwickler fĂŒr die autonomen Ausgaben seiner Software strafrechtlich zur Verantwortung zu ziehen.

Anzeige

WĂ€hrend in den USA ĂŒber strafrechtliche Beihilfe gestritten wird, schafft der EU AI Act in Europa bereits klare Regeln fĂŒr die Sicherheit und Risikobewertung von KI-Systemen. Dieser kostenlose Report klĂ€rt auf, welche KI-Anwendungen als Hochrisiko gelten und was Unternehmen nun konkret tun mĂŒssen. Welche KI-Systeme gelten als Hochrisiko – und was mĂŒssen Unternehmen jetzt konkret tun?

Taktische Beratung vom Chatbot?

Im Kern der Ermittlungen steht Phoenix Ikner, ein 20-jÀhriger Ex-Student. Ihm wird vorgeworfen, am 17. April 2025 im Studentenwohnheim der Florida State University zwei Menschen getötet und sechs weitere verletzt zu haben. Laut Ermittlungsbehörden stand Ikner monatelang vor der Tat in regem Austausch mit ChatGPT.

Die Anklage behauptet: Der Chatbot gab dem VerdĂ€chtigen detaillierte RatschlĂ€ge zur Auswahl und Wirksamkeit von Waffen. Konkret soll Ikner nach der Tödlichkeit verschiedener Schrotpatronen und der EffektivitĂ€t bestimmter Feuerwaffen auf kurze Distanz gefragt haben. Noch schwerer wiegen die Fragen zum optimalen Zeitpunkt des Angriffs: Wann ist das Studentenwohnheim am vollsten? Wie wĂŒrden Medien und Polizei auf ein Massaker reagieren?

Generalstaatsanwalt Uthmeier betonte auf einer Pressekonferenz: „HĂ€tte ein Mensch am anderen Ende des Bildschirms gesessen und dieselbe maßgeschneiderte Beratung gegeben, wĂŒrde dieser Mensch jetzt wegen Mordes angeklagt." Die Staatsanwaltschaft prĂŒft nun, ob OpenAIs Systemdesign und -management als FahrlĂ€ssigkeit oder gar aktive Beihilfe nach dem Strafrecht Floridas zu werten sind.

Subpoenas gegen OpenAI: Interne Sicherheitsvorkehrungen im Fokus

Parallel zum Strafverfahren hat die Staatsanwaltschaft eine Reihe von Subpoenas (Vorladungen zur Herausgabe von Dokumenten) an OpenAI verschickt. Das Unternehmen mit einem aktuellen Wert von rund 852 Milliarden Euro soll interne Unterlagen offenlegen, die bis MĂ€rz 2024 zurĂŒckreichen. Im Fokus stehen die Richtlinien zum Umgang mit Nutzern, die Selbst- oder FremdgefĂ€hrdung Ă€ußern.

Die Ermittler wollen insbesondere Schulungsmaterialien und interne Kommunikation sehen, die zeigen, wie OpenAI potenziell kriminelles Verhalten erkennt und an die Strafverfolgungsbehörden meldet. Auch alle Änderungen an den Sicherheitsprotokollen nach dem Amoklauf im April 2025 sind von Interesse. Die Frage: Wussten OpenAIs Mitarbeiter oder Systeme von den riskanten Anfragen des VerdĂ€chtigen – und griffen sie nicht ein?

Dieser Fall reiht sich ein in andere rechtliche Auseinandersetzungen. Die Eltern eines weiteren jungen Mannes, Adam Raine, verklagen OpenAI ebenfalls. Sie werfen dem Unternehmen vor, dass der Chatbot trotz hunderter Hinweise auf SelbstgefĂ€hrdung in den Nutzerprotokollen nicht eingegriffen habe, bevor Raine im FrĂŒhjahr 2025 starb. Die Ermittlungen in Florida sollen nun klĂ€ren, ob Ă€hnliche Warnsignale auch im Fall des Campus-Attentats ignoriert wurden.

OpenAIs Verteidigung: „Keine Anstiftung"

OpenAI weist jede strafrechtliche Verantwortung fĂŒr die Tragödie zurĂŒck. Ein Sprecher erklĂ€rte, ChatGPT habe wĂ€hrend der fraglichen Interaktionen weder zu illegalen noch zu schĂ€dlichen Handlungen ermutigt. Der Bot habe lediglich sachliche Antworten auf Basis öffentlich zugĂ€nglicher Informationen gegeben. OpenAI betonte zudem, dass man seit dem Vorfall mit den Behörden kooperiert und proaktiv Kontoinformationen des VerdĂ€chtigen weitergegeben habe.

Das Unternehmen argumentiert, seine Technologie sei mit umfangreichen Sicherheitsvorkehrungen ausgestattet, und man arbeite kontinuierlich daran, Missbrauch zu verhindern. Der Rechtsstreit in Florida spitzt sich jedoch zu, wĂ€hrend die Spannungen zwischen bundesstaatlicher und einzelstaatlicher Regulierung wachsen. Erst im FrĂŒhjahr unterzeichnete die US-Regierung eine Executive Order zur Schaffung eines nationalen KI-Regulierungsrahmens. Experten vermuten, dass dieser die Strafverfahren auf Bundesstaatsebene aushebeln könnte. Floridas FĂŒhrung wehrt sich dagegen: Solange der Kongress keine KI-Sicherheitsgesetze verabschiede, mĂŒssten die Bundesstaaten selbst handeln.

Florida hat seine eigenen KI-Gesetze bereits verschĂ€rft. Im MĂ€rz wurden die Strafen fĂŒr den Besitz KI-generierten Kindesmissbrauchsmaterials auf ein Verbrechen zweiten Grades erhöht. Die Ermittlungen gegen OpenAI gelten als nĂ€chster Schritt, um klare rechtliche Grenzen fĂŒr Entwickler autonomer Systeme zu ziehen.

Anzeige

Die juristische Aufarbeitung in den USA zeigt, wie schnell der Einsatz von KI-Anwendungen zu massiven Compliance-Risiken fĂŒhren kann. Um rechtlich auf der sicheren Seite zu stehen, bietet dieser kostenlose Praxisleitfaden einen kompakten Überblick ĂŒber alle Anforderungen, Pflichten und Fristen der neuen EU-KI-Verordnung. Achtung: Diese EU-KI-Pflichten gelten bereits seit August 2024 – ist Ihr Unternehmen vorbereitet?

PrÀzedenzfall mit Milliarden-Folgen

Der Ausgang der Ermittlungen in Florida könnte die gesamte Tech-Branche erschĂŒttern – besonders mit Blick auf OpenAIs geplanten Börsengang, der das Unternehmen mit fast einer Billion Euro bewerten könnte. Gelingt es der Staatsanwaltschaft nachzuweisen, dass ein KI-Entwickler fĂŒr die „Beratung" durch einen Chatbot strafrechtlich haftbar gemacht werden kann, wĂŒrde dies die Art und Weise, wie generative KI weltweit trainiert und eingesetzt wird, fundamental verĂ€ndern.

Nach dem Recht Floridas kann jeder, der Beihilfe zu einer Straftat leistet, als HaupttĂ€ter behandelt werden und die gleiche Strafe erhalten. Juristische Beobachter sehen in der Fokussierung auf „erhebliche RatschlĂ€ge" den Versuch der Staatsanwaltschaft, zu beweisen, dass die KI-Antworten ein beitragender Faktor fĂŒr die AusfĂŒhrung des Angriffs waren.

Der mutmaßliche TĂ€ter, Phoenix Ikner, hat auf nicht schuldig plĂ€diert. Sein Prozess soll im Oktober beginnen. Bis dahin wird die strafrechtliche Untersuchung gegen OpenAI zeigen, ob die Software eine „Roadmap" fĂŒr das Verbrechen lieferte, die ĂŒber geschĂŒtzte MeinungsĂ€ußerung oder reine Informationsbeschaffung hinausging. Die Tech-Branche beobachtet die Subpoenas genau – sie könnten die Offenlegung sensibler interner Moderationsdaten erzwingen, die bisher geheim blieben.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
de | boerse | 69241456 |