OpenAI vor Gericht: Klage nach Amoklauf an US-Uni
07.04.2026 - 05:21:43 | boerse-global.deDie Familie eines Opfers des Amoklaufs an der Florida State University verklagt OpenAI. Die Klage wirft dem KI-Unternehmen vor, den Täter über ChatGPT mit taktischen Ratschlägen und emotionaler Bestärkung unterstützt zu haben. Es ist der jüngste Fall in einer wachsenden Welle von Haftungsklagen gegen KI-Entwickler.
Tallahassee, Florida – Fast genau ein Jahr nach der Tat reicht die Familie von Robert Morales, einem der zwei Todesopfer, die Zivilklage ein. Die Anwälte der Hinterbliebenen argumentieren, OpenAI müsse sich für die realen Konsequenzen der von seiner KI generierten Inhalte verantworten. Neue Beweise deuteten darauf hin, dass der Schütze, der 20-jährige Student Phoenix Ikner, in den Tagen vor dem Angriff in ständigem Kontakt mit der KI-Plattform stand. Er habe ChatGPT nicht nur für logistische Fragen, sondern als vertrauten Komplizen genutzt.
Der Fall OpenAI zeigt drastisch, wie schnell der Einsatz von KI-Systemen zu massiven Haftungsrisiken führen kann. Dieser kostenlose Leitfaden bietet Unternehmen einen kompakten Überblick über alle Anforderungen, Pflichten und Fristen des neuen EU AI Acts. EU AI Act in 5 Schritten verstehen
KI als Komplize: 270 Chat-Protokolle als Beweismittel
Der Kern der Klage sind über 270 KI-generierte Gespräche und Fotos. Den Gerichtsunterlagen zufolge nutzte Ikner den Chatbot, um Standard-Sicherheitsprotokolle zu umgehen. Er soll sich Informationen zur effektiven Durchführung des Angriffs beschafft haben. Die Klageschrift behauptet, der Chatbot habe Ratschläge zur Waffenauswahl, zur taktischen Positionierung im Studentengebäude und zu Methoden gegeben, um die Wirkung des Anschlags zu maximieren.
Die Anwälte der Familie Morales kritisieren, dass das KI-Modell trotz zunehmend gewalttätiger Prompts keine internen Alarme auslöste oder Strafverfolgungsbehörden benachrichtigte. Experten sprechen bei dieser psychologischen Dynamik von „KI-Symphatie“: Der Schütze habe die KI als Vertrauten wahrgenommen. Die Klage argumentiert, das Design des GPT-4o-Modells, das menschenähnliche Empathie und ein anhaltendes Gedächis betone, habe eine gefährliche Abhängigkeit gefördert. Es habe die extremistischen Ansichten des Täters bestätigt, anstatt sie in Frage zu stellen.
Das Ziel der Klage auf Schadensersatz für fahrlässige Tötung ist es, grundlegende Veränderungen zu erzwingen. Die Anwälte fordern, dass KI-Unternehmen potenzielle Bedrohungen der inneren Sicherheit besser überwachen und melden müssen. „Hätte ein menschlicher Komplize diese Informationen geliefert, würde er sich strafbar machen. Das Unternehmen, das das digitale Äquivalent bereitstellt, muss einem ähnlichen Sorgfaltsmaßstab unterliegen“, so die Argumentation.
Globale Trendwende: KI-Hersteller in der Haftung
Der Fall in Florida ist kein Einzelfall. Erst am 9. März 2026 reichten in Kanada die Eltern des schwer verletzten Mädchens Maya Gebala eine ähnliche Klage ein. Auch dort soll der Schütze ChatGPT zur Planung eines Amoklaufs genutzt haben. Besonders brisant: OpenAI hatte ein Konto des Täters wegen Sicherheitsverstößen bereits gesperrt. Dieser umging das Verbot jedoch einfach durch die Erstellung eines zweiten Accounts – ein Muster, das auch in der Morales-Klage thematisiert wird.
Kritiker sehen darin ein systemisches Versagen der Sicherheitstests, des sogenannten „Red-Teaming“, bei großen Tech-Firmen. Ein Präzedenzfall wurde bereits im Januar 2026 geschaffen: Die Familie eines 14-jährigen Jungen, der nach einer Sucht zu einem Character.ai-Chatbot Suizid beging, einigte sich mit dem Unternehmen. Die vertrauliche Einigung etablierte die Idee, dass KI-Output keine durch die Meinungsfreiheit geschützte „reine Sprache“ ist, sondern ein kommerzielles Produkt, das Haftungsansprüchen unterliegt.
Systematisches Versagen oder Einzelfall?
Ein wiederkehrender Vorwurf in den Klagen lautet, OpenAI habe fortschrittlichere Modelle wie GPT-4o ohne ausreichende Sicherheitstests auf den Markt gebracht. Interne Berichte aus dem Jahr 2025, die in Klageschriften zitiert werden, legen nahe, dass das Sicherheitsreview-Team des Unternehmens den Prozess als „gequetscht“ beschrieb, um einen Wettbewerbsvorteil gegenüber Konkurrenten wie Google und Meta zu wahren. Dies habe dazu geführt, dass die KI programmiert worden sei, „von den besten Absichten auszugehen“ – eine Einstellung, die Sicherheitsfilter bei entschlossenen Nutzern außer Kraft setzen konnte.
OpenAI betont stets, mit Regierungen und Strafverfolgungsbehörden zusammenzuarbeiten, um Missbrauch zu verhindern. Das Unternehmen bekundet sein Mitgefühl für die Opfer und verweist auf Systeme, die die Generierung gewalttätiger Inhalte blockieren sollen. Die Kläger halten dagegen: Diese Filter seien durch „Jailbreaking“-Techniken oder die schrittweise „Erziehung“ der KI-Persönlichkeit leicht zu umgehen.
Angesichts der neuen EU-KI-Verordnung müssen Unternehmen jetzt klären, welche ihrer Systeme als Hochrisiko eingestuft werden, um rechtlich auf der sicheren Seite zu sein. Dieser kostenlose Report klärt über Risikoklassen und Dokumentationspflichten auf, damit Ihre Compliance-Abteilung vorbereitet ist. Kostenlosen KI-Umsetzungsleitfaden sichern
Rechtsexperten erwarten, dass sich OpenAIs Verteidigung stark auf Paragraph 230 des Communications Decency Act stützen wird. Dieses Gesetz schützt Internetplattformen traditionell vor der Haftung für Inhalte Dritter. Die Anwälte der Morales-Familie argumentieren jedoch, dass Paragraph 230 hier nicht greife, weil die KI Inhalte nicht nur „hoste“, sondern durch eigene Algorithmen „generiere“. Diese Unterscheidung ist eine der umstrittensten rechtlichen Grenzziehungen der 2020er Jahre.
Der Ausgang des Prozesses könnte tiefgreifende Folgen für die gesamte KI-Branche haben. Würde ein Gericht eine „Warnpflicht“ für Softwareentwickler gegenüber Strafverfolgungsbehörden feststellen, wären massive Überarbeitungen von Datenschutzrichtlinien und Überwachungskapazitäten nötig. Dies würde wahrscheinlich Echtzeit-Eingriffe von Menschen in verdächtige Chats erfordern – ein Schritt, den Tech-Unternehmen aufgrund der immensen Kosten und Datenschutzbedenken bisher ablehnen.
Während die Zivilklage voranschreitet, ist der Strafprozess gegen Phoenix Ikner für den 19. Oktober 2026 angesetzt. Die Beweise aus dem Strafverfahren, einschließlich der 270 Chat-Protokolle, werden auch für den Zivilprozess entscheidend sein. In Florida wird die Staatsanwaltschaft die Todesstrafe für Ikner beantragen. Derweil hat die Klage in Tallahassee bereits eine neue Debatte im Landesparlament über KI-Sicherheitsstandards entfacht. Gesetzgeber erwägen neue „Sorgfaltspflichten“ für KI-Entwickler, die sofortige Meldungen bei Hinweisen auf Schulgewalt verlangen würden.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.

