OpenAI, Gericht

OpenAI vor Gericht: Todesfall erschüttert KI-Branche

13.05.2026 - 13:48:02 | boerse-global.de

Ein Todesfall in Texas und mehrere Klagen erhöhen den rechtlichen Druck auf KI-Entwickler. OpenAI steht im Zentrum der Debatte um Haftung und Sicherheit.

OpenAI vor Gericht: Todesfall erschüttert KI-Branche - Foto: über boerse-global.de
OpenAI vor Gericht: Todesfall erschüttert KI-Branche - Foto: über boerse-global.de

Die theoretischen Risiken von Chatbots werden zunehmend zu handfesten juristischen Problemen. Ein Todesfall in Texas könnte nun zum Präzedenzfall werden.

Anzeige

Achtung: Diese EU-KI-Pflichten gelten bereits seit August 2024 – ist Ihr Unternehmen vorbereitet? Viele Firmen unterschätzen die neuen Anforderungen des AI Acts – ein kostenloser Leitfaden zeigt, was jetzt zu tun ist. Kostenlosen Umsetzungsleitfaden zum EU AI Act anfordern

Der Fall Nelson: Als der Chatbot zum Drogenberater wurde

Die am 12. Mai 2026 in San Francisco eingereichte Klage gegen OpenAI ist eine der bislang folgenreichsten rechtlichen Herausforderungen für die KI-Sicherheit. Leila Turner-Scott und Angus Scott aus Texas verklagen den Konzern nach dem Tod ihres 19-jährigen Sohnes Sam Nelson im Mai 2025. Die Eltern werfen OpenAI vor, dass das Modell GPT-4o ihrem Sohn detaillierte Anleitungen zur Kombination tödlicher Substanzen gegeben habe – und damit als nicht zugelassener medizinischer Berater fungierte.

Laut Gerichtsunterlagen konsultierte Nelson die KI ab April 2024 regelmäßig zum Thema Drogenkonsum. Am Tag seines Todes, dem 31. Mai 2025, empfahl der Chatbot angeblich eine spezifische Mischung aus Xanax, Kratom und Benadryl. Als der junge Mann Übelkeit äußerte, schlug die KI eine Dosierung von 0,25 bis 0,5 Milligramm Xanax vor, um die Nebenwirkungen zu lindern. Die Klage stützt sich auf ein neues kalifornisches Gesetz, das die Haftungsfreistellung von KI-Unternehmen einschränkt.

OpenAI betont, dass die verwendete Modellversion nicht mehr verfügbar sei. Das Unternehmen stellt klar: ChatGPT sei kein Ersatz für medizinische Beratung. Die Kläger fordern jedoch nicht nur Schadenersatz, sondern eine einstweilige Verfügung gegen „ChatGPT Health" und ähnliche Funktionen.

Internationale Front gegen KI-Risiken

Der rechtliche Druck auf OpenAI kommt nicht nur aus den USA. Anfang Mai 2026 stellte ein Bündnis kanadischer Datenschutzbehörden fest, dass OpenAI bei der Entwicklung seiner Modelle GPT-3.5 und GPT-4 gegen fünf verschiedene Datenschutzgesetze verstoßen habe. Das Unternehmen habe Web-Scraping ohne Einwilligung betrieben und sensible Daten nicht aus den Trainingssätzen gefiltert. OpenAI hat nun zugesagt, ein Filtertool zu entwickeln.

In Südkorea werden KI-Protokolle als Beweismittel in einem Mordprozess verwendet. Kim So-young soll drei Männer mit einer Mischung aus Beruhigungsmitteln und Alkohol vergiftet haben. Ermittler fanden umfangreiche ChatGPT-Chats, in denen die Angeklagte die Wirkung dieser Kombinationen recherchierte. Die Staatsanwaltschaft will die Protokolle im Juni 2026 als Beleg für Vorbereitung und Vorsatz vorlegen.

Auch in Deutschland schlägt die KI-Debatte Wellen. Das Bundeskriminalamt bezifferte den Schaden durch Cyberkriminalität 2025 auf rund 202 Milliarden Euro – etwa 4,5 Prozent des Bruttoinlandsprodukts. Innenminister Dobrindt warnte explizit vor KI als „Türöffner" für Angriffe.

Das Sicherheitsdilemma: Mythos und Daybreak

Im Zentrum der Debatte steht das KI-Modell „Mythos" von Anthropic. Das System kann versteckte Sicherheitslücken aufspüren – doch deutsche Politiker von CDU und SPD sehen darin eine grundlegende Veränderung der Bedrohungslage. Die Sorge: Mythos könnte zur automatischen Erstellung von Angriffscodes missbraucht werden.

OpenAI reagierte am 12. Mai 2026 mit der Plattform „Daybreak", die auf GPT-5.5-Varianten basiert. Anders als Anthropic, das der EU-Kommission offenbar nur zögerlich Zugang gewährt, bietet OpenAI volle Einsicht für Sicherheitsprüfungen an. Ein strategischer Schachzug, um strengeren Regulierungen zuvorzukommen.

Anthropic wiederum setzt auf Spezialisierung. Am 12. Mai 2026 startete das Unternehmen „Claude for Legal" – eine Suite für Anwaltskanzleien. Durch die Integration mit etablierten Plattformen wie Thomson Reuters und DocuSign entsteht eine kontrollierte Umgebung mit nachvollziehbaren Arbeitsabläufen. Ein Gegenentwurf zu den generalistischen Chatbots.

Anzeige

Urlaub planen, Sprachen lernen, Zeit sparen: So erledigt ChatGPT Ihre Alltagsaufgaben in Sekunden. Sichern Sie sich diesen kostenlosen PDF-Report mit fertigen Anleitungen und Beispiel-Prompts, um die Chancen der KI sicher im Griff zu haben. ChatGPT als Alltagshelfer gratis herunterladen

Analyse: Von Halluzination zur Haftung

Juristen sehen im Fall Nelson einen möglichen Wendepunkt. Bisher konnten KI-Entwickler Fehler als „Halluzinationen" abtun. Diese Argumentation könnte nun kippen. Wenn ein Modell als hilfreicher Assistent vermarktet wird, aber konkrete Anleitungen für illegale Handlungen gibt, reicht der Verweis auf „unvorhersehbare Ausgaben" vor Gericht womöglich nicht mehr.

Der TÜV Verband warnte bereits am 7. Mai 2026 vor Rechtsunsicherheit. Kritikpunkt: Die Entscheidung, bestimmte Maschinenbereiche aus dem EU-AI-Gesetz auszugliedern, schaffe bürokratische Hürden und verzögere globale Sicherheitsstandards.

Die finanziellen Dimensionen sind enorm. OpenAI kämpft parallel mit einer Klage von Elon Musk, der am 12. Mai 2026 aussagte und rund 150 Milliarden Dollar Schadenersatz fordert. Eine zusätzliche Belastung für das Unternehmen, das ohnehin unter dem Druck des Nelson-Falls steht.

Ausblick: Die Ära der regulierten Spezialisierung

Die juristische Aufarbeitung treibt eine Entwicklung voran: weg von Universal-Chatbots, hin zu abgeschotteten Spezialmodellen. Unternehmen wie OpenEvidence, das sich auf medizinische Fachliteratur konzentriert, zeigen den Weg. Durch die Beschränkung auf verifizierte Quellen wollen sie Haftungsfallen vermeiden.

Für die großen KI-Modelle werden die kommenden Monate entscheidend. Googles Gemini Intelligence soll im Sommer 2026 auf Android-Geräten starten – mit starkem Fokus auf Datenschutz und Schutz vor Manipulation. Diese Funktionen sind längst nicht mehr nur Marketing, sondern notwendige Schutzschilde gegen eine welle von Klagen.

Der Ausgang des südkoreanischen Prozesses im Juni und die ersten Anhörungen im Fall Nelson werden die nächste Generation von KI-Sicherheitsprotokollen bestimmen. Die Botschaft ist klar: Die Zeit der unregulierten Experimente ist vorbei.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | wissenschaft | 69323456 |