OpenAI, Druck

OpenAI unter Druck nach tödlichem Amoklauf in Kanada

26.02.2026 - 11:54:32 | boerse-global.de

Kanada prĂŒft schĂ€rfere KI-Gesetze, nachdem OpenAI Warnsignale eines spĂ€teren AmoklĂ€ufers nicht an Behörden meldete. Der Vorfall offenbart gefĂ€hrliche LĂŒcken in der digitalen Sicherheit.

OpenAI unter Druck nach tödlichem Amoklauf in Kanada - Foto: ĂŒber boerse-global.de
OpenAI unter Druck nach tödlichem Amoklauf in Kanada - Foto: ĂŒber boerse-global.de

Die kanadische Regierung prĂŒft schĂ€rfere KI-Gesetze, nachdem OpenAI Warnsignale eines spĂ€teren AmoklĂ€ufers nicht an Behörden meldete. Der Vorfall offenbart gefĂ€hrliche LĂŒcken in der digitalen Sicherheit.

Regierung zeigt sich „zutiefst enttĂ€uscht“

In einer Krisensitzung in Ottawa konfrontierten drei Bundesminister Vertreter von OpenAI mit schweren VorwĂŒrfen. KĂŒnstliche-Intelligenz-Minister Evan Solomon zeigte sich „zutiefst enttĂ€uscht“ ĂŒber das mangelnde Krisenmanagement des Unternehmens. Der Grund: Der KI-Konzern hatte den ChatGPT-Account des 18-jĂ€hrigen Jesse Van Rootselaar bereits im Juni 2025 gesperrt, weil er die Modelle fĂŒr gewalttĂ€tige Inhalte missbrauchte. Doch die internen Alarmglocken reichten nicht aus, um die kanadische Polizei zu informieren.

Anzeige

WĂ€hrend weltweit ĂŒber strengere Regeln fĂŒr kĂŒnstliche Intelligenz debattiert wird, schafft die EU mit dem AI Act bereits klare Fakten fĂŒr Anbieter und Nutzer. Dieser kostenlose Leitfaden fasst die neuen Anforderungen, Risikoklassen und Pflichten kompakt fĂŒr Sie zusammen. EU-KI-Verordnung: Jetzt kostenlosen Umsetzungsleitfaden sichern

Erst nach dem Amoklauf vom 10. Februar in Tumbler Ridge, bei dem acht Menschen starben, nahm OpenAI Kontakt zu den Behörden auf. Besonders pikant: Firmenvertreter trafen sich am Tag nach der Tat bereits mit einem Provinzvertreter – erwĂ€hnten die brisanten Erkenntnisse aber mit keinem Wort. Stattdessen baten sie erst spĂ€ter um Kontaktdaten zur Royal Canadian Mounted Police.

Provinzchef: „Die Tat wĂ€re vielleicht verhinderbar gewesen“

„HĂ€tte das Unternehmen die Polizei alarmiert, als es die gewalttĂ€tigen Fantasien identifizierte, wĂ€re diese Tragödie vielleicht verhinderbar gewesen.“ Mit diesen deutlichen Worten Ă€ußerte sich David Eby, Premier der Provinz British Columbia. Er fordert klare, landesweite Meldeschwellen, die KI-Firmen gesetzlich zum Eingreifen zwingen.

Die kleine Gemeinde Tumbler Ridge in den kanadischen Rocky Mountains trauert um fĂŒnf MittelschĂŒler, eine Schulassistentin und zwei Familienmitglieder des TĂ€ters. Der Ort mit nur 2.400 bis 2.700 Einwohnern steht unter Schock. Die Opferfamilien quĂ€lt nun eine bohrende Frage: WĂ€ren ihre Angehörigen noch am Leben, wenn die digitalen Warnsignale frĂŒher geteilt worden wĂ€ren?

Experten warnen vor ĂŒberhasteten Gesetzen

WĂ€hrend die Politik nach strengeren Regeln ruft, mahnen Rechtsexperten zur Besonnenheit. „Eine Meldepflicht fĂŒr jeden verdĂ€chtigen Chat wĂŒrde die Polizei mit ungefilterten Daten ĂŒberfluten“, warnt Emily Laidlaw, Cybersicherheits-Expertin an der UniversitĂ€t von Calgary. Die Krux: Nutzer erkunden in KI-Chats oft hypothetische Szenarien, betreiben Forschung oder stellen private Fragen – was automatische Filter alarmieren kann, ohne echte Gefahr zu bedeuten.

Anzeige

Die rasanten Entwicklungen im Bereich der KĂŒnstlichen Intelligenz bringen nicht nur neue Chancen, sondern auch komplexe rechtliche Sicherheitsfragen fĂŒr Unternehmen mit sich. Erfahren Sie in diesem Experten-Report, welche neuen Gesetze und Cyber-Security-Trends Sie jetzt kennen mĂŒssen. Kostenloses E-Book: Cyber Security & KI-Regulierung 2024

Wie lĂ€sst sich also eine sinnvolle Schwelle definieren? Fachleute fordern, dass solche Standards nicht allein von Tech-Konzernen festgelegt werden dĂŒrfen. Stattdessen mĂŒssten Psychologen, Strafverfolger und DatenschĂŒtzer eng eingebunden werden. Das Ziel: Echte Bedrohungen mĂŒssen schnell bei den Behörden landen, ohne die PrivatsphĂ€re aller Nutzer massenhaft zu verletzen.

GesetzeslĂŒcke nach gescheiterten VorstĂ¶ĂŸen

Die Tragödie wirft ein grelles Licht auf ein regulatorisches Vakuum. Zwei geplante Gesetze – der Artificial Intelligence and Data Act und der Online Harms Act – scheiterten Anfang 2025, als das Parlament vertagt wurde. Seither fehlt es an Werkzeugen, um KI-Plattformen fĂŒr das Unterlassen von Gefahrenmeldungen haftbar zu machen.

Das soll sich nun Ă€ndern. Bundesminister kĂŒndigten an, noch in diesem Jahr neue Gesetzesvorlagen einzubringen. „Jede regulatorische Option wird geprĂŒft“, betonte Minister Solomon. OpenAI seinerseits versprach, in den kommenden Tagen konkrete VorschlĂ€ge fĂŒr mehr Sicherheit vorzulegen.

Die Debatte in Kanada wird international aufmerksam verfolgt. Denn das Ergebnis könnte wegweisend sein: Es definiert, wie generative KI-Plattformen kĂŒnftig weltweit mit der Verantwortung fĂŒr die öffentliche Sicherheit umgehen mĂŒssen.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
boerse | 68614236 |