Röntgenbilder, Rätsel

KI erzeugt täuschend echte Röntgenbilder – Ärzte stehen vor unlösbarem Rätsel

24.03.2026 - 15:53:51 | boerse-global.de

Eine Studie belegt, dass KI-generierte Deepfake-Röntgenbilder selbst erfahrene Radiologen täuschen. Dies gefährdet die Diagnosesicherheit und erfordert neue Detektionsmethoden.

KI erzeugt täuschend echte Röntgenbilder – Ärzte stehen vor unlösbarem Rätsel - Foto: über boerse-global.de
KI erzeugt täuschend echte Röntgenbilder – Ärzte stehen vor unlösbarem Rätsel - Foto: über boerse-global.de

Eine bahnbrechende Studie enthüllt eine gefährliche Schwachstelle der modernen Medizin: Künstliche Intelligenz erzeugt täuschend echte Röntgenbilder, die selbst erfahrene Radiologen täuschen. Die im Fachjournal Radiology veröffentlichte Forschung zeigt eine akute Bedrohung für die Diagnosesicherheit und die Cybersicherheit im Gesundheitswesen auf.

Anzeige

Seit August 2024 gelten in der EU neue Regeln für den Einsatz von künstlicher Intelligenz, um Risiken wie Deepfakes in der Medizin rechtssicher zu begegnen. Dieser kostenlose Leitfaden erklärt kompakt die Kennzeichnungspflichten und Dokumentationsanforderungen, die Unternehmen jetzt kennen müssen. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Studie belegt: KI-Fälschungen sind nicht zu erkennen

Die Untersuchung unter Leitung von Dr. Mickael Tordjman von der Icahn School of Medicine in New York kommt zu einem alarmierenden Ergebnis. 17 Radiologen aus zwölf Kliniken in sechs Ländern – darunter Deutschland – konnten in 264 Röntgenbildern kaum zwischen echten Aufnahmen und KI-generierten Fälschungen unterscheiden. Die synthetischen Bilder wurden mit einem allgemein verfügbaren KI-Modell wie ChatGPT-4o erstellt.

„Die Studie zeigt, wie realistisch diese Deepfake-Röntgenbilder geworden sind“, betont Dr. Tordjman. Selbst die Erfahrung der Ärzte – zwischen null und 40 Jahren – verbesserte die Erkennungsrate nicht. Diese Entwicklung schafft eine hochriskante Schwachstelle, besonders für betrügerische Klagen oder Cyberangriffe auf Kliniknetzwerke.

Zu perfekt, um wahr zu sein: Die subtilen Merkmale der Fälschungen

Die KI-generierten Bilder weisen bei genauer Betrachtung charakteristische Merkmale auf, die ihren künstlichen Ursprung verraten könnten. Oft erscheinen sie „zu perfekt“: Knochen wirken übermäßig glatt, Wirbelsäulen unnatürlich gerade, Lungenflügel extrem symmetrisch. Selbst eingefügte Brüche sehen oft bemerkenswert sauber und einheitlich aus.

Doch diese subtilen Hinweise reichen nicht aus. Die Demokratisierung der Deepfake-Technologie durch frei verfügbare KI-Modelle hat die Bedrohungslage grundlegend verändert. Anatomisch plausible Röntgenbilder können nun von fast jedem erstellt werden – ohne spezielles Training.

Anzeige

Ob manipulierte Bilddaten oder Phishing-Angriffe – IT-Sicherheitsexperten warnen vor immer professionelleren Methoden, die gezielt menschliche Schwachstellen in Organisationen ausnutzen. Erfahren Sie in diesem kostenlosen Report, wie Sie Ihr Unternehmen mit einer effektiven Strategie vor modernen Cyberkriminellen schützen. Experten-Report zur Cyber Security kostenlos herunterladen

Gefahr fĂĽr Patienten und Vertrauen in die Medizin

Die nicht erkennbaren Deepfake-Röntgenbilder gefährden nicht nur die Diagnosesicherheit, sondern untergraben das fundamentale Vertrauen in digitale Patientenakten. Die Weltgesundheitsorganisation (WHO) hatte bereits vor der Verbreitung von Deepfake-Inhalten im Gesundheitsbereich gewarnt.

Die Fähigkeit der KI, scheinbar legitime medizinische Inhalte zu erzeugen, macht die Überprüfbarkeit von Informationen immer schwieriger. Diese Studie verschärft die Bedenken, denn sie zeigt: Selbst die kritischsten Diagnosewerkzeuge sind nun manipulierbar.

Der Weg nach vorn: Detektion, Training und Regulierung

Angesichts der Ergebnisse wird der dringende Bedarf an fortschrittlichen Werkzeugen und speziellem Training für Mediziner deutlich. Forscher fordern die Entwicklung ausgefeilter Detektionsalgorithmen, die die digitalen Fingerabdrücke generativer KI-Modelle identifizieren können.

Neben technologischen Lösungen sind Bildungsinitiativen notwendig. Radiologen müssen für diese neue Realität geschult werden – mit Fokus auf die spezifischen Merkmale synthetischer Bilder. Regulierungsbehörden und Gesundheitsorganisationen müssen zudem politische Rahmenbedingungen schaffen, um die Erstellung und den Missbrauch von Deepfake-Bildern zu adressieren.

Die medizinische Gemeinschaft muss proaktiv reagieren, in technologische Sicherheitsvorkehrungen und menschliche Expertise investieren. Nur so kann das Versprechen der KI in der Gesundheitsversorgung eingelöst werden, ohne das Vertrauen in medizinische Diagnosen zu gefährden.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂĽr. Immer. Kostenlos.
boerse | 68976026 |