KI-Deepfakes: Betrüger nutzen Elon-Musk-Fälschungen für Millionenbetrug
24.01.2026 - 10:45:12Eine raffinierte Mischung aus Romance- und Investmentbetrug mit einer KI-generierten Imitation von Elon Musk hat ein weiteres Opfer gefordert. Die Schadenssumme liegt im sechsstelligen Bereich. Der Fall wird bekannt, während Cybersecurity-Forscher neue Daten veröffentlichen, die einen dramatischen Anstieg KI-gesteuerter Betrugsmaschen im Jahr 2025 belegen. Deepfake-Technologie wird zur Waffe der Wahl für Online-Kriminelle.
Neues Opfer fällt auf „Deepfake“-Liebesgeschichte herein
Die aktuellen Berichte schildern einen erschütternden Fall von „Pig Butchering“ – einem langfristigen Betrug, der Romance- und Investment-Köder kombiniert. Eine Frau glaubte, sich in einer geheimen Beziehung mit dem Tech-Milliardär zu befinden. Laut dem International Business Times hat das Opfer über mehrere Jahre hinweg beträchtliche Summen an die Betrüger überwiesen. Trotz Intervention der Familie ist die Frau weiter von der Echtheit des Imitators überzeugt.
Der Betrug begann demnach in den sozialen Medien. Ein gefälschtes Konto, das Musk darstellte, nahm Kontakt auf. Mit der Zeit nutzten die Kriminelle fortschrittliche Deepfake-Technologie für Videoanrufe. Sie imitierten Musks Stimme und Gesichtsbewegungen, um Vertrauen aufzubauen. Familienmitglieder, die den Fall auf Reddit teilten, um zu warnen, berichten, das Opfer sei psychologisch manipuliert worden. Es glaube, Musks Geschäftsprojekte und wohltätige Zwecke zu unterstützen.
Deepfakes und KI-gestützte Romance-Scams verursachen bereits hohe Schäden — viele Unternehmen und Verbraucher sind darauf nicht vorbereitet. Das kostenlose E‑Book „Cyber Security Awareness Trends“ erklärt, wie Angreifer KI-Techniken nutzen (inkl. Deepfake-Videoanrufe) und welche pragmatischen Schutzmaßnahmen sofort wirken. Es enthält leicht umsetzbare Schritte zur Stärkung von Awareness, Incident Response und technischen Kontrollen — auch ohne große Budgets. Jetzt kostenloses Cyber-Security-E-Book herunterladen
Dieser Fall zeigt die wachsende Komplexität von Romance-Scams. Im Gegensatz zum traditionellen „Catfishing“ mit statischen Fotos nutzen moderne Täter zugängliche KI-Tools für überzeugende Echtzeit-Interaktionen. Die Familie betont: Gerade die Videoanrufe hätten die Skepsis der Frau beseitigt. Ein Trick, der laut Sicherheitsexperten immer üblicher wird.
KI-Vorfallsdatenbank meldet Rekordniveau bei Betrug
Der neue Fall fällt mit dem Jahresbericht 2025 der „AI Incident Database“ zusammen. Das Projekt dokumentiert Schäden durch künstliche Intelligenz. Die am 22. Januar 2026 veröffentlichten Ergebnisse zeigen: Bekannte KI-Vorfälle erreichten 2025 einen Rekord von 346 Fällen.
Laut der von Cybernews ausgewerteten Analyse waren Deepfakes bei 179 dieser Vorfälle im Spiel – das ist mehr als die Hälfte aller gemeldeten Fälle. Die Daten deuten auf eine deutliche Verschiebung der kriminellen Taktik hin: 81 % der KI-bezogenen Betrugsfälle setzen nun auf Deepfake-Technologie.
Der Bericht stuft diese Vorfälle als großes Problem der öffentlichen Sicherheit ein, nicht als Nischen-Problem. Kriminelle zielen demnach nicht mehr nur auf vermögende Einzelpersonen ab. Sie nutzen Automatisierung, um ihre Angriffe auf die breite Öffentlichkeit auszuweiten. Die Herausgeber der Datenbank vermuten, dass die gemeldeten Zahlen nur einen Bruchteil des tatsächlichen Ausmaßes darstellen. Viele Opfer meldeten ihre Verluste aus Scham oder mangelndem Technologieverständnis nicht.
Serie von Betrugsfällen mit hohen Schadenssummen
Der neu bekannt gewordene Fall reiht sich in eine Serie von Betrügereien mit Musk-Imitatoren im vergangenen Jahr ein. Der Bericht der KI-Datenbank nennt mehrere Präzedenzfälle aus dem Spätjahr 2025.
Ein bemerkenswerter Fall betraf ein Paar in Florida, das 45.000 US-Dollar verlor. Ein Deepfake lockte mit einer angeblichen Tesla-Verlosung und Investment-Chance. In einem anderen Fall aus Ontario, Kanada, verlor ein Opfer etwa 1,7 Millionen US-Dollar durch ein Kryptowährungssystem, das ein gefälschtes Musk-Video bewarb. Diese Betrügereien nutzen oft den „Autoritätsbias“ aus. Sie missbrauchen das öffentliche Vertrauen in bekannte Persönlichkeiten, um kritisches Denken auszuschalten.
Der International Business Times merkt an: Während Musk aufgrund seines Reichtums und Medienpräsenz ein Hauptziel ist, werden auch andere Prominente missbraucht. Der Bericht erwähnt einen Fall aus Großbritannien, bei dem eine Witwe 500.000 Pfund an Betrüger verlor, die den Schauspieler Jason Momoa imitierten. Das zeigt die Vielseitigkeit des Deepfake-Werkzeugkastens.
Die Psychologie der „Pig Butchering“-Taktik
Sicherheitsanalysten weisen darauf hin, dass die Langlebigkeit des aktuellen Falls – er erstreckt sich über Jahre – typisch für „Pig Butchering“-Scams ist. Dabei pflegen die Betrüger monatelang eine tiefe emotionale Bindung zum Opfer, bevor sie um Geld bitten.
Experten der Better Business Bureau (BBB) und anderer Verbraucherschutzbehörden beobachten: Der Einsatz von KI hat diese Betrugsgeschichten deutlich wirksamer gemacht. Früher war eine Verweigerung von Videoanrufen ein Warnsignal. Heute kann ein Deepfake-Videoanruf als ultimativer „Identitätsbeweis“ dienen.
Laut TechRound basiert der Erfolg dieser Scams stark auf emotionalem Druck und Vertrautheit. Durch die Imitation von Stimme und Manierismen einer vertrauten oder bewunderten Person können Betrüger die finanzielle Vorsicht des Opfers außer Kraft setzen. Im vorliegenden Fall wurde der Frau berichtet, die Beziehung müsse wegen Musks Prominenz geheim bleiben – ein gängiges Mittel, um Opfer von besorgten Familienmitgliedern zu isolieren.
Reaktion von Industrie und Regulierung
Die Welle KI-gestützter Betrugsfälle führt zu Forderungen nach strengerer Regulierung und besseren Erkennungstools. Cybersecurity-Firmen entwickeln „Liveness Detection“-Systeme, um Deepfakes in Echtzeit zu identifizieren. Ihr Einsatz bleibt jedoch außerhalb des Unternehmensbankings begrenzt.
Im Finanzsektor beginnen Institute, verhaltensbasierte Betrugserkennung einzusetzen. Die Digitalbanking-Plattform Plumery kündigte am 14. Januar 2026 ein neues „AI Fabric“-System an. Es soll Banken helfen, KI sicher zu operationalisieren und möglicherweise anomale Transaktionsmuster bei Betrug zu erkennen.
Für Verbraucher bleibt Aufklärung die wichtigste Verteidigung. Sicherheitsprofis raten zu Skepsis bei unerbetenen Kontakten von Prominenten. Identitäten sollten über offizielle Kanäle verifiziert werden. Die US-Handelsaufsicht FTC und internationale Gegenstücke warnen weiterhin: Kein seriöser Milliardär wird online Geld oder geheime Investments von Fremden erbitten.
Mit der fortschreitenden Technologie wird die Grenze zwischen Realität und Fälschung weiter verschwimmen. Der tragische Fall des neuesten Opfers ist eine deutliche Mahnung: Im Zeitalter der generativen KI sollte Sehen nicht mehr gleich Glauben sein.
PS: Wenn Deepfakes mittlerweile persönliche Beziehungen und Finanzentscheidungen manipulieren, sind präventive Maßnahmen unerlässlich. Dieses Gratis‑Leitfaden fasst die wichtigsten KI-Regelungen, Awareness-Maßnahmen und Checklisten zusammen, mit konkreten Praxistipps gegen Phishing, Romance-Scams und CEO-Fraud. Perfekt für Unternehmen, die Mitarbeiter sensibilisieren und Abläufe zur schnellen Erkennung und Reaktion einführen wollen. Gratis E‑Book für bessere IT-Sicherheit sichern


