Anthropic-Leak, KI-Code

Anthropic-Leak: KI-Code wird zur Malware-Falle

04.04.2026 - 04:09:44 | boerse-global.de

Ein versehentlicher Code-Leak des KI-Tools Claude Code wird von Hackern genutzt, um Entwickler mit Schadsoftware zu infizieren. Der Vorfall offenbart systemische Sicherheitsrisiken in der KI-Branche.

Anthropic-Leak: KI-Code wird zur Malware-Falle - Foto: über boerse-global.de

Ein versehentlicher Quellcode-Leak beim KI-Pionier Anthropic hat eine globale Sicherheitskrise ausgelöst. Cyberkriminelle nutzen den geleakten Code von Claude Code als Köder, um Entwickler mit Schadsoftware zu infizieren.

Die Sicherheitslücke entstand durch einen simplen Verpackungsfehler. Bei einem Routine-Update für das KI-Tool Claude Code wurde am 1. April eine 60 MB große Debug-Datei im öffentlichen npm-Registry veröffentlicht. Diese Datei enthielt die vollständige Quellcode-Map, über die sich der gesamte Codebaum rekonstruieren ließ. Insgesamt gelangten so rund 513.000 Zeilen proprietären Codes an die Öffentlichkeit – ein Einblick in die Architektur einer der weltweit führenden KI-Entwicklungshilfen.

Anzeige

Der aktuelle Quellcode-Leak zeigt einmal mehr, wie schnell vermeintlich sichere Systeme zum Ziel von Kriminellen werden können. In diesem kostenlosen E-Book erfahren Unternehmer und IT-Verantwortliche, wie sie Sicherheitslücken proaktiv schließen und ihre Firma vor modernen Cyberangriffen schützen. Gratis E-Book: Cyber Security Trends 2024 jetzt herunterladen

Anthropic betont, es handle sich um menschliches Versagen, nicht um einen gezielten Angriff. Kundendaten oder KI-Modelgewichte seien nicht betroffen gewesen. Doch die Löschung gestaltet sich schwierig: Trotz über 8.000 DMCA-Takedown-Requests in den ersten 48 Stunden verbreiteten sich die Daten rasant auf Plattformen wie GitHub.

Vom Code-Leak zur aktiven Bedrohung

Seit dem 3. April hat sich die Lage dramatisch verschärft. Die Gefahr liegt nicht mehr im Diebstahl geistigen Eigentums, sondern in aktiver Cyberkriminalität. Sicherheitsfirmen wie Zscaler warnen: Hacker nutzen den „Claude Code Leak“ jetzt als hochwirksamen Köder für Social-Engineering-Angriffe.

Sie erstellen gefälschte GitHub-Repositories und Websites, die den „vollständigen geleakten Code“ oder „freigeschaltete“ Versionen des KI-Tools anbieten. Der Download entpuppt sich als Trojaner. Eine verbreitete Schadsoftware, von Forschern „laughing rat“ getauft, stiehlt Browser-Cookies, Passwörter und Krypto-Wallet-Schlüssel. Teilweise hinterlässt die Malware sogar eine höhnische Nachricht an das Opfer.

Die Angreifer zielen gezielt auf Software-Entwickler ab – eine Gruppe mit oft weitreichenden Zugiffsrechten auf firmeninterne Systeme. Einige schaffen es sogar, gefälschte Visual Studio Code-Erweiterungen zu platzieren, die angeblich die geleakten Claude-Features integrieren. Damit installieren sich Entwickler unbeabsichtigt eine Hintertür direkt in ihre Entwicklungsumgebung.

Anzeige

Phishing-Versuche und psychologische Manipulationstaktiken wie beim aktuellen Anthropic-Vorfall sind für Unternehmen heute ein massives Risiko. Dieser kostenlose Leitfaden zeigt in 4 Schritten, wie Sie die psychologischen Schwachstellen bei Angriffen entlarven und Ihre Organisation effektiv gegen Hacker absichern. Anti-Phishing-Paket für Unternehmen kostenlos sichern

Systemrisiko für die gesamte KI-Branche

Der Vorfall ist kein Einzelfall. Er folgt auf eine Serie von KI-Sicherheitslücken, die Anfang des Jahres bekannt wurden. Experten sehen ein systemisches Problem: Angreifer verlagern ihren Fokus zunehmend auf die KI-Lieferkette.

Die geleakten internen Notizen und Architekturdetails bieten Kriminellen eine Art Bauplan für künftige Angriffe. Sie können nun gezielter „Jailbreak“-Prompts entwickeln oder logische Schwachstellen finden, die hinter der Closed-Source-Fassade verborgen blieben. Besonders brisant: Der Leak betrifft ein agentisches KI-Tool – Software, die eigenständig Aktionen auf einem Computer ausführen kann. Ist dieser Code öffentlich, finden Angreifer leichter Wege, die KI zu missbrauchen, etwa für unautorisierte Dateilöschungen oder Zugriffe auf Firmennetzwerke.

Reaktion der Industrie: Mehr Scanning, mehr Skepsis

Als Reaktion auf die Malware-Kampagnen verschärfen Plattformen wie GitHub ihre automatisierten Scan- und Löschprozesse für Repositories mit den geleakten Dateien. Antiviren-Hersteller aktualisieren ihre Signaturen, um die neuen Schadprogrammvarianten zu erkennen.

Anthropic selbst will künftig automatische Safeguards etablieren, um ähnliche Fehler zu verhindern. Dazu gehören das strikte Entfernen von Source-Maps bei öffentlichen Releases und strengere Audits der CI/CD-Pipelines.

Sicherheitsexperten fordern ein grundsätzliches Umdenken. Die Grenze des Vertrauens zwischen KI und lokalem System verschwimmt. Die Branche müsse möglicherweise zu einem „Zero-Trust“-Modell für KI-Agenten übergehen, bei dem jede Aktion in einer Sandbox läuft und explizite Genehmigungen benötigt.

Für Anthropic kommt der Vorfall zu einem ungünstigen Zeitpunkt. Das Unternehmen bereitet Berichten zufolge einen Börsengang (IPO) für später im Jahr vor. Der „menschliche Fehler“ wirft Fragen zur operativen Reife auch bei führenden KI-Laboren auf.

Die Folgen des Leaks werden noch Monate spürbar sein. Für Entwickler gilt höchste Vorsicht: KI-Tools sollten ausschließlich über offizielle Kanäle bezogen werden. Der Wettlauf um die leistungsfähigste KI wird zunehmend zu einem Wettlauf um die resilienteste – denn die Werkzeuge für mehr Produktivität erweisen sich als perfekte Waffen in der Hand von Hackern.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
boerse | 69068669 |