KI-gestützter Cyberangriff: Google deckt ersten Zero-Day-Exploit auf
12.05.2026 - 07:11:18 | boerse-global.deGoogle hat einen neuartigen Cyberangriff vereitelt, bei dem erstmals Künstliche Intelligenz zur Entwicklung eines Zero-Day-Exploits eingesetzt wurde.
Der Google Threat Intelligence Group (GTIG) gelang die Identifizierung und Abwehr eines Angriffs, der auf eine Massenausbeutung von Sicherheitslücken abzielte. Die Angreifer nutzten KI, um eine Schwachstelle in einem Open-Source-Webverwaltungstool auszunutzen und die Zwei-Faktor-Authentifizierung zu umgehen. Der Vorfall markiert nach Einschätzung von Sicherheitsexperten den Beginn einer neuen Ära, in der generative Modelle von kriminellen Gruppen zur Beschleunigung von Angriffen eingesetzt werden.
Da Angreifer zunehmend KI nutzen, um Sicherheitslücken automatisiert auszuspähen, stehen besonders Unternehmen vor neuen technologischen Herausforderungen. Dieser kostenlose Report klärt auf, welche rechtlichen Pflichten und Bedrohungen Unternehmer jetzt kennen müssen. Neue KI-Gesetze und Cyberrisiken jetzt verstehen
Technische Merkmale des KI-generierten Schadcodes
Die Untersuchung der GTIG förderte mehrere charakteristische Merkmale zutage, die auf eine Erstellung des Exploit-Skripts durch große Sprachmodelle hindeuteten. Die Analysten entdeckten in dem Python-basierten Skript einen halluzinierten CVSS-Score – ein typisches Phänomen bei KI-Modellen, die gelegentlich plausibel klingende, aber faktisch falsche Daten generieren. Zudem wies der Code eine hochstrukturierte Formatierung auf, die charakteristisch für die Ausgabe moderner Programmier-Assistenten ist.
Welches Modell die Angreifer genau verwendeten, bleibt unbestätigt. Die Google-Forscher stellten jedoch klar, dass ihr eigenes Modell Gemini nicht an der Erstellung des Exploits beteiligt war. Der Bericht weist darauf hin, dass kriminelle Gruppen verschiedene Modelle nutzen, darunter auch OpenClaw. Parallel dazu beobachten die Geheimdienste ein wachsendes Interesse staatlich gesteuerter Akteure – insbesondere aus China und Nordkorea – an KI-gestützter Schwachstellensuche.
John Hultquist von der GTIG betonte, dass die Ära der KI-gesteuerten Sicherheitslücken-Ausbeutung offiziell angebrochen sei. Zwar würden diese Modelle genutzt, um die Angriffsentwicklung zu beschleunigen, doch seien sie noch nicht außerhalb der Reichweite moderner Abwehrmaßnahmen. Google setzt als Reaktion auf die sich wandelnde Bedrohungslage weiterhin eigene KI-basierte Verteidigungswerkzeuge wie Big Sleep und CodeMender ein, um Schwachstellen zu identifizieren und zu schließen, bevor Angreifer sie ausnutzen können.
Diplomatischer und regulatorischer Druck auf KI-Entwickler
Die Zunahme spezialisierter Cybersicherheitsmodelle hat einen komplexen diplomatischen Dialog zwischen Technologieunternehmen und internationalen Regulierungsbehörden ausgelöst. OpenAI bot der Europäischen Kommission kürzlich Zugang zu seinem Modell GPT-5.5-Cyber an, das speziell zur Identifizierung von Software-Schwachstellen entwickelt wurde. Vermittelt wurde dieses Angebot durch den früheren britischen Finanzminister George Osborne, der den Vorschlag an die Kommission und verschiedene Mitgliedsstaaten weiterleitete.
Die Europäische Kommission begrüßte diesen Schritt als bedeutenden Fortschritt in Richtung Transparenz. Der Zugang soll als begrenzte Vorschau für geprüfte Cybersicherheitsteams innerhalb der Europäischen Union bereitgestellt werden. Im Gegensatz dazu hat Anthropic laut Kommission noch keinen ähnlichen Zugang zu seinem Mythos-Modell gewährt, das vor etwa einem Monat veröffentlicht wurde und für seine hohe Leistungsfähigkeit bei der Identifizierung von Netzwerkschwachstellen bekannt ist. Zwar haben EU-Beamte in den letzten Wochen mehrfach mit Anthropic-Vertretern gesprochen, eine Einigung über den Modellzugang steht jedoch noch aus.
In den USA bereitet die Trump-Administration offenbar eine Executive Order zur KI-Sicherheit vor. Aktuelle Entwürfe deuten auf einen Rahmen hin, der eher auf freiwillige Zusammenarbeit zwischen privaten KI-Unternehmen und Regierungsbehörden setzt, anstatt auf verpflichtende Tests vor der Veröffentlichung von Modellen. Interne Diskussionen der Administration zeigen zudem eine Debatte darüber, inwieweit US-Geheimdienste befugt sein sollten, kommerzielle KI-Modelle auf potenzielle nationale Sicherheitsrisiken zu prüfen.
Sicherheitslücken in KI-Produktivitätssuiten
Während Kriminelle KI als Waffe erforschen, gerät die Sicherheit der KI-Werkzeuge selbst zunehmend in den Fokus. Am 11. Mai 2026 offenbarten Sicherheitsforscher drei kritische Schwachstellen in Microsoft 365 Copilot und der Copilot Chat-Funktion im Edge-Browser. Diese als CVE-2026-26129, CVE-2026-26164 und CVE-2026-33111 identifizierten Lücken erhielten einen CVSS-Schweregrad von 7,5.
Die Schwachstellen hätten Angreifern theoretisch ermöglicht, ohne Benutzerinteraktion auf sensible Unternehmensdaten zuzugreifen – darunter E-Mails, Microsoft Teams-Chats und SharePoint-Dateien. Microsoft bestätigte, dass bereits serverseitige Patches implementiert wurden, sodass keine manuellen Updates für Unternehmenskunden erforderlich sind.
Parallel dazu zeigen Forschungen aus Microsofts eigenen Laboren die aktuellen Grenzen von KI-Agenten bei der Bewältigung komplexer, langwieriger Aufgaben. Im DELEGATE-52-Benchmark verloren prominente Modelle wie GPT-5.4, Claude 4.6 und Gemini 3.1 Pro im Durchschnitt 25 Prozent des Dokumenteninhalts über 20 Interaktionen hinweg. Werden diese Modelle in einer agentischen Funktion eingesetzt – bei der sie Aufgaben autonom ausführen sollen – sinkt ihre Leistung um weitere 6 Prozent. Lediglich Aufgaben, die direkte Python-Programmierung erforderten, erreichten eine Zuverlässigkeit von 98 Prozent.
Verschiebung der Zeitpläne für internationale KI-Governance
Die rasche Entwicklung KI-gestützter Bedrohungen fällt mit einer Neujustierung regulatorischer Fristen in wichtigen Rechtsräumen zusammen. Am 7. Mai 2026 einigten sich die EU-Mitgliedstaaten auf eine Überarbeitung des Zeitplans für das KI-Gesetz. Entwickler von Hochrisiko-KI-Systemen – darunter solche, die in kritischer Infrastruktur, Biometrie, Bildung und Migration eingesetzt werden – haben nun bis Dezember 2027 Zeit, die Vorschriften zu erfüllen. KI-Systeme, die in bereits regulierte Produkte wie Spielzeug oder Maschinen integriert sind, erhielten eine weitere Verlängerung bis August 2028.
EU-Vertreter betonten, dass diese Verzögerungen kleinen und mittleren Unternehmen ausreichend Zeit zur Anpassung an die neuen Anforderungen geben sollen und keine Abschwächung der Regulierung darstellen. Das überarbeitete Gesetz führte zudem ein neues Verbot von ohne Zustimmung generierten „Nudify“-Inhalten ein. Auch in den USA schreitet die regionale Gesetzgebung voran: Colorado verabschiedete kürzlich ein aktualisiertes KI-Gesetz, SB26-189, das auf die Verhinderung algorithmischer Diskriminierung abzielt. Das Gesetz, das am 1. Januar 2027 in Kraft tritt, verpflichtet Unternehmen, Verbraucher über den Einsatz automatisierter Entscheidungstechnologie zu informieren und gewährt Einzelpersonen das Recht auf eine menschliche Überprüfung negativer Ergebnisse.
Angesichts der neuen Fristen und strengen Regeln des EU AI Acts für Hochrisiko-KI-Systeme ist eine frühzeitige Vorbereitung für Unternehmen unerlässlich. Ein kostenloser Download verschafft Ihnen den Überblick über Fristen und Risikoklassen, den Ihre Rechts- und IT-Abteilung jetzt braucht. EU AI Act in 5 Schritten verstehen
Ausblick auf KI-gesteuerte Cybersicherheit
Die erfolgreiche Abwehr des ersten KI-generierten Zero-Day-Exploits liefert eine Grundlage für das Verständnis, wie kriminelle Organisationen generative Technologie künftig nutzen werden. Branchenbeobachter sehen den Hauptvorteil für Angreifer derzeit in der Geschwindigkeit der Skripterstellung und der Fähigkeit, Open-Source-Repositories automatisiert nach ungepatchten Schwachstellen zu durchsuchen.
Der Fokus verschiebt sich zunehmend auf „KI für die Verteidigung“, um diesen automatisierten Bedrohungen entgegenzuwirken. Während staatlich gesteuerte Gruppen aus verschiedenen Regionen ein wachsendes Interesse an KI-gestützter Massenausbeutung zeigen, nutzt die Verteidigungsseite ähnliche Technologien zur Identifizierung halluzinierter oder unregelmäßiger Codemuster. Der anhaltende Dialog zwischen Unternehmen wie OpenAI und Anthropic und globalen Regulierungsbehörden wird maßgeblich darüber entscheiden, wie schnell Verteidigungsteams Zugang zu denselben Hochleistungsmodellen erhalten, die derzeit von böswilligen Akteuren erforscht werden.
Für die nahe Zukunft werden Unternehmenssicherheitsstrategien voraussichtlich die Überwachung von KI-Agentenaktivitäten und die Härtung von 2FA-Systemen betonen, da diese weiterhin primäre Ziele für automatisierte Angriffsversuche darstellen. Die jüngsten Erkenntnisse zur Modellleistung bei langlaufenden Aufgaben deuten zudem darauf hin, dass KI zwar schnell Exploit-Skripte generieren kann, die menschliche Aufsicht jedoch für die Aufrechterhaltung der Integrität komplexer Sicherheitsumgebungen unerlässlich bleibt.
So schätzen die Börsenprofis Aktien ein!
Für. Immer. Kostenlos.
