KI-Sicherheitslücken, Schwachstellen

KI-Sicherheitslücken: KI findet jahrzehntealte Schwachstellen

15.04.2026 - 07:31:21 | boerse-global.de

Neue KI-Modelle finden eigenständig tausende unentdeckte Sicherheitslücken und zwingen Regierungen und Finanzkonzerne zu Notfallmaßnahmen. Die Cybersicherheitsbranche steht vor einem Paradigmenwechsel.

KI-Sicherheitslücken: KI findet jahrzehntealte Schwachstellen - Foto: über boerse-global.de

Neue KI-Modelle entdecken und nutzen nun eigenständig kritische Software-Schwachstellen, die seit Jahrzehnten unentdeckt blieben. Das zwingt Regierungen und Finanzkonzerne zu Notfalltreffen.

Autonome KI als Angriffs-Engine

Die jüngste Generation autonomer Künstlicher Intelligenz hat eine neue Stufe erklommen. Sie agiert nicht mehr nur als Assistent für menschliche Forscher, sondern als eigenständige Angriffsmaschine. Das bestätigen neue Evaluierungen des britischen AI Security Institute (AISI). Die sogenannten Frontier-Modelle durchforsten eigenständig jede gängige Betriebssystem- und Browser-Software. Sie finden dabei Tausende bisher unbekannte Sicherheitslücken. Die Entdeckungsgeschwindigkeit ist atemberaubend: Seit Mitte 2025 fließen monatlich über 10.000 neue Sicherheitsprobleme in globale Datenbanken ein – eine Verzehnfachung gegenüber Ende 2024.

Anzeige

Angesichts der rasanten Entwicklung autonomer KI-Angriffe müssen Unternehmen ihre IT-Sicherheit heute proaktiver denn je gestalten. Dieser kostenlose Report klärt auf, welche rechtlichen Pflichten und neuen Cyberrisiken Unternehmer jetzt kennen müssen, um sich wirksam zu schützen. Neue Cyberrisiken 2024: Jetzt kostenlosen Report anfordern

Besonders alarmierend: Die KI findet Fehler, die seit fast 30 Jahren im Code schlummern. Ein aktueller Bericht zeigt etwa einen 27 Jahre alten Bug im OpenBSD-Betriebssystem. Eine 16 Jahre alte Schwachstelle im FFmpeg H.264-Codec und eine 17 Jahre alte Lücke im FreeBSD-Netzwerkdateisystem (CVE-2026-4747) kamen ebenfalls ans Licht. Traditionelle automatische Testtools hatten diese Fehler über Millionen von Prüfungen hinweg nie entdeckt.

Projekt Glasswing: Exklusiver Zugang für Tech-Giganten

Der KI-Entwickler Anthropic hat auf den Erkenntnisschub reagiert. Mit Projekt Glasswing gewährt das Unternehmen einem exklusiven Kreis von Partnern Zugang zu seinem leistungsstarken Claude Mythos Preview-Modell. Zu den Partnern zählen Tech-Giganten wie Amazon Web Services, Apple, Google und Microsoft sowie die Großbank JPMorgan Chase. Das Ziel: Sie sollen kritische Infrastruktur proaktiv patchen, bevor böswillige Akteure die Schwachstellen ausnutzen können.

Die Leistungssprünge sind quantifizierbar. In einem 32-stufigen Simulationstest des AISI, der vom ersten Auskundschaften bis zur vollständigen Netzwerkübernahme reicht, schaffte die KI in drei von zehn Versuchen die komplette Abfolge. Im Schnitt absolvierte sie 22 Schritte. Frühere Modelle scheiterten nahezu vollständig an solchen autonomen Angriffsketten. Anthropic gibt für sein Mythos-Modell sogar eine 72,4%ige Erfolgsquote bei autonomen Angriffen an – auf Augenhöhe mit den besten menschlichen Sicherheitsforschern.

Doch Vorsicht ist geboten: Die Tests fanden in kontrollierten Umgebungen ohne aktive menschliche Verteidiger statt. In der realen Welt würden Sicherheitsalarme ausgelöst und Gegenmaßnahmen ergriffen.

Notfalltreffen bei Fed und Großbanken

Die Geschwindigkeit der Entwicklung hat höchste Regierungsebenen auf den Plan gerufen. Bereits in der zweiten Aprilwoche führten US-Notenbankchef Jerome Powell und Finanzminister Scott Bessent Notfallgespräche mit Führungskräften großer amerikanischer Banken. Die Sorge: KI-Modelle, die innerhalb von Minuten Schwachstellen finden, Exploits basteln und Angriffe ausführen können, bedrohen die Stabilität systemrelevanter Finanznetzwerke.

Die größte Befürchtung ist die Demokratisierung dieser Werkzeuge. Zwar beschränken Firmen wie Anthropic den Zugang zu ihren mächtigsten Modellen. Experten warnen jedoch, dass vergleichbare Fähigkeiten innerhalb von sechs bis achtzehn Monaten auch in die Hände staatlicher Angreifer gelangen könnten. Einige Nationalstaaten nutzen bereits große Sprachmodelle für die Schwachstellenforschung, vor allem bei Angriffen auf Energie- und Verteidigungssektoren.

Auch die EU-Kommission schlägt Alarm. Sie betont, dass die Überlegenheit der KI beim Finden und Ausnutzen von Softwarefehlern ein grundlegendes Umdenken in den Sicherheitsstrategien von Organisationen erfordert.

Das doppelte KI-Dilemma: Alte Fehler finden, neue machen

Die aktuelle Welle entdeckter Schwachstellen ist der Höhepunkt eines Trends, der 2024 mit Googles Project Naptime begann. Damals bewies KI erstmals, dass sie unbekannte Speichersicherheitslücken in Software wie SQLite finden kann. 2026 ist daraus eine autonome Offensiv-Engine geworden.

Die Kehrseite der Medaille: Während KI alte, von Menschen übersehene Bugs findet, produziert sie auch neue. Studien zeigen, dass 40 bis 62 Prozent des KI-generierten Codes Sicherheitslücken oder Designschwächen enthält. Oft führt er doppelt so viele hochkritische Probleme ein wie menschlich geschriebener Code.

Anzeige

Während die KI-Entwicklung neue Risiken schafft, nutzen Hacker bereits heute psychologische Schwachstellen aus, um in Firmennetzwerke einzudringen. Erfahren Sie in diesem kostenlosen Anti-Phishing-Paket, wie Sie Ihr Unternehmen in 4 Schritten effektiv gegen moderne Cyberkriminalität absichern. Kostenloses Anti-Phishing-Paket für Unternehmen herunterladen

Für die Cybersicherheitsbranche entsteht ein zweischneidiges Problem. Die Zeit zwischen Zielauswahl und funktionierendem Exploit schrumpft von Wochen auf Stunden. Jedes System, das über das offene Internet erreichbar ist, kann nun mit chirurgischer Präzision von autonomen Agenten gescannt und angegriffen werden. Die Branche reagiert mit einem Paradigmenwechsel: Weg von traditionellen Abschottungsstrategien, hin zu Verhaltensprofilen und "Zero Attack Surface"-Ansätzen.

Ausblick: Der einzige Gegner der KI ist die KI

Die Branche steuert auf ein Zeitalter der Hochautomatisierung zu. Der einzig plausible Schutz vor KI-gesteuerten Angriffen sind KI-gesteuerte Abwehrmaßnahmen. Experten sind sich einig: Nur defensive KI-Agenten, die Schwachstellen in Maschinengeschwindigkeit priorisieren, verifizieren und patchen können, werden mit der Flut kritischer Funde Schritt halten.

Das UK National Cyber Security Centre und das AISI drängen Organisationen dennoch zurück zu den Basics: Robuste Zugangskontrollen und regelmäßige Updates bleiben wirksam gegen viele autonome Angriffsversuche. Gleichzeitig fordern sie den Einsatz KI-gestützter Technologien zum Schutz kritischer Sektoren wie dem Gesundheitswesen.

Der Wettlauf wird sich künftig um die Qualität des Kontextwissens drehen. Der Sieger wird nicht nur das leistungsstärkste Modell haben, sondern dasjenige, das die spezifische Umgebung und die potenziellen Auswirkungen einer entdeckten Schwachstelle am besten versteht. Die Entdeckung jahrzehntealter Bugs ist eine eindringliche Warnung: Legacy-Systeme sind im KI-Zeitalter extrem verwundbar. Die KI kann jedes Schloss knacken, das sie sieht.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69156056 |