Symbolbild für eine Cyberattacke
Um Cyberangriffe zu optimieren, lassen sich Hacker von ChatGPT und ähnlichen KI-Tools offenbar schon gerne unter die Arme greifen.
APA/Lino Mirgeler

Eigentlich war es von Anfang an naheliegend: Wie es bei jeder neuen Technologie zuvor schon der Fall war, lotet die Menschheit auch bei der Anwendung großer Sprachmodelle die Grenzen in beide Richtungen aus. Eine neue Untersuchung von Microsoft und OpenAI bestätigt nun, dass Kriminelle KI-Tools wie ChatGPT nutzen, um ihre Cyberangriffe zu verbessern. Beide Unternehmen haben Versuche von staatlich unterstützten Gruppen beobachtet, die im Dienst von Russland, Nordkorea, dem Iran und China stehen sollen.

Konkret verwenden diese Gruppen laut Microsoft große Sprachmodelle für Aufgaben wie die Erforschung potenzieller Ziele, die Verfeinerung von Malware und die Entwicklung von Social-Engineering-Techniken. So soll die Strontium-Gruppe, die mit dem russischen Militärgeheimdienst in Verbindung gebracht wird, beispielsweise KI-Tools nutzen, um sich mit Satellitenkommunikationsprotokollen zu befassen. Diese Gruppe hat in der Vergangenheit bereits Cyberspionage betrieben und dabei auch politische Kampagnen wie die Präsidentschaftskandidatur von Hillary Clinton im Jahr 2016 ins Visier genommen.

Darüber hinaus hätten nordkoreanische Hacker der Thallium-Gruppe umfangreiche Sprachmodelle eingesetzt, um öffentlich gemeldete Schwachstellen zu untersuchen, Malware-Programmierung zu erleichtern und Inhalte für Phishing-Kampagnen zu erstellen. Auch iranische Akteure, die mit der Curium-Gruppe in Verbindung stehen, sollen diese Modelle verwendet haben, um Phishing-E-Mails und Schadcode zu erstellen, der sich der Erkennung durch Antivirensoftware entzieht. Chinesische Hacker mit Verbindungen zur Regierung nutzen ebenfalls große Sprachmodelle für Forschung, Skripterstellung, Übersetzungen und die Verbesserung ihrer bestehenden Tools.

KI gegen KI

Wie "The Verge" berichtet, hätten Microsoft und OpenAI zwar noch keine "nennenswerten Angriffe" unter Zuhilfenahme von großen Sprachmodellen entdeckt, seien aber aktiv dabei, Konten und Anlagen zu sperren, die mit diesen bösartigen Aktivitäten in Verbindung gebracht werden. Microsoft warnt an dieser Stelle auch vor KI-gestütztem Betrug. Als Beispiel führt der Konzern das Stimmenklonen an, bei dem bereits eine kurze Stimmprobe ausreichen kann, um ein Modell zu trainieren, das sich wie eine beliebige Person anhört. Selbst etwas so Harmloses wie eine persönliche Anrufbeantworteransage könnte demnach genutzt werden, um ausreichend Daten für bösartige Zwecke zu sammeln.

Um solchen und ähnlichen Bedrohungen zu begegnen, die sich weitgehend noch in Entwicklung befinden, wählt Microsoft offenbar den Ansatz, Feuer mit Feuer zu bekämpfen. In dem Fall scheint man nicht nur tatkräftig ein massives Problem für die Öffentlichkeit finanziert zu haben, sondern will auch gleich eine Lösung dazu verkaufen – nämlich den Einsatz von KI zu Verteidigungszwecken.

Das Unternehmen entwickelt einen "Security Copilot", einen KI-Assistenten, der Cybersecurity-Experten dabei helfen soll, Sicherheitsverletzungen zu erkennen und die riesigen Datenmengen zu verwalten, die von Cybersecurity-Tools erzeugt werden. Nach den jüngsten Cyberangriffen auf Microsofts Cloud-Plattform Azure und den Vorfällen, bei denen russische Hacker Führungskräfte des Unternehmens ausspioniert haben sollen, werde das Unternehmen immerhin auch seine Software-Sicherheitsmaßnahmen einer neuen Prüfung unterziehen. In dem Fall ist das mit oder ohne KI-Tool keine schlechte Idee. (red, 15.2.2024)