illustration in the style of a graphic novel of a robot disguised as a hacker with a black hoodie, sending spam emails. Light background. Vibrant colors. --ar 3:2
Dieses Bild wurde mit der KI Midjourney generiert. Der Prompt lautete: "illustration in the style of a graphic novel of a robot disguised as a hacker with a black hoodie, sending spam emails. Light background. Vibrant colors. --ar 3:2"
Midjourney/Der Standard

"Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich ... Echt nicht", schreibt der deutsche ZDF-"heute journal"-Moderator Christian Sievers auf der Plattform X (vormals Twitter). Verlinkt ist ein Video, in dem Sievers angeblich für ein "lukratives Investment" wirbt. Dahinter steckt freilich eine Betrugsmasche. Erstellt wurde das Fake-Video mithilfe künstlicher Intelligenz, verbreitet wird es über soziale Medien.

Tatsächlich ist es heutzutage weder schwierig noch teuer, derartige Fälschungen mit entsprechenden Tools zu erstellen. So bietet das US-Unternehmen Eleven Labs eine generative Sprach-KI, bei der bloß Text in ein Online-Formular eingegeben wird und anschließend eine äußerst natürlich wirkende Stimme diesen vorliest. Der Soundclip kann mit einem Klick heruntergeladen werden. Im Frühjahr hatte das Tool bereits für Negativschlagzeilen gesorgt, nachdem es von Usern verwendet wurde, um die Stimme der Schauspielerin Emma Watson Passagen aus Adolf Hitlers Mein Kampf vorlesen zu lassen.

Als Reaktion darauf änderte Eleven Labs das Preismodell: Wer gezielt bestimmte Stimmen klonen will, muss dafür bezahlen – und zwar einen Dollar pro Monat, um zehn Stimmen klonen zu können. Um eine Stimme zu klonen, sind nur wenige Minuten an Audiomaterial nötig, damit wirbt der Anbieter. Möglich ist auch, die Fake-Stimme in einer anderen Sprache sprechen zu lassen.

Mit dem Erstellen ganzer Fake-Videos sorgte vor wenigen Wochen ein Tool namens Hey Gen für Aufsehen. Dieses ermöglicht, Personen in Videos in einer anderen Sprache sprechen zu lassen. Dabei werden sogar die Lippenbewegungen des Sprechers optisch an die gesprochenen Laute angepasst.

Das Missbrauchspotenzial ist hier, wie bei dem Tool von Eleven Labs, groß – und das Problem ist: Selbst, wenn diese beiden Unternehmen rigorose Sicherheitsmaßnahmen einführen, würden neue Anbieter diese Lücke füllen und Kriminellen die Tools zur Verfügung stellen. KI ist zum Massenphänomen geworden – und sie kann für kreative Projekte und das Lösen von Hausübungen ebenso wie für kriminelle Aktivitäten eingesetzt werden.

Österreich ist anders

Doch wie präsent ist die Gefahr bereits? Das Fälschen sei tatsächlich leicht, und nicht nur die Stimmen von Prominenten und Nachrichtensprechern, sondern auch die von Privatpersonen lassen sich als Trainingsmaterial via Social Media sammeln, bestätigt Thorsten Behrens, Projektleiter bei Watchlist Internet, einer Plattform, die online vor diversen Betrugsmaschen in Österreich warnt. Behrens betont aber auch, dass gefälschte Stimmen in Deutschland derzeit ein noch größeres Problem seien als in Österreich. Ein Grund dafür könne sein, dass hiesige Dialekte von der Software noch schwerer nachzuahmen seien als die bundesdeutschen. Hierzulande setzt man noch eher auf gefälschte Websites, die auf entsprechende Betrugsseiten führen: Auch ORF-Anchor Armin Wolf warnte zuletzt auf X vor einem derartigen Schwindel.

Dass KI aber früher oder später auch in Österreich verstärkt für Betrug eingesetzt wird, daran hat Behrens ebenso wenig Zweifel wie Klaus Steinmaurer, Geschäftsführer des Fachbereichs Telekom und Post bei der RTR. Die Gefahr sieht er nicht nur in Anzeigen auf Social Media, sondern auch in Weiterentwicklungen bereits heute verwendeter Praktiken, von der "Mama, mein Handy ist kaputt"-Nachricht über die vermeintliche Kontaktaufnahme der Bank, in der zur Angabe von persönlichen oder Kontodaten aufgefordert wird. Durch den Einsatz von KI-Tools werden Betrüger diese Maschen noch stärker einsetzen können, lautet die Prognose.

Steinmaurer rät hier – und das gilt nicht nur für zukünftige Entwicklungen, sondern auch für aktuelle Bedrohungen – zu einem gesunden Maß an Misstrauen. Vor allem, wenn man zur Eingabe von Daten aufgefordert werde, solle man skeptisch sein. Erhält man eine "Oma liegt im Krankenhaus, bitte überweise Geld"-Nachricht, so empfiehlt sich ein Nachfragen bei der entsprechenden Person über einen anderen Kanal.

Klaus Steinmaurer, RTR, in seinem Büro
Klaus Steinmaurer, Geschäftsführer des Fachbereichs Telekom und Post bei der RTR, rät im Netz zu einer guten Portion an Misstrauen.
Der Standard/Stefan Mey

Behrens wiederum verweist darauf, dass die Kriminellen professionell organisiert sind, teils eine persönliche Anbahnung erfolgt und lukrative Opfer sogar mit speziell auf sie zugeschnittenen Websites geködert werden. In dem Fall ist es auch unmöglich, vor den jeweiligen Websites zu warnen – weshalb auch Behrens in erster Linie zu Skepsis rät. Werden künftig etwa auch Stimmen via KI gefälscht, könne man sich mit den Verwandten ein Codewort oder eine Information ausmachen, die im Zweifelsfall ausgetauscht werden kann. So kann die Identität der anderen Person geprüft werden, egal wie professionell deren Stimme gefälscht wurde.

Ist man dennoch Opfer eines Betrugs geworden, rät Behrens, den Kontakt zu den Tätern abzubrechen und auf keinen Fall zu versuchen, an das verlorene Geld zu kommen. Denn so laufe man Gefahr, auf einen Recovery-Scam hereinzufallen, bei dem man ein weiteres Mal betrogen wird. Einen Versuch sei es wert, bei der eigenen Bank die Zahlung stoppen zu lassen oder zumindest die IBAN der Betrüger auf eine schwarze Liste setzen zu lassen. Ganz sicher ist dies freilich auch nicht, denn die Kriminellen wechseln ihre Kontodaten rasch, um solchen Sperren zu entgehen.

Menschliche Schwächen

Dass die Menschen als die größte Sicherheitsschwachstelle gelten, ist nicht nur im privaten, sondern auch im beruflichen Kontext ein Thema. Da ist das versehentliche Leaken vertraulicher Dokumente über einen falschen Mailverteiler nur die Spitze des Eisbergs – und einem Irrtum geschuldet.

Kriminelle bedienen sich anderer Methoden. Beliebt ist etwa der CEO-Fraud: Hier geben sich Betrüger als Führungskräfte des Unternehmens aus und drängen die Angestellten, eine Überweisung zu tätigen. Mittels KI erhalten die Täter nun zusätzlichen Rückenwind, erläutert Thomas Arnoldner, CEO der Telekom Austria. Sie schicken automatisiert E-Mails an alle Adressen eines Unternehmens, um auf Basis der erhaltenen Abwesenheitsnotizen von einer KI ein detailliertes Organigramm erstellen zu lassen. Darauf aufbauend können sie besser einschätzen, welche Führungskräfte welchen Mitarbeitern vorstehen, und so ihre Angriffe gezielt planen.

Beispiele wie der CEO-Fraud zeigen laut Arnoldner, dass es nicht reiche, wenn die Mehrheit des Personals mit solchen Bedrohungen umzugehen weiß – denn es braucht nur eine einzige Person, die falsch reagiert. Dann ist der Schaden angerichtet. Ähnlich verhält es sich bei Privatpersonen: Spam- und Phishing-Nachrichten werden an Millionen Menschen verschickt – wenn nur ein Promille davon auf die Masche hereinfällt, waren die Kriminellen erfolgreich. Auch im beruflichen Bereich gilt also: Skepsis ist das A und O, dieses sollte durch Schulungen gefördert werden.

Zurück zum Fall von Christian Sievers: Der ARD-Moderator wirft Facebook und anderen Plattformen vor, auf diese Missstände bloß mit einem Achselzucken zu reagieren. Tatsächlich präsentierte Mark Zuckerberg, CEO von Facebooks Mutterkonzern Meta, vergangene Woche eine Plattform, mit der künftig jedermann einen eigenen KI-Chatbot generieren kann, Programmierkenntnisse seien nicht erforderlich. Dass dies riesiges Potenzial für kreative Projekte birgt, bezweifelt niemand. Die Gefahr von Missbrauch ist freilich mindestens genauso groß. (Stefan Mey, 30.9.2023)