Bild nicht mehr verfügbar.

Ein Tesla Model X.

Foto: Reuters

Der "Autopilot" von Tesla-Autos wird von vielen Fahrern geschätzt, war aber auch immer wieder Anlass für sehr kontroverse Diskussionen. Gerade die oft sehr offensive Werbung des Autokonzerns, die nach Ansicht von Kritikern suggeriert, er würde das Auto komplett autonom fahren lassen, sorgte auch schon für erste Gerichtsurteile, zumal auch schon Fahrer tödlich verunglückten, während sie sich auf ihn verließen.

Doch bis diese und andere Systeme tatsächlich zuverlässig, sicher und ohne menschlichen Einfluss von A nach B fahren können, dürfte noch einige Zeit vergehen. Forscher der israelischen Ben-Gurion-Universität haben in den vergangenen zwei Jahren mehrere intelligente Assistenzsysteme auf Anfälligkeiten untersucht. Und dabei festgestellt, dass sie sich nach wie vor sehr einfach verwirren lassen, berichtet "Wired".

Cyber Security Labs @ Ben Gurion University

Staus und Verkehrsunfälle

Konkret reichen Lichtprojektionen oder Bilder, die für Sekundenbruchteile zu sehen sind, bereits aus, um ein Auto reagieren zu lassen. Wird der Kamera vorgegaukelt, ein Passant überquere die Straße, so führt dies zu einer Notbremsung. Allerdings müssen Angreifer nicht einmal Zugriff auf das System eines Autos haben, um Verwirrung zu stiften.

Laut den Wissenschaftlern reicht es, wenn böswillige Personen es schaffen, eine bildschirmbasierte Werbetafel zu übernehmen. Auf einer solchen für einen für Menschen während des Fahrens kaum wahrnehmbaren Moment lang ein Verkehrszeichen einzublenden, reicht aus, um Autopilot und Co in die Irre zu führen. Auf diese Weise könnten Staus oder gar Verkehrsunfälle ausgelöst werden, bei denen die Ursachenermittlung und Ausforschung der Täter für die Behörden extrem schwer wäre.

0,42 Sekunden

Es reichen ein paar Einzelbilder in einer Animation, um Autos dazu zu bringen, zu bremsen oder Ausweichmanöver zu beginnen, erklärt Yisroel Mirsky, der an der Forschung beteiligt war. In Experimenten gelang es etwa, einen Tesla Model X zum Anhalten zu bewegen, indem man das Abbild eines Menschen für einen Sekundenbruchteil auf einen Baum projizierte.

Foto: Ben Gurion University

Bei animierten Werbetafeln reichten die Einblendung einer Stopptafel für 0,125 Sekunden, um Autos mit "Mobileye"-Kameratracking zum Anhalten zu bewegen. Für Teslas Autopilot mussten Verkehrsschilder für 0,42 Sekunden angezeigt werden, um das System zuverlässig herein zu legen. Getestet wurde mit der Autopilot-Version HW2.5, sowie mit der aktuellen Ausgabe 3.0.

Erprobt wurde all dies mit einer Werbetafel an einer kleinen Straße, die etwa die Größe eines Fernsehers aufwies. Gelingt es Angreifern, eine solche Anzeige in Großplakatformat zu übernehmen, wie sie in einigen Ländern häufig entlang von Bundesstraßen und Autobahnen zu finden sind, sei der potenzielle Schaden noch viel größer.

Hoffnungsträger Lidar

Es ist nicht die erste Anfälligkeit solcher Systeme, die von Forschern aufgespürt wurde. Immer wieder konnten Reaktionen des Systems auf verschiedene Weise getriggert werden. Teslas Autopilot ließ sich etwa durch Sticker auf der Straße zum automatischen Spurwechsel verleiten. Die Gefahr solcher Angriffe liegt auch darin, dass viele Fahrer sich zu stark auf Assistenzsysteme verlassen und nicht mehr mit 100-prozentiger Aufmerksamkeit fahren.

Zumindest aber gibt es Hoffnung auf eine technische Verbesserung der Situation. Einerseits ist das laserbasierte Raumerkennungssystem Lidar, das in vollautonomen Autos wie jenen von Waymos zum Einsatz kommt, gegen solche Attacken unempfindlich. Andererseits haben die Wissenschaftler selbst eine Software namens "Ghostbusters" entwickelt, die auf Basis verschiedener Kriterien in der Lage ist, viele "Phantombilder" auch als solche zu erkennen. (red, 12.10.2020)