Links das manipulierte Tempolimit, rechts das Tesla-Display.

Foto: Mcafee

Nicht jeder ist von der Zukunft selbstfahrender Autos überzeugt. Zu viele Fragezeichen und vor allem Sicherheitsaspekte sind noch offen. Ein Experiment der US-Cybersicherheitsfirma McAfee dürfte das Vertrauen in autonome Fahrzeuge zumindest nicht gesteigert haben. Die Forscher haben mit einem minimal manipulierten Geschwindigkeitsbegrenzungsschild zwei selbstfahrende Tesla-Modelle dazu gebracht, statt der auf dem Schild eigentlich erlaubten 56 km/h (35 Meilen pro Stunde) auf 136 km/h (85 mph) beschleunigen zu wollen, wie "Technology Review" des Massachusetts Institute of Technologie berichtet.

3 oder 8

"Wollen" deshalb, weil der Forscher am Steuer das Experiment bei 50 mph abgebrochen hat. Denn das Video hat bereits zuvor bewiesen, dass der Autopilot auf das Straßenschild reingefallen ist. Basis war ein originales 35 mph-Begrenzungsschild. Die Forscher haben jedoch den mittleren Strich des Dreiers mit einem schmalen schwarzen Klebstreifen etwas verlängert.

Das MobilEye EyeQ3 Kamerasystem des Teslas erkannte deshalb keine Drei mehr, sondern eben eine Acht. Mit einer brenzligen Folge: Denn das Kamerasystem ist dafür zuständig, die Umgebung wahrzunehmen und den Tempomaten des Autos mit entsprechenden Daten zu füttern. Aus 35 wurden so 85 mph. Sowohl das Tesla Model X (Baujahr 2016) als auch das Model S fielen darauf rein, sobald der Fahrer den Fuß vom Gaspedal nahm und der Tempomat übernahm.

Patrick Howell O'Neill

Vorbereitung auf Zukunft

Die Forscher betonen, dass sie mit ihrem Experiment auf einem leerstehenden Parkplatz keinesfalls Angst schnüren wollten, sondern vielmehr Kunden und Hersteller für solche potenzielle Schwachstellen sensibilisieren. "Denn zukünftig sollen diese Systeme ja Aufgaben übernehmen, die zuvor von Menschen ausgeführt werden", so die Forscher weiter.

Ein Mobileye-Sprecher verteidigte das eigene Kamerasystem und sagte, dass auch Menschen den manipulierten 35er als 85 wahrgenommen hätten. Außerdem werde die Technologie in selbstfahrenden Autos nicht nur auf Kamerasensoren basieren, sondern durch andere Technologien und Daten, etwa "Crowdsourced Mapping", unterstützt. Tesla wollte dazu keinen Kommentar abgeben, bestätigte aber das Ergebnis des Experimentes. Die Kameratechnologie wurde seither verbessert. Neuere Versionen fielen nicht mehr auf diesen Trick herein, so die McAfee-Forscher.

Nicht das erste derartige Experiment

Dies ist nicht das erste Mal, dass ein selbstfahrendes Auto mit vermeintlich einfachen Manipulationen zu Handlungen gebracht wurde, die im realen Straßenverkehr gefährlich gewesen wären. 2019 wurde bekannt, dass ein selbstfahrendes Auto in einem anderen Experiment ein Stoppschild als 45mph-Tempolimit fehlinterpretiert hat. Außerdem fuhr ein Tesla in den Gegenverkehr. Auf der Fahrbahn angebrachte Sticker hatten ihn dazu bewegt. (red, 19.2.2020)