Foto: APA/AFP/MARK RALSTON

Sicherheitsforscher haben erneut große Sicherheitslücken beim Autopiloten von Tesla entdeckt. So haben die Hacker des Keen Security Lab, einer Abteilung des chinesischen Konzerns Tencent, die Sensorik der Autos ausgetrickst, wie "Heise" berichtet. Dabei wurden Fahrbahnmarkierungen manipuliert, sodass die Teslas die Spur verloren. Zudem wurden gefälschte Markierungen eingesetzt, was dazu führte, dass die Autos sie als Führungslinien erkannten und in die Gegenfahrbahn fuhren.

Keine echten Markierungen

Das ist möglich, weil die Sensoren rein die Markierungen erkennen, Navigationsdaten oder andere Methoden werden nicht angewandt. Aus Sicht der Forscher ist das äußerst bedenklich – vor allem, weil es nicht einmal notwendig war, tatsächlich existierende Fahrbahnmarkierungen darzustellen. Stattdessen nutzten sie kleine rote Aufkleber. Somit sei es möglich, die Autos anhand von mutwilligen Manipulationen in potenzielle Gefahrensituationen zu bringen.

Softwarelücken aufgezeigt

Es ist nicht das erste Mal, dass das Keen Security Lab Teslas System auf Herz und Niere prüft. Bereits im vergangenen Jahr stellten die Sicherheitsforscher auf der Black Hat, einer Security-Messe in den USA, Lücken vor, die in der Software zu finden waren. Tesla lieferte später Updates aus, um sie zu beseitigen. (red, 3.4.2019)