Gibt gerne vollmundige Versprechen ab: Tesla-Chef Elon Musk

Foto: Lucy Nicholson / REUTERS

Autos, die von ganz alleine von Punkt A nach Punkt B finden, während sich die Passagiere entspannt zurücklehnen können: Diese Vision teilen viele Unternehmen. Die Art, wie man dort hinkommt, variiert aber stark. Während die meisten Firmen ihre Systeme seit Jahren mit professionellen Fahrern testen, die im Notfall eingreifen können, hat Tesla einen etwas forscheren Weg gewählt. Die Autopilot-Systeme werden kurzerhand in die Hände normaler Fahrzeugbesitzer gelegt. Das hat über die Jahre immer wieder zu schweren Unfällen geführt, von denen sich Tesla aber im eigenen Tun nicht abhalten lässt. Ein aktueller Vorfall liefert Kritikern dieser Praxis nun neuen Wind in ihren Segeln.

Unfall

Laut einer Meldung an die US-amerikanische National Highway Traffic Safety Administration (NHTSA) hat die "Full Self-Driving"-(FSD)-Beta einen schweren Unfall verursacht. Der Vorfall ereignete sich bereits am 3. November, ein damit ausgestattetes Tesla Model Y war kurzerhand beim Abbiegen in die falsche Spur gewechselt. Der Fahrer hat nach eigenen Angaben dann versucht zu intervenieren, das Auto habe aber dagegen gehalten und sich auf die falsche Spur gedrängt, wodurch es zu einem Zusammenstoß mit einem anderen Fahrzeug und schweren Beschädigungen gekommen sei. Zumindest wurden bei dem Vorfall keine Personen verletzt.

"Die NHTSA ist über die betreffende Verbraucherbeschwerde informiert und steht in Kontakt mit dem Hersteller, um zusätzliche Informationen zu sammeln", bestätigt ein Sprecher der Behörde den Vorfall. Bei Tesla wollte man sich zu dem Unfall hingegen zunächst nicht äußern.

Kritik

Die Entscheidung Teslas den "Full Self Driving"-Modus einfach mit normalen Kunden zu testen, hat dem Unternehmen in den vergangenen Monaten viel Kritik eingebracht. So sprachen Kritiker von einem komplett verantwortungslosen Vorgehen. Auf Youtube kursierten schnell Videos, die zum Teil schwere Fehler des Systems zeigten, bei denen nur der rasche Eingriff der Fahrer Schlimmeres verhinderte. Zudem hat das Unternehmen mehrfach Betaversionen wegen grober Fehler zurückziehen müssen.

Kritik gibt es aber auch an dem Namen dieses Dienstes. Handelt es sich dabei doch in WIrklichkeit nicht um das, was man in der Branche sonst als vollständig autonom fahrendes System bezeichnet, und wie es etwa Konkurrenten wie Waymo bietet. Teslas System sei technisch gesehe eher ein erweitertes Assistenzsystem, das auf keinen Fall ohne menschliche Aufsicht fahren könne. Mit dem Namen "Full Self Driving" würde aber den Tesla-Käufern aber etwas anderes suggeriert – da helfe es auch nur bedingt, dass der Hersteller explizit darauf verweist, dass man bei der Nutzung der Beta immer eingriffsbereit sein müsse.

All das hat Tesla zuletzt auch vermehrtes Interesse der Behörden beschert. So hat etwa die US-Regierung bereits im August eine Untersuchung zu mehreren Unfällen mit dem klassischen Autopilotsystem von Tesla angekündigt. (red, 13.11.2021)