Ein neues Zonenmodell soll künftig in autonomen Fahrzeugen helfen, Gefahrensituationen frühzeitig zu erkennen.

Foto: Getty Images / iStock / gorodenkoff

In modernen Autos finden sich bis zu hundert Steuergeräte. So gut wie jede Funktion, vom Speichern der Sitzposition bis zum Anti-Blockier-System, kommuniziert über einen kleinen Computer mit dem Zentralrechner des Fahrzeugs. Diese Komplexität ist fehleranfällig, erfordert kilometerlange Verkabelung und hunderttausende Zeilen Code. Vereinfachung verspricht die Zonenarchitektur.

Hierbei wird das Auto in physische Bereiche unterteilt, etwa Frontbereich, Heckbereich, linker Außenbereich und so weiter. Die Idee dabei ist, dass sämtliche Daten der Komponenten einer Zone von einem lokalen Steuergerät, dem sogenannten Zonen-Controller, vorverarbeitet und erst dann über ein Highspeed-Ethernet-Netzwerk an den Zentralrechner gesendet werden. Dadurch sollen insbesondere selbstfahrende Autos in den Bereich des Realistischen rücken. Denn autonome Fahrzeuge müssen permanent enorme Datenmengen erfassen und verarbeiten.

Von der Einführung in Serienfahrzeuge ist das Zonenmodell zwar noch einige Jahre entfernt. Dennoch arbeiten Industrie und auch Forschungseinrichtungen schon jetzt daran. Etwa die Fachhochschule Wiener Neustadt im Projekt Zone Z. Es hat ein Budget von rund einer Million Euro und wird von der Österreichischen Forschungsförderungsgesellschaft FFG gefördert. Ziel ist die Entwicklung eines Zonen-Controllers für den Frontbereich eines autonomen Fahrzeugs.

Radfahrer und Fußgänger erkennen

Dabei sollen verschiedene Sensorarten die Umgebung erfassen und andere Verkehrsteilnehmer automatisiert erkennen. Die Projektkoordination liegt beim Automobilzulieferer ZKW Group aus Wieselburg, der auch die Entwicklung der Elektronik übernimmt. Ein weiterer Forschungspartner ist das Austrian Institute of Technology (AIT). "Unser Zonen-Controller hat unterschiedliche Aufgaben", sagt Markus Hochrainer, Leiter des Kompetenzzentrums für Applied Mechatronics der FH Wiener Neustadt. "Er soll einerseits dabei helfen, vorhandene Funktionen wie zum Beispiel der Scheinwerfer zu verbessern und außerdem zusätzliche Funktionen bieten."

Letzteres beinhaltet insbesondere das Erkennen vulnerabler Verkehrsteilnehmer wie Fußgänger oder Radfahrer. Als Anwendungsszenario ist dabei städtischer Verkehr definiert, was zwar nur vergleichsweise geringe Fahrgeschwindigkeiten bedeutet, dafür aber sehr heterogene Umgebungen. "Wir wollen in diesem Projekt zeigen, dass ein System mit Zonen-Controller in der Lage ist, diese hochkomplexen Rechenaufgaben zu übernehmen und Umgebungsinformationen sehr zuverlässig auszuwerten", sagt Hochrainer.

Training für Algorithmen

Dazu werden drei Arten von Sensoren eingesetzt: Videokamera, Lidar und Radar. Während Kameras sowie das laserbasierte Lidar gute Sicht benötigen und bei Schneefall oder Nebel nur bedingt nützlich sind, hat Radar diese Einschränkung nicht. Hochrainer: "Das robuste Radar unterstützt die beiden anderen Technologien, alle drei gemeinsam liefern ein noch besseres Abbild der Umgebung." Um in den von diesen drei Sensoren generierten Daten Personen erkennen und verfolgen zu können, kommen Lernalgorithmen aus der künstlichen Intelligenz (KI) zum Einsatz.

Dabei wollen sich die Forscher den Umstand zunutze machen, dass es für die automatisierte Personenerkennung aus von Kameras generierten Bilddaten bereits etablierte, zuverlässige Software-Lösungen gibt. Deren Resultate sind die Basis für das Training der wesentlich schwieriger auszuwertenden Lidar- und Radardaten.

Dabei findet das Training der Algorithmen in zwei Stufen statt – virtuell und real. Für den virtuellen Teil wird eine eigene Simulationsumgebung geschaffen, eine Stadt im Rechner, in der Fahrzeuge, Fußgänger und andere Verkehrsteilnehmer unterwegs sind. Ein virtuelles Testfahrzeug bewegt sich durch diese Umgebung und erzeugt virtuelle Sensordaten. "Damit erreichen wir ein grobes Vortrainieren der KI-Algorithmen", sagt Hochrainer. Zusätzlich gibt es ein reales Testfahrzeug, das durch echte Straßen fahren und Daten erfassen wird.

Auf Gefahren richtig reagieren

"Mit diesen realen Messdaten können wir die KI dann fein einstellen." Vorteil dieses Designs ist, dass das virtuelle Training im Rechner auf zehntausenden einzelnen Szenen basiert. Zusätzlich hat man in der Simulationsumgebung die Möglichkeit, bestimmte Bedingungen wie Nacht, Regen, Nebel oder Schneefall zu simulieren.

Das dreijährige Projekt läuft bis Anfang 2024. Bis dahin soll ein Demonstrator fertig sein. Künftig könnte ein solches System in autonomen Fahrzeugen frühzeitig Gefahrensituationen erkennen und ihnen jeweils angemessene Reaktionen auslösen, etwa Bremsen, Ausweichen oder Hupen. (Raimund Lang, 23.3.2022)