Autonome Fahrfunktionen inklusive: In dem auf der CES 2018 vorgestellten Versuchsträger hat ZF einen Baukasten für unterschiedliche hoch- und vollautomatisierte Fahrfunktionen (Level 3 und 4) realisiert.
Auf der CES 2018 stellte ZF seine nächsten Schritte auf dem Weg zum autonomen Fahren vor. In einem Versuchsfahrzeug haben Ingenieure der ZF-Vorentwicklung zahlreiche Fahrfunktionen realisiert, die vollautomatisiertes Fahren gemäß Level 4 möglich machen. Damit verdeutlicht ZF seine umfangreichen Kompetenzen als Systemarchitekt für das autonome Fahren. Der Technologiekonzern machte sich dabei sein enges Kompetenznetzwerk zunutze – insbesondere bei der Ermittlung und Verarbeitung von Umfelddaten. Das Vorentwicklungsprojekt demonstriert auch die Leistungsfähigkeit und Praxistauglichkeit des erst vor einem Jahr von ZF und NVIDIA vorgestellten Supercomputers ZF ProAI. Dieser agiert als zentrale Steuereinheit im Versuchsträger. Damit beschreitet ZF einen modularen Weg zur Entwicklung automatisierter Fahrfunktionen. Ziel ist eine Systemarchitektur, die sich auf beliebige Fahrzeuge übertragen und je nach Einsatzzweck, verfügbarer Hardware-Ausstattung und gewünschtem Automatisierungslevel zuschneiden lässt.
Für Ingenieure der Automobilindustrie gibt es keine Blaupause, nach der sie Entwicklungen für die jeweiligen Automatisierungsstufen realisieren können: „Das weite Feld des automatisierten Fahrens ist die Summe vieler einzelner Fahrfunktionen, die ein Auto ohne menschlichen Eingriff abrufen können muss – und zwar ausfallsicher und auch unter verschiedensten Wetter-, Verkehrs- und Sichtverhältnissen“, erläutert Torsten Gollewski, Leiter Vorentwicklung der ZF Friedrichshafen AG.
System-Architekt für bedarfsgerechte Automatisierung
Im Rahmen des Versuchsfahrzeugs baute ZF eine komplette, modulare Entwicklungsumgebung inklusive Funktionsarchitektur mit künstlicher Intelligenz auf. „Beispielhaft realisiert haben wir hier eine Konfiguration für vollautomatisierte, also Level-4-Fahrfunktionen. Diese Konfiguration lässt sich modularisiert über die ZF-Domänen ‚see-think-act‘ auf den jeweiligen Anwendungsfall applizieren. Sie verhilft den Fahrzeugen zur notwendigen Seh- und Denkfähigkeit, etwa für innerstädtischen Verkehr“, so Gollewski. Doch auch andere Automatisierungsstufen lassen sich dank dieser flexiblen ZF-Architektur in unterschiedlichsten Fahrzeugen umsetzen. Gleichzeitig gibt sie Aufschluss darüber, welche Hardware-Minimalkonfiguration für welchen Level unabdingbar ist.
In den vergangenen Monaten „trainierten“ die ZF-Ingenieure dem Fahrzeug unterschiedliche Fahrfunktionen an. Dabei standen besonders urbane Situationen im Mittelpunkt wie etwa die Interaktion mit Fußgängern und Fußgängergruppen vor Zebrastreifen, Kollisions-Abschätzung, das Verhalten vor Ampeln und in Kreisverkehren. „Im Gegensatz zu einer Autobahn- oder Landstraßenfahrt ist es in städtischen Szenarien deutlich aufwändiger, ein gesichertes Verständnis der aktuellen Verkehrssituation herzustellen, das die Basis für angemessene Aktionen eines computergesteuerten Fahrzeugs bietet“, so Gollewski.
ZF ProAI: Denkleistung nach Wunsch
Die ZF ProAI mit ihrer offenen Gesamtarchitektur ist skalierbar – sowohl die Hardware-Komponenten, die angeschlossenen Sensor-Sets als auch die Auswertungs-Software und Funktionsmodule lassen sich an den gewünschten Zweck und den Grad der Automatisierung anpassen. So ist die ZF ProAI beispielsweise in puncto Rechnerleistung für nahezu jedes konkrete Anforderungsprofil konfigurierbar. In der auf der CES gezeigten Anwendung nutzt die Steuerungseinheit den sogenannten Xavier-Chip mit 8-Kern-CPU-Architektur, 7 Milliarden Transistoren und entsprechend eindrucksvollen Leistungsdaten: Er bewältigt bis zu 30 Billionen Rechenoperationen pro Sekunde (TOPS, Trillion Operations per Second) bei einem Stromverbrauch von nur 30 Watt. Der Chip erfüllt wie die ZF ProAI insgesamt die strengen Standards für automobile Anwendungen – und schafft dort die Voraussetzung für künstliche Intelligenz und Deep Learning.
Zusammenspiel der Daten
Um die Umgebung im Blick zu haben, spielt vor allem das umfassende Sensor-Set von ZF sowie dessen Partner-Netzwerks eine wichtige Rolle. Im aktuellen Fahrzeug sind Kamera-, LiDAR- und Radar-Sensoren verbaut. Sie ermöglichen eine 360-Grad-Umfeldanalyse des Entwicklungsträgers, die alle 40 Millisekunden aktualisiert wird. Die enorme Datenflut – allein eine Kamera generiert 1 Gigabit pro Sekunde – wird von der Recheneinheit ZF ProAI in Echtzeit analysiert. „Künstliche Intelligenz und Deep-Learning-Algorithmen dienen vor allem dazu, die Analyse zu beschleunigen und die Erkennung zu präzisieren. Es geht darum, aus der Flut der Daten wiederkehrende Muster in den Verkehrssituationen zu erkennen, etwa einen Fußgänger, der die Fahrbahn überqueren will“, so Gollewski. Die dann abgerufenen Reaktionsweisen des Fahrzeugs, die für die Berechnung der Längsbeschleunigung oder Verzögerung sowie der weiteren Fahrtrichtung ausschlaggebend sind, sind nach wie vor fest in der Software hinterlegt.
Messefahrzeug in Las Vegas „träumt“ eine Fahrt durch Friedrichshafen
Auf der CES lässt sich dies auch auf dem Messestand erleben. ZF „füttert“ das in Las Vegas statisch aufgebaute Fahrzeug mit Sensordaten, die bei einer Live-Erprobungsfahrt zwischen ZF-Forum und Forschungs- und Entwicklungszentrum in Friedrichshafen gewonnen wurden. Das Fahrzeug – insbesondere die ZF ProAI – interpretiert diese Daten live, als wäre es gerade auf dieser Strecke unterwegs. Seine Handlungen wie Lenkeinschläge, Brems- und Beschleunigungsvorgänge, die auch am Messestand sichtbar sind, entsprechen exakt einer Fahrt 9.200 Kilometer Luftlinie entfernt – so, als träumte der Wagen von der Fahrt auf dem anderen Kontinent.