idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
10/10/2018 15:05

TU Berlin: Fernsteuerung für hochautomatisierte Fahrzeuge

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

    Forscher des Fraunhofer FOKUS und der TU Berlin gehen weiteren Schritt zum autonomen Fahren – Demonstration am 10. und 11.10.2018 in München

    Auf der GPU Technology Conference (GTC) von NVIDIA demonstrieren die Forscher von Fraunhofer FOKUS und TU Berlin vom 9. bis 11. Oktober 2018 in München, wie sie ein Fahrzeug auf dem Messe-Außengelände mit minimaler Verzögerung teleoperiert steuern. Dies unterstützt den Übergang von der Steuerung durch den Menschen hin zum autonomen Fahren. Darüber hinaus stellen sie für das Künstliche Intelligenz-Training (KI) der schlauen Autos ihr halbautomatisiertes Werkzeug zur Aufbereitung von Bilddaten von Lidar-Laserscannern und Kameras vor.

    Es wird auch in Zukunft Situationen geben, in denen hochautomatisierte und autonome Fahrzeuge von einem Menschen gesteuert werden: Zum Beispiel ein LKW, der auf einem Firmengelände nicht mehr eigenständig zur Laderampe fahren kann, da er keinen Zugriff auf digitale Karten des Privatgeländes hat. Oder ein autonomes Auto, das um eine unvorhergesehene Baustelle navigiert werden muss. Die FOKUS-Forscher vom Geschäftsbereich Smart Mobility zeigen zusammen mit dem Daimler Center for Automotive IT Innovations (DCAITI), einem An-Institut der TU Berlin, auf der GTC Europe von NVIDIA, wie teleoperiertes Fahren mit geringer Latenz gelingt, um den Weg zum autonomen Fahren zu ebnen.

    Der Operator, in dem Fall die Person, die die Demo durchführt, ist mittels kabelloser und verschlüsselter Datenübertragung – über WLAN und perspektivisch über 5G-Mobilfunk – mit dem hochautomatisierten Fahrzeug verbunden. Die Steuerung erfolgt hocheffizient mit Hilfe des komprimierten fahrzeugeigenen Umfeldmodells. Dieses wertet Bilddaten von bis zu acht Kameras in Kombination mit Lidar-Laserscannern aus. Die DRIVE-Plattform von NVIDIA bietet die benötigte Rechenpower, um die vielfältigen und redundanten Algorithmen und Anwendungen auszuführen, die für ein sicheres hochautomatisiertes Fahren notwendig sind. Die wesentlich geringeren Meta-Daten werden dann zum Operator übertragen. Das spart Bandbreite und sorgt für ein Bild der aktuellen Lage in nahezu Echtzeit.

    Der Operator kann das Fahrzeug realitätsnah mit einem Lenkrad und Gas- bzw. Bremspedal steuern. Er sieht auf einem zweiten Monitor eine Karte mit der aktuellen Route. Entscheidend für eine sichere Teleoperation ist, dass die Datenübertragung sowohl der Umfelddaten als auch der Steuersignale zu einem möglichst geringen Zeitverzug führen.

    Mit Künstlicher Intelligenz (KI) lernt das Auto „Sehen“ –
    Das Werkzeug zur halbautomatischen Annotation von Bilddaten

    KI ist für die Wahrnehmung der näheren Umgebung durch das Fahrzeug von großer Bedeutung. Fährt ein hochautomatisiertes Fahrzeug auf der Straße, nimmt eine Vielzahl von Kameras und weiteren Sensoren, wie einem Lidar, Informationen aus der Umgebung auf. Diese müssen in Echtzeit analysiert und Fußgänger, Fahrradfahrer, Fahrzeuge und andere Objekte in der Umgebung verlässlich erkannt werden.

    Mit neuen Verfahren der Künstlichen Intelligenz, insbesondere dem Deep Learning-Verfahren, lernt der Computer anhand einer riesigen Menge von Daten zum Beispiel wie ein Mensch oder Baum aussieht. Je besser die Lerndaten sind, desto realitätsnaher lernt das Auto „Sehen“. Bislang war es sehr aufwändig, in den Lerndaten zu markieren, was ein Baum, ein Mensch oder ein Auto ist. Die Smart Mobility-Forscher stellen auf der GTC Europe ihr Label-Werkzeug für Bilddaten von Kameras und Lidar-Lasercannern vor. Die Rechenkapazität bietet DGX-1 Supercomputer Rechenzentrumslösung von NVIDIA. Mit dem Werkzeug können die Annotationen vorgelabelt und in kürzester Zeit überprüft und korrigiert werden. Labeling-Experten benötigen dadurch im Mittel nur noch 10 Prozent der Zeit, um hochqualitative Lerndaten zu generieren.

    Mit Hilfe der innovativen KI-Algorithmen von FOKUS werden Bilddaten von Kameras und Laserscannern in Objektklassen wie Fahrbahn, Fahrzeug, Fußgänger unterteilt und einzelne Elemente der Objekte voneinander getrennt. So können sogar Fußgänger in einer Menschenmenge auseinandergehalten werden. Zu jedem Objekt berechnen die Algorithmen weiterhin die korrekte Position und Drehung im 3D-Raum.

    Das Mobilitätsdaten-Backend von FOKUS verwaltet die Sensordaten hunderter Fahrzeuge und ermöglicht es, Labeling-Experten und Entwicklern weltweit die Daten im gewöhnlichen Webbrowser zu sichten und zu korrigieren. So entsteht ein immer größerer Pool qualitativ hochwertiger Lerndaten für KI-Algorithmen im Fahrzeug.

    Fotomaterial zum Download
    http://www.tu-berlin.de/?id=199920

    Zur GTC-Session:
    1. Oktober 2018, 11:00 Uhr bis 11:50 Uhr, Raum 14c:
    Deep Learning software applications for Autonomous Vehicles mit dem Leiter des Geschäftsbereichs Smart Mobility Dr. Ilja Radusch
    https://2018gtceurope.smarteventscloud.com/connect/search.ww#loadSearch-searchPh...

    Über die GPU Technology Conference:
    https://www.nvidia.com/en-eu/gtc/

    Weitere Informationen erteilen Ihnen gern:
    Dr.-Ing. Ilja Radusch
    Leiter des Geschäftsbereichs Smart Mobility im Fraunhofer FOKUS
    Leiter des DCAITI (Daimler Center for Automotive Information Technology Innovations) an der TU Berlin
    Tel.: (030) 914 26 36-474
    E-Mail: ilja.radusch@dcaiti.com
    http://www.dcaiti.tu-berlin.de/people/radusch/
    http://www.fokus.fraunhofer.de

    Mitra Motakef-Tratar
    Corporate Communications Fraunhofer FOKUS
    Tel. (030) 3463-7517
    mitra.motakef-tratar@fokus.fraunhofer.de


    Images

    Criteria of this press release:
    Journalists, Scientists and scholars
    Information technology, Traffic / transport
    transregional, national
    Scientific conferences, Transfer of Science or Research
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).