idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
10.10.2018 15:05

TU Berlin: Fernsteuerung für hochautomatisierte Fahrzeuge

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

    Forscher des Fraunhofer FOKUS und der TU Berlin gehen weiteren Schritt zum autonomen Fahren – Demonstration am 10. und 11.10.2018 in München

    Auf der GPU Technology Conference (GTC) von NVIDIA demonstrieren die Forscher von Fraunhofer FOKUS und TU Berlin vom 9. bis 11. Oktober 2018 in München, wie sie ein Fahrzeug auf dem Messe-Außengelände mit minimaler Verzögerung teleoperiert steuern. Dies unterstützt den Übergang von der Steuerung durch den Menschen hin zum autonomen Fahren. Darüber hinaus stellen sie für das Künstliche Intelligenz-Training (KI) der schlauen Autos ihr halbautomatisiertes Werkzeug zur Aufbereitung von Bilddaten von Lidar-Laserscannern und Kameras vor.

    Es wird auch in Zukunft Situationen geben, in denen hochautomatisierte und autonome Fahrzeuge von einem Menschen gesteuert werden: Zum Beispiel ein LKW, der auf einem Firmengelände nicht mehr eigenständig zur Laderampe fahren kann, da er keinen Zugriff auf digitale Karten des Privatgeländes hat. Oder ein autonomes Auto, das um eine unvorhergesehene Baustelle navigiert werden muss. Die FOKUS-Forscher vom Geschäftsbereich Smart Mobility zeigen zusammen mit dem Daimler Center for Automotive IT Innovations (DCAITI), einem An-Institut der TU Berlin, auf der GTC Europe von NVIDIA, wie teleoperiertes Fahren mit geringer Latenz gelingt, um den Weg zum autonomen Fahren zu ebnen.

    Der Operator, in dem Fall die Person, die die Demo durchführt, ist mittels kabelloser und verschlüsselter Datenübertragung – über WLAN und perspektivisch über 5G-Mobilfunk – mit dem hochautomatisierten Fahrzeug verbunden. Die Steuerung erfolgt hocheffizient mit Hilfe des komprimierten fahrzeugeigenen Umfeldmodells. Dieses wertet Bilddaten von bis zu acht Kameras in Kombination mit Lidar-Laserscannern aus. Die DRIVE-Plattform von NVIDIA bietet die benötigte Rechenpower, um die vielfältigen und redundanten Algorithmen und Anwendungen auszuführen, die für ein sicheres hochautomatisiertes Fahren notwendig sind. Die wesentlich geringeren Meta-Daten werden dann zum Operator übertragen. Das spart Bandbreite und sorgt für ein Bild der aktuellen Lage in nahezu Echtzeit.

    Der Operator kann das Fahrzeug realitätsnah mit einem Lenkrad und Gas- bzw. Bremspedal steuern. Er sieht auf einem zweiten Monitor eine Karte mit der aktuellen Route. Entscheidend für eine sichere Teleoperation ist, dass die Datenübertragung sowohl der Umfelddaten als auch der Steuersignale zu einem möglichst geringen Zeitverzug führen.

    Mit Künstlicher Intelligenz (KI) lernt das Auto „Sehen“ –
    Das Werkzeug zur halbautomatischen Annotation von Bilddaten

    KI ist für die Wahrnehmung der näheren Umgebung durch das Fahrzeug von großer Bedeutung. Fährt ein hochautomatisiertes Fahrzeug auf der Straße, nimmt eine Vielzahl von Kameras und weiteren Sensoren, wie einem Lidar, Informationen aus der Umgebung auf. Diese müssen in Echtzeit analysiert und Fußgänger, Fahrradfahrer, Fahrzeuge und andere Objekte in der Umgebung verlässlich erkannt werden.

    Mit neuen Verfahren der Künstlichen Intelligenz, insbesondere dem Deep Learning-Verfahren, lernt der Computer anhand einer riesigen Menge von Daten zum Beispiel wie ein Mensch oder Baum aussieht. Je besser die Lerndaten sind, desto realitätsnaher lernt das Auto „Sehen“. Bislang war es sehr aufwändig, in den Lerndaten zu markieren, was ein Baum, ein Mensch oder ein Auto ist. Die Smart Mobility-Forscher stellen auf der GTC Europe ihr Label-Werkzeug für Bilddaten von Kameras und Lidar-Lasercannern vor. Die Rechenkapazität bietet DGX-1 Supercomputer Rechenzentrumslösung von NVIDIA. Mit dem Werkzeug können die Annotationen vorgelabelt und in kürzester Zeit überprüft und korrigiert werden. Labeling-Experten benötigen dadurch im Mittel nur noch 10 Prozent der Zeit, um hochqualitative Lerndaten zu generieren.

    Mit Hilfe der innovativen KI-Algorithmen von FOKUS werden Bilddaten von Kameras und Laserscannern in Objektklassen wie Fahrbahn, Fahrzeug, Fußgänger unterteilt und einzelne Elemente der Objekte voneinander getrennt. So können sogar Fußgänger in einer Menschenmenge auseinandergehalten werden. Zu jedem Objekt berechnen die Algorithmen weiterhin die korrekte Position und Drehung im 3D-Raum.

    Das Mobilitätsdaten-Backend von FOKUS verwaltet die Sensordaten hunderter Fahrzeuge und ermöglicht es, Labeling-Experten und Entwicklern weltweit die Daten im gewöhnlichen Webbrowser zu sichten und zu korrigieren. So entsteht ein immer größerer Pool qualitativ hochwertiger Lerndaten für KI-Algorithmen im Fahrzeug.

    Fotomaterial zum Download
    http://www.tu-berlin.de/?id=199920

    Zur GTC-Session:
    1. Oktober 2018, 11:00 Uhr bis 11:50 Uhr, Raum 14c:
    Deep Learning software applications for Autonomous Vehicles mit dem Leiter des Geschäftsbereichs Smart Mobility Dr. Ilja Radusch
    https://2018gtceurope.smarteventscloud.com/connect/search.ww#loadSearch-searchPh...

    Über die GPU Technology Conference:
    https://www.nvidia.com/en-eu/gtc/

    Weitere Informationen erteilen Ihnen gern:
    Dr.-Ing. Ilja Radusch
    Leiter des Geschäftsbereichs Smart Mobility im Fraunhofer FOKUS
    Leiter des DCAITI (Daimler Center for Automotive Information Technology Innovations) an der TU Berlin
    Tel.: (030) 914 26 36-474
    E-Mail: ilja.radusch@dcaiti.com
    http://www.dcaiti.tu-berlin.de/people/radusch/
    http://www.fokus.fraunhofer.de

    Mitra Motakef-Tratar
    Corporate Communications Fraunhofer FOKUS
    Tel. (030) 3463-7517
    mitra.motakef-tratar@fokus.fraunhofer.de


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten, Wissenschaftler
    Informationstechnik, Verkehr / Transport
    überregional
    Forschungs- / Wissenstransfer, Wissenschaftliche Tagungen
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).