idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
28.10.2019 16:08

Autos sollen lernen, vorausschauend zu fahren

Johannes Seiler Dezernat 8 - Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

    Gute Autofahrer sehen gefährliche Situationen voraus und stellen ihre Fahrweise darauf ein, bevor es wirklich brenzlig wird. Forscher der Universität Bonn wollen diese Fähigkeit nun auch autonomen Autos beibringen. Am Freitag, 1. November, stellen sie auf der International Conference on Computer Vision in Seoul einen entsprechenden Algorithmus vor. Außerdem präsentieren sie einen Datensatz, mit dem sie ihren Ansatz trainiert und getestet haben. Er wird es in Zukunft erheblich einfacher machen, derartige Verfahren zu entwickeln und zu verbessern.

    Eine leere Straße, am Rand eine Reihe parkender Autos: nichts, was zur Vorsicht mahnen würde. Doch halt: Mündet nicht da vorne, halb verdeckt von den parkenden Wagen, eine Straße ein? Vielleicht nehme ich doch lieber den Fuß vom Gas – wer weiß, ob da jemand von der Seite kommt. Beim Autofahren begegnen wir ständig Situationen wie diesen. Sie korrekt zu deuten und die richtigen Konsequenzen zu ziehen, erfordert eine Menge Erfahrung. Demgegenüber verhalten sich selbstfahrende Autos mitunter wie ein Fahrschüler in seiner ersten Stunde. „Unser Ziel ist es, ihnen eine vorausschauendere Fahrweise beizubringen“, erklärt der Informatiker Prof. Dr. Jürgen Gall. „Sie könnten dann erheblich schneller auf gefährliche Situationen reagieren.“

    Gall leitet an der Universität Bonn die Arbeitsgruppe „Computer Vision“, die in Kooperation mit seinen Uni-Kollegen vom Institut für Photogrammetrie und der Arbeitsgruppe „Autonome Intelligente Systeme“ an der Lösung dieses Problems forscht. Auf der führenden Fachtagung seiner Zunft, der International Conference on Computer Vision in Seoul, stellen die Wissenschaftler nun einen ersten Schritt auf dem Weg zu diesem Ziel vor. „Wir haben einen Algorithmus weiterentwickelt, der so genannte LiDAR-Daten vervollständigt und interpretiert“, erklärt er. „Das Auto kann sich dadurch auf mögliche Gefahren frühzeitig einstellen.“

    Problem: zu wenig Daten

    Bei LiDAR handelt es sich um einen rotierenden Laser, der auf dem Dach der meisten autonom fahrenden Autos angebracht ist. Der Laserstrahl wird von der Umgebung reflektiert. Das LiDAR-System misst, wann das reflektierte Licht auf den Sensor fällt, und berechnet aus der Laufzeit die Entfernung. „Pro Umdrehung erfasst das System auf diese Weise die Distanz zu rund 120.000 Punkten rund um das Fahrzeug“, sagt Gall.

    Das Problem dabei: Die Messpunkte „verdünnen“ sich mit steigender Entfernung – ihr Abstand untereinander nimmt zu. Das ist etwa so, als würde man auf einen Luftballon ein Gesicht malen: Beim Aufpusten weichen die Augen immer weiter auseinander. Selbst für einen Menschen ist es daher kaum möglich, sich aus einem einzelnen LiDAR-Scan (also den Entfernungsmessungen einer einzigen Umdrehung) ein korrektes Bild seiner Umgebung zu verschaffen. „Die Universität Karlsruhe (KIT) hat vor einigen Jahren große Mengen von LiDAR-Daten aufgenommen, insgesamt 43.000 Scans“, erklärt Dr. Jens Behley vom Institut für Photogrammetrie. „Wir haben nun jeweils Sequenzen von mehreren Dutzend Scans genommen und diese überlagert.“ Die so gewonnenen Daten enthalten also auch Punkte, die der Sensor erst erfasst hatte, als das Auto schon einige Dutzend Meter weiter gefahren war. Vereinfacht gesagt, zeigen sie nicht nur die Gegenwart, sondern auch die Zukunft.

    „Diese überlagerten Punktwolken enthalten wichtige Informationen wie die Geometrie der Szene und die räumliche Ausdehnung der darin enthaltenen Objekte, die in einem einzelnen Scan nicht verfügbar sind“, betont Martin Garbade, der momentan am Institut für Informatik promoviert. „Zusätzlich haben wir in ihnen jeden einzelnen Punkt beschriftet – also etwa: Dort ist ein Gehweg, da ein Fußgänger und dahinten ein Motorradfahrer.“ Die Wissenschaftler fütterten ihre Software mit einem Datenpaar: einem einzelnen LiDAR-Scan als Eingabe sowie den dazu gehörigen Überlagerungsdaten samt semantischer Information als gewünschte Ausgabe. Das wiederholten sie für mehrere tausend solcher Paare.

    „In dieser Trainingsphase lernte der Algorithmus, einzelne Scans zu vervollständigen und zu interpretieren“, erklärt Prof. Gall. „Er konnte danach also fehlende Messwerte plausibel ergänzen und interpretieren, was in den Scans zu sehen war.“ Die Szenen-Komplettierung funktioniert bereits relativ gut: Rund die Hälfte der fehlenden Daten kann das Verfahren korrekt vervollständigen. Nicht ganz so gut klappt es mit der semantischen Interpretation – also der Schlussfolgerung, welche Objekte sich hinter den Messpunkten verbergen: Hier kommt der Rechner auf eine Trefferquote von maximal 18 Prozent.

    Allerdings sehen die Wissenschaftler diesen Forschungszweig noch ganz am Anfang. „Bislang fehlte es schlicht an umfangreichen Datensätzen, mit denen sich entsprechende Verfahren aus der künstlichen Intelligenz trainieren lassen“, betont Gall. „Wir schließen hier mit unserer Arbeit eine Lücke. Ich bin optimistisch, dass wir in den nächsten Jahren die Trefferquote bei der semantischen Interpretation deutlich steigern können.“ 50 Prozent hält er für durchaus realistisch, was einen enormen Einfluss auf die Qualität des autonomen Fahrens haben könnte.

    Video: www.youtube.com/watch?time_continue=43&v=c8SPM1O1oro

    Projektwebseite: http://semantic-kitti.org


    Wissenschaftliche Ansprechpartner:

    Prof. Dr. Jürgen Gall
    Institut für Informatik
    Universität Bonn
    Tel. 0228/73-69600
    E-Mail: gall@iai.uni-bonn.de


    Originalpublikation:

    Behley J., Garbade M., Milioto A., Quenzel J., Behnke S., Stachniss C., and Gall J., SemanticKITTI: A Dataset for Semantic Scene Understanding of LiDAR Sequences. IEEE/CVF International Conference on Computer Vision, Internet: https://arxiv.org/abs/1904.01416


    Bilder

    Einzelner LiDAR-Scan (links), die überlagerten und von einem menschlichen Betrachter mit Beschreibungen (Farben) versehenen Daten (rechts) sowie das Ergebnis der Software (Mitte).
    Einzelner LiDAR-Scan (links), die überlagerten und von einem menschlichen Betrachter mit Beschreibun ...
    © AG Computer Vision der Universität Bonn
    None


    Merkmale dieser Pressemitteilung:
    Journalisten, jedermann
    Informationstechnik
    überregional
    Forschungsergebnisse, Wissenschaftliche Publikationen
    Deutsch


     

    Einzelner LiDAR-Scan (links), die überlagerten und von einem menschlichen Betrachter mit Beschreibungen (Farben) versehenen Daten (rechts) sowie das Ergebnis der Software (Mitte).


    Zum Download

    x

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).