idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
15.05.2020 15:07

Neue Methoden des Deep Learning verbessern die Wahrnehmung der Umgebung in selbstfahrenden Autos

Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

    Menschen, Fahrräder, Autos oder Straße, Himmel, Gras: Welche Pixel eines Bildes gehören zu Personen oder Objekten, die sich im Vordergrund der Umgebung eines selbstfahrenden Autos befinden, und welche Pixel repräsentieren die städtische Kulisse? Diese Aufgabe, die als panoptische Segmentierung bezeichnet wird, ist ein grundlegendes Problem zahlreicher Bereiche wie selbstfahrende Autos, Robotik, Augmented Reality und sogar in der biomedizinischen Bildanalyse.

    Dr. Abhinav Valada, Inhaber der Juniorprofessur für Robot Learning am Institut für Informatik der Universität Freiburg und Mitglied von BrainLinks-BrainTools, geht dieser Forschungsfrage nach. Nun hat er mit seinem Team das neuartige Modell „EfficientPS" entwickelt, das mittels Künstlicher Intelligenz (KI) visuelle Szenen schneller und effektiver erkennt.

    Die Aufgabe zum Szenenverständnis wird zumeist mit einer Technik des maschinellen Lernens gelöst, dem so genannten Deep Learning (DL). Bei diesem lernen künstliche neuronale Netze, die vom menschlichen Gehirn inspiriert sind, aus großen Datenmengen, erklärt der Freiburger Forscher. Öffentliche Benchmarks spielen eine wichtige Rolle bei der Messung des Fortschritts dieser Techniken. „Seit vielen Jahren konkurrieren Forschungsteams von Konzernen wie Google oder Uber um den Spitzenplatz bei diesen Benchmarks“, sagt Rohit Mohan aus Valadas Team. Die neue Methode der Freiburger Informatikerinnen und Informatiker erreichte nun jedoch den ersten Platz in Cityscapes, dem vermutlich einflussreichsten öffentlichen Benchmark für Methoden zum Szenen-Verständnis im autonomen Fahren. Auch bei anderen Benchmark-Datensätzen wie KITTI, Mapillary Vistas und IDD ist EfficientPS gelistet.

    Auf der Website des Projekts zeigt Valada Beispiele dafür, wie das Team verschiedene KI-Modelle auf verschiedenen Datensätzen trainiert hat. Die Ergebnisse werden dem jeweiligen mit der Kamera aufgenommenen Bild überlagert, wobei die Farben zeigen, welcher Objektklasse das Modell das jeweilige Pixel zuordnet. So sind zum Beispiel Autos blau, Menschen rot, Bäume grün und Gebäude grau markiert. Darüber hinaus zeichnet das KI-Modell auch einen Rahmen um jedes Objekt, das es als separate Einheit betrachtet. Den Freiburger Forschenden ist es gelungen, das Modell so zu trainieren, dass es die gelernten Informationen städtischer Szenen von Stuttgart nach New York City überträgt. Obwohl das KI-Modell nicht wusste, wie eine Stadt in den USA aussehen könnte, war es in der Lage, Szenen aus New York City genau zu erkennen.

    Die meisten bisherigen Methoden, die sich diesem Problem widmen, benötigen große Datenmengen und sind für den Einsatz in realen Anwendungen wie der Robotik, die stark ressourcenbeschränkt sind, zu rechenintensiv, erklärt Valada: „Unser EfficientPS erreicht nicht nur eine hohe Ausgabequalität, es ist auch die rechnerisch effizienteste und schnellste Methode. Damit werden die Anwendungsbereiche, in denen EfficientPS eingesetzt werden kann, deutlich erweitert.“

    Website mit Live-Demonstrationen unterschiedlicher KI-Modelle
    http://panoptic.cs.uni-freiburg.de/

    Beispielvideo: Fahrt durch New York City
    https://www.youtube.com/watch?v=FcUEj9N1fVc&feature=youtu.be

    Plattform „Cityscapes“
    https://www.cityscapes-dataset.com/benchmarks/#panoptic-results

    Kontakt:
    Juniorprofessor Dr. Abhinav Valada
    Abteilung für Robot Learning
    Albert-Ludwigs-Universität Freiburg
    Tel.: 0761/203-8025
    E-Mail: valada@cs.uni-freiburg.de


    Originalpublikation:

    https://www.pr.uni-freiburg.de/pm/2020/schnelleres-und-effektiveres-szenenversta...


    Bilder

    Rot für Menschen, Blau für Autos: Eine neue Methode erkennt mittels Künstlicher Intelligenz (KI) visuelle Szenen schneller und effektiver.
    Rot für Menschen, Blau für Autos: Eine neue Methode erkennt mittels Künstlicher Intelligenz (KI) vis ...
    Abbildung: Abhinav Valada


    Merkmale dieser Pressemitteilung:
    Journalisten
    Elektrotechnik, Informationstechnik, Verkehr / Transport
    überregional
    Forschungsergebnisse, Forschungsprojekte
    Deutsch


     

    Rot für Menschen, Blau für Autos: Eine neue Methode erkennt mittels Künstlicher Intelligenz (KI) visuelle Szenen schneller und effektiver.


    Zum Download

    x

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).