Farbfleck könnte autonom fahrende Fahrzeuge verwirren

idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
idw-Abo
Medienpartner:
Wissenschaftsjahr


Teilen: 
25.10.2019 14:36

Farbfleck könnte autonom fahrende Fahrzeuge verwirren

Linda Behringer Public Relations
Max-Planck-Institut für Intelligente Systeme

    Forscher senden Weckruf an Automobilindustrie

    Ein Forscherteam aus Tübingen zeigt, dass auf tiefen neuronalen Netzen basierende optische Flussalgorithmen – eine wahrscheinliche Komponente zukünftiger autonomer Fahrzeuge – anfällig für Hackerangriffe sind. Die Experten für Maschinelles Sehen und Lernen warnen die Automobilindustrie, dass ein einfaches Farbmuster ausreichen könnte, die Autopiloten in selbstfahrenden Fahrzeugen zu verwirren.

    Tübingen – Ein Farbmuster auf einem T-Shirt, als Heckscheibenaufkleber oder als Emblem auf einer Einkaufstüte könnte für selbstfahrende Autos ein Problem darstellen – ein kleines Muster, das so viele Störsignale auslöst, dass es zum Sicherheitsrisiko wird. „Wir haben drei, vielleicht vier Stunden gebraucht, um das Muster zu erstellen – das ging ganz schnell,“ sagt Anurag Ranjan, Doktorand in der Abteilung für Perzeptive Systeme am Max-Planck-Institut für Intelligente Systeme (MPI-IS) in Tübingen. Er ist der Erstautor der Publikation „Attacking Optical Flow“, ein gemeinsames Forschungsprojekt der Abteilung für Perzeptive Systeme und der Forschungsgruppe für Autonomes Maschinelles Sehen am MPI-IS und der Universität Tübingen. Die Publikation ist auf arXiv verfügbar und wird bei der führenden internationalen Konferenz im Bereich Maschinelles Sehen präsentiert, der International Conference on Computer Vision ICCV, die am 27. Oktober in Seoul beginnt.

    Die Gefahr, dass aktuell auf dem Markt verfügbare Serienfahrzeuge betroffen sind, ist gering. Dennoch informierten die Forscher vorsichtshalber einige Automobilhersteller, die derzeit selbstfahrende Modelle entwickeln. Sie setzten sie von dem Risiko in Kenntnis, damit sie bei Bedarf zeitnah reagieren können.

    In ihrer Forschungsarbeit prüften Anurag Ranjan und seine Kollegen Joel Janai, Andreas Geiger und Michael J. Black die Robustheit einer Reihe verschiedener Algorithmen zur Bestimmung des sogenannten optischen Flusses. Derartige Systeme werden in selbstfahrenden Autos, in der Robotik, Medizin, bei Videospielen und in der Navigation verwendet, um nur einige wenige Einsatzbereiche zu nennen. Der optische Fluss beschreibt die Bewegung in einer Szene, die von den Bordkameras erfasst wird. Jüngste Fortschritte im Bereich des maschinellen Lernens haben zu schnelleren und besseren Verfahren beim Berechnen von Bewegung geführt. Die Forschung der Tübinger Wissenschaftler zeigt jedoch, dass derartige Verfahren anfällig sind, wenn Störsignale im Spiel sind: zum Beispiel ein einfaches, buntes Muster, das in die Szene platziert wird. Selbst wenn sich das Muster nicht bewegt, kann es dazu führen, dass tiefe neuronale Netze, wie sie heute in großem Maße zur Flussberechnung eingesetzt werden, falsch rechnen: das Netzwerk kalkuliert plötzlich, dass sich große Teile der Szene in die falsche Richtung bewegen.

    Mehrmals haben Forscher*innen in der Vergangenheit bereits gezeigt, dass selbst winzige Muster neuronale Netze verwirren können. Zum Beispiel wurden dadurch Objekte wie Stoppschilder falsch klassifiziert. Die neue Tübinger Forschungsarbeit zeigt erstmals, dass auch Algorithmen zur Bestimmung der Bewegung von Objekten anfällig für derartige Angriffe sind. Bei der Verwendung in sicherheitskritischen Anwendungen wie in autonomen Fahrzeugen müssen diese Systeme jedoch hinsichtlich derartiger Angriffe „robust“ bzw. zuverlässig und sicher sein.

    Selbst ein kleiner Fleck erzeugt große Wirkung

    Ranjan und seine Kollegen arbeiten seit März vergangenen Jahres an dem Projekt „attacking optical flow“. Im Zuge ihrer Forschungsarbeit waren sie überrascht, dass selbst ein kleiner Fleck großes Chaos auslösen kann. Es reicht eine Größe von weniger als 1 % des Gesamtbilds aus, um das System anzugreifen. Die kleinste Störung verursachte, dass das System schwere Fehler bei seinen Berechnungen machte, die die Hälfte des Bildbereichs betrafen (siehe Abbildung rechts). Je größer der Fleck, desto verheerender die Auswirkungen. „Dies ist bedenkliche, da das Flow-System in vielen Fällen die Bewegung der Objekten in der gesamten Szene gelöscht hat,“ erklärt Ranjan und weist auf ein Video hin, in dem das angegriffene System zu sehen ist. Man kann sich leicht vorstellen, welchen Schaden ein lahmgelegter Autopilot eines selbstfahrenden Autos bei hoher Geschwindigkeit verursachen kann.

    Wie einzelne selbstfahrende Autos funktionieren ist ein wohl-gehütetes Geheimnis der jeweiligen Hersteller. Daher können Computer Vision Grundlagenforscher nur mutmaßen. „Unsere Arbeit soll die Hersteller von selbstfahrender Technologie wachrütteln, sie vor der potenziellen Bedrohung warnen. Wenn sie davon wissen, können sie ihre Systeme so trainieren, dass sie gegenüber derartigen Angriffen robust sind,“ sagt Michael J. Black, Direktor der Abteilung für Perzeptive Systeme am Max-Planck-Institut für Intelligente Systeme.

    Möglicherweise ebenso wichtig wie der Hackerangriff selbst ist, dass es den Entwicklerteams der Automobilindustrie zeigt, wie man unter Verwendung einer sogenannten „zero flow“-Prüfung bessere optische Flussalgorithmen entwickeln kann. „Wenn wir dem System zwei identische Bilder zeigen und es keinerlei Bewegung zwischen den beiden gibt, sollte sich der optische Flussalgorithmus farblich überhaupt nicht verändern. Dies ist jedoch oft nicht der Fall, selbst ohne einen Angriff. Schon da fangen also die Probleme an. Hier müssen wir ansetzen, um zu beheben, was das Netz falsch macht“, erläutert Ranjan. Er und sein Team hoffen, dass ihre Forschungsarbeit dazu beiträgt, das Bewusstsein für die Problematik zu stärken, und dass Automobilhersteller derartige Angriffe ernst nehmen und ihre Systeme entsprechend anpassen, um sie weniger störanfällig zu machen.

    Link zur Veröffentlichung auf ArXiv: https://arxiv.org/abs/1910.10053

    Link zum Youtube-Video: https://www.youtube.com/watch?v=FV-oH1aIdAI&feature=youtu.be

    Pressekontakt:
    Linda Behringer
    Max-Planck-Institut für Intelligente Systeme, Stuttgart, Deutschland
    T: +49 711 689 3552
    M: +49 151 2300 1111
    linda.behringer@is.mpg.de

    Über uns:

    Die Wissenschaftler*innen am Max-Planck-Institut für Intelligente Systeme wollen die Prinzipien des Wahrnehmens, Handelns und Lernens intelligenter Systemen verstehen.

    Das Max-Planck-Institut für Intelligente Systeme ist an zwei Standorten angesiedelt: Stuttgart und Tübingen. Die Forschung am Stuttgarter Standort des Instituts umfasst Mikro- und Nanorobotik, Selbstorganisation, haptische Wahrnehmung, bio-inspirierte Systeme, medizinische Robotik und physische Intelligenz. Der Tübinger Standort legt den Schwerpunkt auf Maschinelles Lernen, Maschinelles Sehen, Robotik, Regelung und Steuerung sowie die Theorie von intelligenten Systemen.

    www.is.mpg.de


    Originalpublikation:

    https://arxiv.org/abs/1910.10053


    Weitere Informationen:

    https://is.mpg.de/de/news/color-patch-could-throw-self-driving-vehicles-off-trac...


    Anhang
    attachment icon Die Auswirkungen des kleinen Störsignals

    Merkmale dieser Pressemitteilung:
    Journalisten, Wirtschaftsvertreter, Wissenschaftler, jedermann
    Gesellschaft, Informationstechnik, Verkehr / Transport, Wirtschaft
    überregional
    Buntes aus der Wissenschaft, Wissenschaftliche Publikationen
    Deutsch


    von links nach rechts: Anurag Ranjan, Michael J. Black, Andreas Geiger and Joel Janai


    Zum Download

    x

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).

    Cookies optimieren die Bereitstellung unserer Dienste. Durch das Weitersurfen auf idw-online.de erklären Sie sich mit der Verwendung von Cookies einverstanden. Datenschutzerklärung
    Okay