idw - Informationsdienst
Wissenschaft
‚Wie hieß denn noch dieser Filmklassiker von Tarantino, der so durcheinander ist?‘, überlegen wir mit einem Freund. Und schon beim nächsten Einloggen in den Streaming-Dienst steht „Pulp Fiction“ ganz oben. Manchmal ist es geradezu gruselig, was künstliche Intelligenz über uns weiß. Wann und warum wir das so empfinden, damit haben sich Wissenschaftler der Universität Duisburg-Essen (UDE) beschäftigt. Ihr Fazit: (Zu wenig) Transparenz ist entscheidend.
Empfehlungssysteme sind online allgegenwärtig. Von uns meist nicht wahrgenommen, sollen sie helfen, aus Millionen Möglichkeiten das individuell passende Produkt schnell zu finden. Moderne Algorithmen und künstliche Intelligenz analysieren unsere Hotelbuchung, erfassen die Bewertungen, die wir für Produkte und Dienstleistungen online abgeben. Sie hören unserem Musik-Streaming zu und merken sich die Rezepte, die wir oft aufrufen.
Doch fast alle kennen diese zu gut passenden Vorschläge, die sich anfühlen, als könne der Rechner Gedanken lesen. Die sich irgendwie gruselig anfühlen. Doktorandin Helma Torkamaan von der Arbeitsgruppe „Interaktive Systeme“ hat selbst diese Erfahrung gemacht, obwohl sie die dahinterstehende Technik kennt und selbst einsetzt: „Ich habe mich mit einem Kollegen über eine Veröffentlichung unterhalten. Das Thema war mir neu, es interessierte mich aber. Kurz danach erschien genau dieser Beitrag ganz oben in meinen Empfehlungen.“
Gemeinsam mit ihrem Kollegen Catalin Barbu führte sie eine Studie durch, in der 171 Probanden Tipps zu Filmen, Hotels und medizinischen Themen gezeigt bekamen. Dabei wurde jeweils ausgewertet: Wie gut passt der Vorschlag? Ist der Grund dafür klar? Was empfinden wir, wenn wir eine gruselige Empfehlung sehen? Und was wären die Konsequenzen daraus?
Sie fanden heraus, dass Menschen sich besonders ausspioniert fühlen, wenn sie keine Verbindung zwischen einem ausgezeichnet passenden Vorschlag und ihrem vorherigen Verhalten online sehen: Es wird also gruselig, wenn die künstliche Intelligenz einen klaren Treffer landet ¬ und wir nicht wissen, warum. Tauschen Medien oder Plattformen sich hingegen nachvollziehbar untereinander aus, wird dies neutraler aufgenommen.
„Wir empfehlen daher, dem einzelnen die Kontrolle darüber zu geben, was personalisiert wird und er nachvollziehen kann, wie das geschieht“, fasst Barbu zusammen. Anderenfalls kann das Vertrauen in das Empfehlungssystem sinken oder der Nutzer lehnt die vorgeschlagenen Produkte sogar ab.
Redaktion: Birte Vierjahn, Tel. 0203/37 9-2427, birte.vierjahn@uni-due.de
Helma Torkamaan, Interactive Systems, +49 203/37 9-2276, helma.torkamaan@uni-due.de
Catalin-Mihai Barbu, Interactive Systems, +49 203/37 9 -1730, catalin.barbu@uni-due.de
Helma Torkamaan, Catalin-Mihai Barbu, and Jürgen Ziegler. 2019. How Can They Know That? A Study of Factors Affecting the Creepiness of Recommendations. In Thirteenth ACM Conference on Recommender Systems (RecSys ’19), September 16–20, 2019, Copenhagen, Denmark. ACM, New York, NY, USA, 5 pages.
Wenn der Rechner zu viel über uns weiß, fühlen wir uns unwohl.
pixabay.com
None
Merkmale dieser Pressemitteilung:
Journalisten, Wirtschaftsvertreter, Wissenschaftler, jedermann
Gesellschaft, Informationstechnik, Medien- und Kommunikationswissenschaften, Philosophie / Ethik, Psychologie
überregional
Buntes aus der Wissenschaft, Forschungsergebnisse
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).