‚Wie hieß denn noch dieser Filmklassiker von Tarantino, der so durcheinander ist?‘, überlegen wir mit einem Freund. Und schon beim nächsten Einloggen in den Streaming-Dienst steht „Pulp Fiction“ ganz oben. Manchmal ist es geradezu gruselig, was künstliche Intelligenz über uns weiß. Wann und warum wir das so empfinden, damit haben sich Wissenschaftler der Universität Duisburg-Essen (UDE) beschäftigt. Ihr Fazit: (Zu wenig) Transparenz ist entscheidend.
Empfehlungssysteme sind online allgegenwärtig. Von uns meist nicht wahrgenommen, sollen sie helfen, aus Millionen Möglichkeiten das individuell passende Produkt schnell zu finden. Moderne Algorithmen und künstliche Intelligenz analysieren unsere Hotelbuchung, erfassen die Bewertungen, die wir für Produkte und Dienstleistungen online abgeben. Sie hören unserem Musik-Streaming zu und merken sich die Rezepte, die wir oft aufrufen.
Doch fast alle kennen diese zu gut passenden Vorschläge, die sich anfühlen, als könne der Rechner Gedanken lesen. Die sich irgendwie gruselig anfühlen. Doktorandin Helma Torkamaan von der Arbeitsgruppe „Interaktive Systeme“ hat selbst diese Erfahrung gemacht, obwohl sie die dahinterstehende Technik kennt und selbst einsetzt: „Ich habe mich mit einem Kollegen über eine Veröffentlichung unterhalten. Das Thema war mir neu, es interessierte mich aber. Kurz danach erschien genau dieser Beitrag ganz oben in meinen Empfehlungen.“
Gemeinsam mit ihrem Kollegen Catalin Barbu führte sie eine Studie durch, in der 171 Probanden Tipps zu Filmen, Hotels und medizinischen Themen gezeigt bekamen. Dabei wurde jeweils ausgewertet: Wie gut passt der Vorschlag? Ist der Grund dafür klar? Was empfinden wir, wenn wir eine gruselige Empfehlung sehen? Und was wären die Konsequenzen daraus?
Sie fanden heraus, dass Menschen sich besonders ausspioniert fühlen, wenn sie keine Verbindung zwischen einem ausgezeichnet passenden Vorschlag und ihrem vorherigen Verhalten online sehen: Es wird also gruselig, wenn die künstliche Intelligenz einen klaren Treffer landet ¬ und wir nicht wissen, warum. Tauschen Medien oder Plattformen sich hingegen nachvollziehbar untereinander aus, wird dies neutraler aufgenommen.
„Wir empfehlen daher, dem einzelnen die Kontrolle darüber zu geben, was personalisiert wird und er nachvollziehen kann, wie das geschieht“, fasst Barbu zusammen. Anderenfalls kann das Vertrauen in das Empfehlungssystem sinken oder der Nutzer lehnt die vorgeschlagenen Produkte sogar ab.
Redaktion: Birte Vierjahn, Tel. 0203/37 9-2427, birte.vierjahn@uni-due.de
Helma Torkamaan, Interactive Systems, +49 203/37 9-2276, helma.torkamaan@uni-due.de
Catalin-Mihai Barbu, Interactive Systems, +49 203/37 9 -1730, catalin.barbu@uni-due.de
Helma Torkamaan, Catalin-Mihai Barbu, and Jürgen Ziegler. 2019. How Can They Know That? A Study of Factors Affecting the Creepiness of Recommendations. In Thirteenth ACM Conference on Recommender Systems (RecSys ’19), September 16–20, 2019, Copenhagen, Denmark. ACM, New York, NY, USA, 5 pages.
Wenn der Rechner zu viel über uns weiß, fühlen wir uns unwohl.
pixabay.com
None
Criteria of this press release:
Business and commerce, Journalists, Scientists and scholars, all interested persons
Information technology, Media and communication sciences, Philosophy / ethics, Psychology, Social studies
transregional, national
Miscellaneous scientific news/publications, Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).