idw - Informationsdienst
Wissenschaft
Wie wäre eine Welt, in der sich Lügen nicht mehr lohnten? Künstliche Intelligenz soll sie künftig entlarven. Professor Dr. Nils Köbis entwickelt dafür mit einer europäischen Forschungsgruppe einen Algorithmus und untersucht, wie sich eine automatisierte Lügenerkennung auf unsere Gesellschaft auswirken könnte. Das Fachmagazin iScience berichtet über die Studie.
Die meisten Menschen können Lügen nicht gut erkennen. Dazu kommt: Jemanden fälschlich der Lüge zu bezichtigen, kann unangenehme soziale Konsequenzen haben und will gut überlegt sein. Wir gehen daher in den meisten Alltagssituationen davon aus, dass unser Gegenüber die Wahrheit sagt. Für rechtlich relevante Situationen werden daher mitunter Lügendetektoren eingesetzt – moderne Varianten können natürliche Sprache verarbeiten und sind bei der textbasierten Suche nach gefälschten Bewertungen oder Spam überdurchschnittlich genau.
Auch Professor Dr. Nils Köbis vom Research Center for Trustworthy Data Science and Security der Universitätsallianz Ruhr hat gemeinsam mit Kolleg:innen aus Würzburg, Berlin und Toulouse (Frankreich)* einen Algorithmus entwickelt, der Lügen deutlich besser erkennt, als Menschen es können. Die Wissenschaftler:innen untersuchten mit 2.040 Proband:innen aus den USA, wie diese mit den KI-Vorhersagen umgehen. Bezichtigten sie ihr Gegenüber der Lüge, wenn die KI entsprechende Hinweise gab? „Die meisten von ihnen zögerten zunächst, den Algorithmus zu nutzen. Wer die KI-Ratschläge befürwortete, folgte der Empfehlung überwiegend – auch wenn sie besagten, dass der gegenüber lügt“, erklärt Köbis.
Was bedeutet das für unser Zusammenleben, wenn die KI zwar zuverlässiger als Menschen Lügen entlarven kann, aber gelegentlich auch danebenliegt? „Eine breite Verfügbarkeit von Lügen-Erkennungs-Algorithmen könnte zu mehr Misstrauen in der Gesellschaft führen. Denn wer diese Technologie generell befürwortet, beschuldigt auch eher“, erläutert Psychologe Köbis und ergänzt: „Sie könnte aber auch die Aufrichtigkeit in unserer Kommunikation und in Verhandlungen fördern.“ Wichtig sei es daher, den KI-Einsatz gesetzlich zu regeln. „Die Politik sollte Maßnahmen zum Schutz der menschlichen Privatsphäre beschließen und den verantwortungsvollen Einsatz von KI fördern, besonders im Gesundheitswesen und in der Bildung“, so Köbis.
* Universität Würzburg, Max Planck Institute (MPI) for Human Development, Toulouse School of Economics, Institute for Advanced Study Toulouse, Frankreich
Weitere Informationen:
Schenk et al., “Lie detection algorithms disrupt the social dynamics of accusation behavior”, in: iScience (2024), https://doi.org/10.1016/j.isci.2024.110201
Prof. Dr. Nils Köbis, Research Center for Trustworthy Data Science and Security, sekretariat.koebis@uni-due.de
Redaktion: Dr. Alexandra Nießen, Tel. 0203/37 91487, alexandra.niessen@uni-due.de
Research Center for Trustworthy Data Science and Security: Prof. Dr. Nils Köbis, sekretariat.koebis@uni-due.de
Schenk et al., “Lie detection algorithms disrupt the social dynamics of accusation behavior”, in: iScience (2024), https://doi.org/10.1016/j.isci.2024.110201
Schürt KI mehr Misstrauen?
Bild mit Dall-E generiert
Criteria of this press release:
Journalists, Scientists and scholars, Students, Teachers and pupils, all interested persons
Cultural sciences, Information technology, Psychology, Social studies
transregional, national
Miscellaneous scientific news/publications, Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).