Wie wäre eine Welt, in der sich Lügen nicht mehr lohnten? Künstliche Intelligenz soll sie künftig entlarven. Professor Dr. Nils Köbis entwickelt dafür mit einer europäischen Forschungsgruppe einen Algorithmus und untersucht, wie sich eine automatisierte Lügenerkennung auf unsere Gesellschaft auswirken könnte. Das Fachmagazin iScience berichtet über die Studie.
Die meisten Menschen können Lügen nicht gut erkennen. Dazu kommt: Jemanden fälschlich der Lüge zu bezichtigen, kann unangenehme soziale Konsequenzen haben und will gut überlegt sein. Wir gehen daher in den meisten Alltagssituationen davon aus, dass unser Gegenüber die Wahrheit sagt. Für rechtlich relevante Situationen werden daher mitunter Lügendetektoren eingesetzt – moderne Varianten können natürliche Sprache verarbeiten und sind bei der textbasierten Suche nach gefälschten Bewertungen oder Spam überdurchschnittlich genau.
Auch Professor Dr. Nils Köbis vom Research Center for Trustworthy Data Science and Security der Universitätsallianz Ruhr hat gemeinsam mit Kolleg:innen aus Würzburg, Berlin und Toulouse (Frankreich)* einen Algorithmus entwickelt, der Lügen deutlich besser erkennt, als Menschen es können. Die Wissenschaftler:innen untersuchten mit 2.040 Proband:innen aus den USA, wie diese mit den KI-Vorhersagen umgehen. Bezichtigten sie ihr Gegenüber der Lüge, wenn die KI entsprechende Hinweise gab? „Die meisten von ihnen zögerten zunächst, den Algorithmus zu nutzen. Wer die KI-Ratschläge befürwortete, folgte der Empfehlung überwiegend – auch wenn sie besagten, dass der gegenüber lügt“, erklärt Köbis.
Was bedeutet das für unser Zusammenleben, wenn die KI zwar zuverlässiger als Menschen Lügen entlarven kann, aber gelegentlich auch danebenliegt? „Eine breite Verfügbarkeit von Lügen-Erkennungs-Algorithmen könnte zu mehr Misstrauen in der Gesellschaft führen. Denn wer diese Technologie generell befürwortet, beschuldigt auch eher“, erläutert Psychologe Köbis und ergänzt: „Sie könnte aber auch die Aufrichtigkeit in unserer Kommunikation und in Verhandlungen fördern.“ Wichtig sei es daher, den KI-Einsatz gesetzlich zu regeln. „Die Politik sollte Maßnahmen zum Schutz der menschlichen Privatsphäre beschließen und den verantwortungsvollen Einsatz von KI fördern, besonders im Gesundheitswesen und in der Bildung“, so Köbis.
* Universität Würzburg, Max Planck Institute (MPI) for Human Development, Toulouse School of Economics, Institute for Advanced Study Toulouse, Frankreich
Weitere Informationen:
Schenk et al., “Lie detection algorithms disrupt the social dynamics of accusation behavior”, in: iScience (2024), https://doi.org/10.1016/j.isci.2024.110201
Prof. Dr. Nils Köbis, Research Center for Trustworthy Data Science and Security, sekretariat.koebis@uni-due.de
Redaktion: Dr. Alexandra Nießen, Tel. 0203/37 91487, alexandra.niessen@uni-due.de
Research Center for Trustworthy Data Science and Security: Prof. Dr. Nils Köbis, sekretariat.koebis@uni-due.de
Schenk et al., “Lie detection algorithms disrupt the social dynamics of accusation behavior”, in: iScience (2024), https://doi.org/10.1016/j.isci.2024.110201
Schürt KI mehr Misstrauen?
Bild mit Dall-E generiert
Merkmale dieser Pressemitteilung:
Journalisten, Lehrer/Schüler, Studierende, Wissenschaftler, jedermann
Gesellschaft, Informationstechnik, Kulturwissenschaften, Psychologie
überregional
Buntes aus der Wissenschaft, Forschungsergebnisse
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).