idw - Informationsdienst
Wissenschaft
Künstliche Intelligenz soll schon bald dabei helfen, Lügen und Täuschungsversuche zu identifizieren. Ein Forschungsteam der Universitäten Marburg und Würzburg warnt jedoch vor einem verfrühten Einsatz.
Ach, wenn es doch so einfach wäre wie bei Pinocchio. Dem hölzernen Hampelmann war leicht anzusehen, wenn er mal wieder eine Lüge formulierte: Schließlich wurde dabei seine Nase jedes Mal ein Stückchen länger. In der Realität ist es sehr viel schwieriger, Lügen zu erkennen; die Wissenschaft beißt sich an entsprechenden Techniken schon lange die Zähne aus.
Jetzt soll Künstliche Intelligenz (KI) zum Durchbruch bei der Entwicklung eines verlässlichen Lügendetektors verhelfen. Die entsprechende Technik ist in ersten Ansätzen schon im Einsatz – beispielsweise in der Auswertung von automatisierten Befragungen Einreisewilliger an den EU-Grenzen Ungarns, Griechenlands und Litauens, mit der Reisende mit kriminellen Absichten identifiziert werden sollen.
Ein wertvolles Instrument für die Grundlagenforschung
Forschende der Universitäten Marburg und Würzburg warnen jetzt vor einem verfrühten Einsatz von KI zur Lügenerkennung. Ihrer Ansicht nach eignet sich die Technik zwar als potenziell wertvolles Instrument für die Grundlagenforschung. Mit ihrer Hilfe könnte die Wissenschaft bessere Einblick in die psychologischen Mechanismen gewinnen, die der Täuschung zugrunde liegen. Eine konkrete Anwendung jenseits der Wissenschaft betrachten sie jedoch mehr als skeptisch.
Verantwortlich für die jetzt in der Fachzeitschrift Trends in Cognitive Sciences veröffentlichten Studie sind Kristina Suchotzki und Matthias Gamer. Kristina Suchotzki ist Professorin an der Universität Marburg; ihre Forschungsschwerpunkte beinhalten Lügen und deren Erkennung. Matthias Gamer ist Professor am Lehrstuhl für Psychologie I der Universität Würzburg. Einen seiner Forschungsschwerpunkte bildet die Glaubhaftigkeitsdiagnostik.
Drei zentrale Probleme für den Einsatz in der Praxis
Drei Hauptprobleme in der aktuellen Forschung zur KI-basierten Täuschungserkennung benennen Suchotzki und Gamer in ihrer Publikation: ein Mangel an Erklärbarkeit und Transparenz getesteter Algorithmen, das Risiko verzerrter Ergebnisse und Defizite im theoretischen Fundament. Die Ursache dafür sei klar: „Leider haben sich die derzeitigen Ansätze in erster Linie auf technische Aspekte konzentriert, was zu Lasten einer soliden methodischen und theoretischen Grundlage ging“, schreiben die beiden.
In ihrem Artikel legen sie dar, dass viele KI-Algorithmen an einer „mangelnden Erklärbarkeit und Transparenz“ leiden. Oft sei also unklar, wie der Algorithmus zu seinem Ergebnis gelangt. Bei einigen KI-Anwendungen könnten ab einem bestimmten Punkt selbst die Entwickler nicht mehr zweifelsfrei nachvollziehen, wie ein Urteil zustande kommt. Dies mache es unmöglich, die Entscheidungen zu beurteilen und die Gründe für falsche Klassifizierungen zu diskutieren.
Als weiteres Problem beschreiben sie das Auftreten von „Verzerrungen“ in der Entscheidungsfindung. Ursprünglich war die Hoffnung, dass Maschinen menschliche Voreingenommenheit wie zum Beispiel durch Stereotype oder Vorurteile überwinden könnten. Tatsächlich scheitere diese Annahme aber oft an einer fehlerhaften Auswahl der Variablen, die Menschen in das Modell einspeisen, sowie an der geringen Größe und Repräsentativität der verwendeten Daten. Ganz zu schweigen davon, dass nicht selten in den Daten, die zur Erstellung der Systeme verwendet werden, bereits Verzerrungen vorliegen.
Das dritte Problem ist grundsätzlicher Natur: „Dem Einsatz von künstlicher Intelligenz in der Lügendetektion liegt die Annahme zugrunde, dass es möglich ist, ein eindeutiges Indiz oder eine Kombination von Indizien zu identifizieren, die auf eine Täuschung hinweisen“, erläutert Kristina Suchotzki. Dabei sei jedoch nicht einmal jahrzehntelange Forschung in der Lage gewesen, solche Indizien zu identifizieren. Auch eine Theorie, die ihre Existenz überzeugend vorhersagen kann, existiere nicht.
Große Fehleranfälligkeit bei Massenscreenings
Von der Arbeit an einer KI-basierten Täuschungserkennung abraten wollen Suchotzki und Gamer jedoch nicht. Schließlich sei es letzten Endes nur eine empirische Frage, ob diese Technik das Potenzial hat, hinreichend valide Ergebnisse zu liefern. Vor dem Einsatz im Alltag müssten allerdings ihrer Meinung nach eine Reihe von Bedingungen gegeben sein.
„Wir empfehlen Entscheidungsträgern dringend, sorgfältig zu prüfen, ob bei der Entwicklung von Algorithmen grundlegende Qualitätsstandards eingehalten wurden“, sagen sie. Voraussetzung seien unter anderem kontrollierte Laborexperimente, große und vielfältige Datensätze ohne systematische Verzerrungen und die Überprüfung der Algorithmen und deren Akkuratheit an einem unabhängigen, umfangreichen Datensatz.
Ziel müsse es sein, unnötige falsch-positive Ergebnisse zu vermeiden – also den Fall, in dem die KI fälschlicherweise eine Lüge zu erkennen meint. Dabei bestehe ein großer Unterschied zwischen dem Einsatz von KI als Massen-Screening-Instrument, beispielsweise an Flughäfen, und dem Einsatz von KI für bestimmte Vorfälle, wie etwa die Vernehmung eines Verdächtigen in einem Kriminalfall. „Bei Massenscreening-Anwendungen werden häufig sehr unstrukturierte und unkontrollierte Bewertungen vorgenommen. Das erhöht die Anzahl der falsch positiven Ergebnisse drastisch“, erklärt Matthias Gamer.
Warnung an die Politik
Zuletzt raten die beiden Forschenden dazu, KI-gestützte Täuschungserkennung nur in stark strukturierten und kontrollierten Situationen einzusetzen. Obwohl es keine eindeutigen Lügenindikatoren gibt, könne es in solchen Situationen jedoch möglich sein, die Zahl alternativer Erklärungen zu minimieren. Damit steige die Wahrscheinlichkeit, dass Unterschiede im Verhalten oder im Inhalt von Aussagen auf einen Täuschungsversuch zurückgeführt werden können.
Ihre Empfehlungen kombinieren Kristina Suchotzki und Matthias Gamer mit einer Warnung an die Politik: „Die Geschichte lehrt uns, was passiert, wenn wir uns nicht an strenge Forschungsstandards halten, bevor Methoden zur Täuschungserkennung im wirklichen Leben eingeführt werden.“ Das Beispiel des Polygraphen zeige sehr deutlich, wie schwierig es ist, solche Methoden wieder loszuwerden, selbst wenn sich später die Beweise für eine niedrige Erkennungsrate und die systematische Benachteiligung von unschuldigen Verdächtigen häufen.
Prof. Dr. Kristina Suchotzki, Universität Marburg, Fachbereich Psychologie, T: +49 6421 28-23859, kristina.suchotzki@uni-marburg.de
Prof. Dr. Matthias Gamer, Universität Würzburg, Institut für Psychologie, T: +49 931-31-89722, matthias.gamer@uni-wuerzburg.de
Detecting deception with artificial intelligence: promises and perils. Kristina Suchotzki & Matthias Gamer. Trends in Cognitive Sciences. https://doi.org/10.1016/j.tics.2024.04.002
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler
Psychologie
überregional
Forschungsergebnisse
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).