idw - Informationsdienst
Wissenschaft
KI-Systeme greifen zunehmend in die Meinungsbildung ein – oft unbemerkt. Eine neue Studie zeigt nun, dass bestehende Gesetze wie der AI Act dafür kaum gewappnet sind. Die Ergebnisse wurden von Forschenden des Weizenbaum-Instituts im Fachjournal Communications of the ACM veröffentlicht.
Die großen Sprachmodelle hinter KI-Anwendungen fungieren zunehmend als „Gatekeeper“ von Informationen. Stefan Schmid, Principal Investigator am Weizenbaum-Institut, und Adrian Kuenzler von der University of Hong Kong (ehemals Fellow am Weizenbaum-Institut), untersuchten, inwiefern sie Vorurteile und diskriminierende Verzerrungen (Bias) transportieren, welche gesellschaftlichen Risiken dies birgt und wo Regulierungen nachgebessert werden müssen.
KI als Meinungsbildner
Sprachmodelle bilden heute das Rückgrat zahlreicher digitaler Anwendungen – von Chatbots über virtuelle Assistenten bis hin zu komplexen Entscheidungssystemen in der Arbeitswelt. Die Studie legt dar, dass diese Systeme keineswegs neutral operieren. Ihre Outputs basieren auf Mustern in Trainingsdaten, die bestimmte Weltbilder und Wertevorstellungen transportieren. Darüber hinaus sind KI-Systeme oft so konfiguriert, dass sie Nutzer:innen in ihren Einstellungen verstärken oder bestimmte Inhalte filtern.
„Die Wahrscheinlichkeit, dass große Sprachmodelle politische Meinungen und das Wahlverhalten von Nutzer:innen auf subtile Weise beeinflussen, ist eine ernstzunehmende Gefahr für die öffentliche Debatte und unsere Demokratie“, erklärt Stefan Schmid. Besonders kritisch sei, dass diese Beeinflussung oft unterschwellig erfolgt und somit für die Betroffenen schwer als solche erkennbar ist.
Defizite in der Gesetzgebung: AI Act und DSA unter der Lupe
Die Untersuchung analysiert kritisch die bestehende europäische Gesetzgebung, insbesondere den Digital Services Act (DSA) und den AI Act. Die Autoren kommen zu dem Schluss, dass sie das Problem bisher nur am Rande behandeln. Der Fokus liege auf offensichtlicher Schadensabwehr, während die subtile Erosion des Meinungsklimas durch algorithmisch verstärkte Bias vernachlässigt wird. Ein weiteres Risiko bestehe in der Marktdominanz weniger KI-Unternehmen, was die Vielfalt der Perspektiven im digitalen Raum weiter einschränken könnte.
Forderung nach einem ganzheitlichen Regulierungsansatz
Um den Schutz vor Diskriminierung und Polarisierung effektiv zu gewährleisten, schlagen Schmid und Kuenzler eine Erweiterung der regulatorischen Perspektive vor. Ein wirksamer Schutzmechanismus müsse Inhaltsmoderation, Wettbewerbsrecht, Transparente Lieferketten und Technologie-Design der Systeme umfassen.
Studie: Communication Bias in Large Language Models: A Regulatory Perspective https://dl.acm.org/doi/10.1145/3769689
Communication Bias in Large Language Models: A Regulatory Perspective https://dl.acm.org/doi/10.1145/3769689
Merkmale dieser Pressemitteilung:
Journalisten
Informationstechnik, Medien- und Kommunikationswissenschaften, Politik, Recht
überregional
Forschungsergebnisse
Deutsch

Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).