Sie posten und liken und sind doch keine Menschen. Können Social Bots tatsächlich Meinung machen? Wissenschaftliche Belege dafür gibt es noch nicht. Ein interdisziplinäres Team der Universität Duisburg-Essen (UDE) hat in einem virtuellen Experiment den Einfluss dieser Software-Roboter in Sozialen Medien untersucht. Demnach reichen wenige Bots, um in einem Netzwerk die Stimmung zu lenken. Die Ergebnisse wurden im European Journal of Information Systems (EJIS) veröffentlicht.*
Social Bots sind Computerprogramme, die in Sozialen Medien wie echte Nutzer agieren und automatisiert Botschaften verbreiten. Es heißt, mit Bots ließen sich Themen künstlich pushen und Debatten verfälschen; auch könnten sie politische Wirkung entfalten. Das wird etwa bei der anstehenden Europawahl befürchtet. „Wie stark Bots Nutzer beeinflussen können, war bislang nicht nachzuweisen, weil die wissenschaftlichen Methoden fehlten“, erklärt Informatiker und Projektleiter Björn Ross.
„Wir haben daher ein Netzwerk mit tausend virtuellen Akteuren simuliert und angenommen, dass die Meinungen zu einem Thema 50:50, positiv und negativ, sind. In der Hälfte der Fälle gewinnt eine Seite die Oberhand – ohne dass Bots im Spiel sind“, sagt Ross. „Aus der Forschung zur so genannten Schweigespirale wissen wir,“ sagt Co-Autor Dr. German Neubaum „dass Menschen sich weniger trauen, ihre Meinung zu vertreten, wenn sie sich damit in der Minderheit wähnen. Deswegen haben wir untersucht, wie Bots eine solche Spirale auslösen können.“
Was das UDE-Team herausfand: Bereits eine geringe Anzahl von zwei bis vier Prozent Bots reichen, dass Nutzer in einer kontroversen Diskussion lieber still sind. Dadurch steigt die Wahrscheinlichkeit von 50 Prozent auf zwei Drittel, dass sich die von den Robotern unterstützte Meinung durchsetzt. Ein falscher Eindruck zur Stimmungslage entsteht.
„Wie erfolgreich Bots Einfluss nehmen“, sagt Björn Ross, „hängt unter anderem von drei Faktoren ab: Wie viele Verbindungen gibt es zwischen den Nutzern eines Netzwerks? Wo werden die Bots in diesem platziert, zentral oder am Rand? Und vor allem, sind sie so gut programmiert, dass sie wie ein Mensch agieren?“
Noch sind Social Bots nicht so vollkommen, dass sie sich nicht erkennen lassen, sagen die Forscher. Doch wahrscheinlich werden sie nach und nach optimiert – auch für wenig wünschenswerte Zwecke wie Täuschungen. Und dann wären Software-Roboter tatsächlich eine Gefahr für die Demokratie.
* „Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks”. Die sechs Autoren dieser Studie gehören dem Graduiertenkolleg User-Centred Social Media und dem Lehrstuhl für Professionelle Kommunikation/Social Media an.
https://www.tandfonline.com/doi/full/10.1080/0960085X.2018.1560920
Björn Ross, Professionelle Kommunikation/Social Media, Tel. 0203/37-92363, bjoern.ross@uni-due.de
https://www.tandfonline.com/doi/full/10.1080/0960085X.2018.1560920
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler, jedermann
Gesellschaft, Informationstechnik, Maschinenbau, Medien- und Kommunikationswissenschaften
überregional
Forschungsergebnisse, Wissenschaftliche Publikationen
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).