Sie posten und liken und sind doch keine Menschen. Können Social Bots tatsächlich Meinung machen? Wissenschaftliche Belege dafür gibt es noch nicht. Ein interdisziplinäres Team der Universität Duisburg-Essen (UDE) hat in einem virtuellen Experiment den Einfluss dieser Software-Roboter in Sozialen Medien untersucht. Demnach reichen wenige Bots, um in einem Netzwerk die Stimmung zu lenken. Die Ergebnisse wurden im European Journal of Information Systems (EJIS) veröffentlicht.*
Social Bots sind Computerprogramme, die in Sozialen Medien wie echte Nutzer agieren und automatisiert Botschaften verbreiten. Es heißt, mit Bots ließen sich Themen künstlich pushen und Debatten verfälschen; auch könnten sie politische Wirkung entfalten. Das wird etwa bei der anstehenden Europawahl befürchtet. „Wie stark Bots Nutzer beeinflussen können, war bislang nicht nachzuweisen, weil die wissenschaftlichen Methoden fehlten“, erklärt Informatiker und Projektleiter Björn Ross.
„Wir haben daher ein Netzwerk mit tausend virtuellen Akteuren simuliert und angenommen, dass die Meinungen zu einem Thema 50:50, positiv und negativ, sind. In der Hälfte der Fälle gewinnt eine Seite die Oberhand – ohne dass Bots im Spiel sind“, sagt Ross. „Aus der Forschung zur so genannten Schweigespirale wissen wir,“ sagt Co-Autor Dr. German Neubaum „dass Menschen sich weniger trauen, ihre Meinung zu vertreten, wenn sie sich damit in der Minderheit wähnen. Deswegen haben wir untersucht, wie Bots eine solche Spirale auslösen können.“
Was das UDE-Team herausfand: Bereits eine geringe Anzahl von zwei bis vier Prozent Bots reichen, dass Nutzer in einer kontroversen Diskussion lieber still sind. Dadurch steigt die Wahrscheinlichkeit von 50 Prozent auf zwei Drittel, dass sich die von den Robotern unterstützte Meinung durchsetzt. Ein falscher Eindruck zur Stimmungslage entsteht.
„Wie erfolgreich Bots Einfluss nehmen“, sagt Björn Ross, „hängt unter anderem von drei Faktoren ab: Wie viele Verbindungen gibt es zwischen den Nutzern eines Netzwerks? Wo werden die Bots in diesem platziert, zentral oder am Rand? Und vor allem, sind sie so gut programmiert, dass sie wie ein Mensch agieren?“
Noch sind Social Bots nicht so vollkommen, dass sie sich nicht erkennen lassen, sagen die Forscher. Doch wahrscheinlich werden sie nach und nach optimiert – auch für wenig wünschenswerte Zwecke wie Täuschungen. Und dann wären Software-Roboter tatsächlich eine Gefahr für die Demokratie.
* „Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks”. Die sechs Autoren dieser Studie gehören dem Graduiertenkolleg User-Centred Social Media und dem Lehrstuhl für Professionelle Kommunikation/Social Media an.
https://www.tandfonline.com/doi/full/10.1080/0960085X.2018.1560920
Björn Ross, Professionelle Kommunikation/Social Media, Tel. 0203/37-92363, bjoern.ross@uni-due.de
https://www.tandfonline.com/doi/full/10.1080/0960085X.2018.1560920
Criteria of this press release:
Journalists, Scientists and scholars, all interested persons
Information technology, Mechanical engineering, Media and communication sciences, Social studies
transregional, national
Research results, Scientific Publications
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).