Die meisten Personen sorgen sich in der Regel stärker um unmittelbare Risiken der Künstlichen Intelligenz als um eine spekulative Zukunft, in der KI die Menschheit bedroht. Wie eine neue Studie der Universität Zürich zeigt, unterscheiden die Befragten klar zwischen abstrakten Szenarien und konkreten Problemen – und nehmen letztere besonders ernst.
Es besteht ein breiter Konsens darüber, dass Künstliche Intelligenz mit Risiken verbunden ist, aber es gibt Unterschiede im Verständnis und in der Priorisierung dieser Risiken. Eine verbreitete Sichtweise betont die langfristigen, spekulativen Risiken – etwa, dass KI das Überleben der Menschheit potenziell bedroht. Eine andere konzentriert sich auf unmittelbarere Bedenken, wie KI-Systeme soziale Vorurteile verstärken oder zu Fehlinformationen beitragen. Einige befürchten, dass die Betonung dieser dramatischen «existenziellen Risiken» von den drängenderen, realen Problemen ablenken könnte, die KI bereits heute mit sich bringt.
Aktuelle und zukünftige KI-Risiken
Um diese Ansichten zu untersuchen, führte ein Team von Politikwissenschaftler:innen der Universität Zürich drei gross angelegte Online-Experimente mit über 10'000 Teilnehmenden aus den USA und Grossbritannien durch. Diese wurden mit verschiedenen Schlagzeilen konfrontiert, die KI etwa als katastrophales Risiko darstellten. Andere lasen über aktuelle Gefahren wie Diskriminierung oder Falschinformationen, wieder andere über mögliche Vorteile von KI. Ziel war es, zu untersuchen, ob Warnungen vor einer fernen Katastrophe durch KI die Aufmerksamkeit für reale, aktuelle Probleme verringern.
Grössere Besorgnis über aktuelle Probleme
«Unsere Ergebnisse zeigen, dass sich die Befragten deutlich mehr Sorgen über aktuelle KI-Risiken machen als über mögliche zukünftige Katastrophen», sagt Fabrizio Gilardi, Professor am Institut für Politikwissenschaft der UZH. Auch wenn Texte über existenzielle Bedrohungen die Angst vor solchen Szenarien verstärkten, blieb die Besorgnis über aktuelle Probleme viel höher. Dazu gehören etwa systematische Verzerrungen bei KI-Entscheidungen oder der Verlust von Arbeitsplätzen. Die Studie zeigt aber auch, dass Menschen zwischen spekulativen Gefahren und konkreten Problemen unterscheiden können – und beides ernst nehmen.
Diskurs über KI-Risiken breit führen
Die Studie schliesst damit eine wichtige Wissenslücke. In der öffentlichen Diskussion wird oft befürchtet, dass die Fokussierung auf spektakuläre Zukunftsszenarien von drängenden Gegenwartsproblemen ablenkt. Die Untersuchung liefert nun erstmals systematische Daten, die zeigen: Das Bewusstsein für reale Gefahren bleibt auch dann erhalten, wenn Menschen mit apokalyptischen Warnungen konfrontiert werden. «Unsere Studie zeigt, dass die Diskussion über langfristige Risiken nicht automatisch zu Lasten der Aufmerksamkeit für aktuelle Probleme geht», sagt Co-Autorin Emma Hoes. Fabrizio Gilardi ergänzt: «Der gesellschaftliche Diskurs über KI sollte kein Entweder-oder sein. Es braucht ein gleichzeitiges Verständnis für unmittelbare und potenzielle zukünftige Herausforderungen.»
Literatur
Emma Hoes, Fabrizio Gilardi. Existential Risk Narratives About Artificial Intelligence Do Not Distract From Its Immediate Harms. Proceedings of the National Academy of Sciences. 14 April, 2025. DOI: 10.1073/pnas.2419055122
Kontakt
Prof. Dr. Fabrizio Gilardi
Institut für Politikwissenschaft
Universität Zürich
+41 44 634 39 87
gilardi@ipz.uzh.ch
Dr. Emma Hoes
Institut für Politikwissenschaft
Universität Zürich
+41 44 634 54 61
hoes@ipz.uzh.ch
Prof. Dr. Fabrizio Gilardi
Institut für Politikwissenschaft
Universität Zürich
+41 44 634 39 87
gilardi@ipz.uzh.ch
Dr. Emma Hoes
Institut für Politikwissenschaft
Universität Zürich
+41 44 634 54 61
hoes@ipz.uzh.ch
Emma Hoes, Fabrizio Gilardi. Existential Risk Narratives About Artificial Intelligence Do Not Distract From Its Immediate Harms. Proceedings of the National Academy of Sciences. 14 April, 2025. DOI: https://www.pnas.org/doi/10.1073/pnas.2419055122
Criteria of this press release:
Journalists
Information technology, Media and communication sciences, Politics, Social studies
transregional, national
Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).