idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
19.06.2023 16:59

Die Verantwortung der Wissenschaft: Expert*innen ermutigen proaktiven Einsatz von ChatGPT mit ethischen Standards

Frederik Efferenn Wissenschaftskommunikation
Alexander von Humboldt Institut für Internet und Gesellschaft

    Berlin, 19. Juni 2023 – Large Language Models (LLMs) haben das Potenzial, das Wissenschaftssystem zu revolutionieren. Das ist das Ergebnis einer Delphi-Umfrage des Alexander von Humboldt Instituts für Internet und Gesellschaft (HIIG). Für die Studie wurden weltweit 72 internationale Expert*innen aus den Bereichen Künstliche Intelligenz (KI) und Digitalisierungsforschung befragt.

    Mit Blick auf die wissenschaftliche Praxis kommen sie zu dem Schluss, dass die positiven Auswirkungen die negativen deutlich überwiegen werden. Zugleich betonen sie die dringende Aufgabe von Wissenschaft und Politik, mögliche Desinformation durch große Sprachmodelle aktiv zu bekämpfen. Sie fordern strengere rechtliche Regulierungen, mehr Transparenz und ethische Standards beim Einsatz generativer KI, um die Glaubwürdigkeit wissenschaftlicher Forschung zu wahren. Die Studie „Friend or Foe? Exploring the Implications of Large Language Models on the Science System” ist ab sofort als Preprint verfügbar.
    Link: https://arxiv.org/abs/2306.09928

    Die durchgeführte Studie konzentriert sich konkret auf die Anwendungen von großen Sprachmodellen, ihre Auswirkungen auf die wissenschaftliche Praxis, ethische und rechtliche Überlegungen sowie die erforderlichen Kompetenzen für ihre effektive Nutzung. Den befragten Expert*innen zufolge machen sich die positiven Effekte am stärksten im textuellen Bereich der wissenschaftlichen Arbeit bemerkbar. Sie steigern die Effizienz von Forschungsprozessen, indem sie verschiedene Aufgaben beim Verfassen und Veröffentlichen von wissenschaftlichen Ergebnissen automatisieren. Zudem ermöglichen sie eine große Entlastung für administrative Berichts- und Antragsverfahren, die in den letzten Jahren im Arbeitsalltag von Wissenschaftler*innen stark zugenommen haben. Die Studienteilnehmenden sind der Meinung, dass Forschende so wieder mehr Zeit haben, sich auf ihre Untersuchungsinhalte zu konzentrieren und ihre Ergebnisse einem breiteren Publikum effektiv zu vermitteln. Somit schaffen große Sprachmodelle zukünftig mehr Raum für kritisches Denken, neue Innovationen und eine breitere Kommunikation von Ergebnissen.

    Neben den unbestreitbaren Vorteilen unterstreicht die Studie aber auch die Notwendigkeit, sich mit möglichen negativen Folgen für das Wissenschaftssystem auseinanderzusetzen. Große Sprachmodelle können missbraucht werden, um falsche, irreführende und scheinbar wissenschaftliche Behauptungen aufzustellen. Diese sind auf den ersten Blick oft schwer von echten Forschungsergebnissen zu unterscheiden. Den Befragten zufolge können mit ihnen Fehlinformationen in der öffentlichen Debatte verbreitet und politische Entscheidungen beeinflusst werden. Ein weiteres Problem sehen sie in fehlerhaften Trainingsdaten von großen Sprachmodellen, durch die beispielsweise diskriminierende Stereotypen in die von ihnen produzierten Texte eingebettet werden. Diese Fehler könnten unbemerkt in wissenschaftliche Debatten eindringen, wenn Forschende LLM-generierte Inhalte ohne gründliche Überprüfung in ihre tägliche Arbeit einbeziehen.

    Um diese Herausforderungen zukünftig zu bewältigen, müssen sich Wissenschaftler*innen neue Kompetenzen aneignen. Dazu gehört beispielsweise die Fähigkeit, Ergebnisse von großen Sprachmodellen kritisch zu kontextualisieren. In Zeiten, in denen die Verbreitung von Desinformationen in der Gesellschaft zunimmt, braucht es Forschende, die mit ihrer Expertise, Autorität und Reputation für die Versachlichung des öffentlichen Diskurses eintreten. Die Befragten fordern deswegen strengere gesetzliche Regelungen, eine erhöhte Transparenz der Trainingsdaten sowie verantwortungsvolle und ethische Praktiken beim Einsatz generativer KI.

    Dr. Benedikt Fecher, Forschungsleiter am HIIG und Geschäftsführer von Wissenschaft im Dialog, kommentiert: „Die Ergebnisse verdeutlichen das transformative Potenzial großer Sprachmodelle in der wissenschaftlichen Forschung. Obwohl ihr enormer Nutzen die Risiken überwiegt, zeigen die Expert*innenmeinungen aus den Bereichen KI und Digitalisierung, wie wichtig es ist, die Herausforderungen im Zusammenhang mit Fehlinformationen und dem Verlust des Vertrauens in die Wissenschaft konkret anzugehen. Wenn wir LLMs verantwortungsvoll einsetzen und uns an ethische Richtlinien halten, können wir mit ihnen die positiven Auswirkungen maximieren und den potenziellen Schaden minimieren.“

    Kontakte für Presse und Fragen zur Studie
    Frederik Efferenn | Tel. +49 30 200 760 82 | presse@hiig.de

    Das Alexander von Humboldt Institut für Internet und Gesellschaft
    Das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) erforscht die Entwicklung des Internets aus einer gesellschaftlichen Perspektive, um die damit einhergehende Digitalisierung aller Lebensbereiche besser zu verstehen. Als erstes Forschungsinstitut in Deutschland mit einem Fokus auf Internet und Gesellschaft hat das HIIG ein Verständnis erarbeitet, das die Einbettung digitaler Innovationen in gesellschaftliche Prozesse betont. Basierend auf dieser transdisziplinären Expertise und als Teil des Global Network of Interdisciplinary Internet & Society Research Centers will das HIIG eine europäische Antwort auf den digitalen Strukturwandel entwickeln.
    Link: https://www.hiig.de/


    Wissenschaftliche Ansprechpartner:

    Dr. Benedikt Fecher: benedikt.fecher@hiig.de


    Originalpublikation:

    https://doi.org/10.48550/arXiv.2306.09928


    Weitere Informationen:

    https://www.hiig.de/einsatz-von-chatgpt-in-der-wissenschaft/ - Pressemitteilung


    Bilder

    Pressemitteilung_press release_ChatGPT
    Pressemitteilung_press release_ChatGPT
    Rolf van Root
    @freshvanroot (https://unsplash.com/de/fotos/oLthDWAG244)


    Merkmale dieser Pressemitteilung:
    Journalisten, Studierende, Wissenschaftler, jedermann
    Gesellschaft, Informationstechnik, Medien- und Kommunikationswissenschaften, Politik, Recht
    überregional
    Forschungsergebnisse, Wissenschaftliche Publikationen
    Deutsch


     

    Pressemitteilung_press release_ChatGPT


    Zum Download

    x

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).