idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
04/26/2023 11:07

KIT-Experte zu aktuellem Thema: „Die Gesellschaft muss sich klarmachen, auf was sie sich mit ChatGPT einlässt.“

Monika Landgraf Stab und Strategie - Gesamtkommunikation
Karlsruher Institut für Technologie

    ChatGPT – ein Computermodell der Firma Open AI, das mithilfe Künstlicher Intelligenz auf die Verarbeitung sprachlicher Daten trainiert wurde – hat seit seiner Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) nun eine umfassende Einschätzung dieses technologischen Durchbruchs in der digitalen Sprachverarbeitung vorgelegt.

    ChatGPT – ein Computermodell der Firma Open AI, das mithilfe Künstlicher Intelligenz auf die Verarbeitung sprachlicher Daten trainiert wurde – hat seit seiner Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) nun eine umfassende Einschätzung dieses technologischen Durchbruchs in der digitalen Sprachverarbeitung vorgelegt.

    „Es ist sinnvoll, jetzt eine breite Debatte darüber zu führen, wie wir mit KI-Systemen umgehen wollen“, betont Dr. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, das auch das TAB betreibt. Albrecht ist Autor der jetzt veröffentlichten Studie ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. „Die Gesellschaft“, so Albrecht, „muss sich klarmachen, auf was sie sich da einlässt und welche Regeln wir vereinbaren wollen. Das System birgt ebenso zahlreiche Chancen wie Risiken. Unsere Studie liefert ein Nebeneinander von Pro und Contra, das lässt sich im Moment noch nicht vermeiden. Für eine klare Bewertung ist es derzeit noch zu früh.“

    Im Einzelnen beschreibt das rund 100-seitige Hintergrundpapier des TAB die Technik, auf der ChatGPT aufsetzt, ihre Möglichkeiten und Grenzen, die potenziellen Anwendungen des Chatbots sowie mögliche gesellschaftliche Auswirkungen. Das scheinbar grenzenlose Wissen der Dialog-KI und ihre verblüffende, blitzschnelle Eloquenz führt Soziologe Albrecht auf zwei technologische Durchbrüche zurück: „Diese neue Art künstlicher neuronaler Netzwerke, die sogenannten Transformermodelle, ermöglicht erstens eine besonders effiziente Umwandlung von Sprache in mathematische Parameter. Dadurch können zweitens die Komplexität dieser Computermodelle und die Menge der für ihr Training verwendeten Daten enorm vergrößert werden.“ So greift das ChatGPT zugrundeliegende Computermodell auf 175 Milliarden Parameter und auf ein Trainingsmaterial von 300 Milliarden Textbestandteilen zurück.

    Für Chatbots derartiger Potenz ergeben sich laut Steffen Albrecht eine Reihe plausibler Einsatzmöglichkeiten: „Viele menschliche Tätigkeiten, die mit der Verarbeitung von Texten verbunden sind, lassen sich nun zumindest teilweise automatisieren. Weitere Perspektiven ergeben sich durch die multimodale Ausdehnung auf Bilder und Töne.“ Solche Entlastungs- beziehungsweise. Rationalisierungseffekte betreffen künftig nicht nur Bereiche wie Journalismus, Unternehmenskommunikation oder Dialoge mit Kundinnen und Kunden, sondern auch Tätigkeiten wie Programmierung und Rechtsberatung, die bisher nicht betroffen waren. „Da die KI-Systeme in natürlicher Sprache angesprochen werden können, könnten sie, wo erforderlich, zugleich als leicht bedienbare Schnittstelle für andere Computersysteme genutzt werden.“ Positive Effekte könnten sich Albrecht zufolge auch für die Inklusion behinderter Menschen ergeben: „Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnte künftig ChatGPT einen Beitrag leisten.“

    Allem medialen Wirbel zum Trotz sollte die öffentliche Debatte über Computermodelle wie ChatGPT auch deren Grenzen und Risiken einbeziehen. „Der Output von Computermodellen kann nur so gut sein wie das, was sie an Input erhalten haben. Ein in den Trainingsdaten enthaltener Bias, also eine verzerrte Repräsentation bestimmter Kategorien, kann sich in den Antworten des Systems widerspiegeln und Diskriminierung verstärken“, sagt Albrecht. Zudem sind die vom System erzeugten Informationen häufig schlicht falsch: „Aufgrund der hohen sprachlichen Qualität und in Ermangelung von Belegen lässt sich die Korrektheit jedoch nur schwer überprüfen, wodurch das Vertrauen in die Verlässlichkeit von Informationen im Allgemeinen sinken kann. Eine verantwortliche Anwendung von ChatGPT sollte sich auf solche Gebiete beschränken, in denen die Nutzenden die Qualität der Ergebnisse beurteilen können beziehungsweise die faktische Richtigkeit weniger bedeutsam ist“, resümiert der Karlsruher Forscher. Daneben diskutiert die Studie konkrete Risiken wie eine Zunahme als solcher nicht erkennbarer computergenerierter Texte in privater und öffentlicher Kommunikation, effektivere Angriffe auf die Computersicherheit oder größere Mengen bewusst schädigend eingesetzter Texte, die das Vertrauen in den öffentlichen Diskurs beziehungsweise die demokratische Meinungsbildung untergraben.

    Einen Schwerpunkt legt die Technikfolgen-Studie des TAB auf die Bereiche Bildung und Forschung.
    Den Hoffnungen von Lehrkräften auf Entlastung von Routineaufgaben und auf eine Erweiterung didaktischer Möglichkeiten stehen dem Papier zufolge Befürchtungen eines Verlusts von Bildungskompetenzen, missbräuchlicher Verwendungen in Prüfungen sowie Datenschutzbedenken gegenüber. „Ich kann mir gut vorstellen“, so Steffen Albrecht, „dass Schulkinder und Studierende künftig nicht mehr nur einen fertigen Text abgeben, sondern dass sie sich schon viel früher mit ihren Lehrkräften darüber auch austauschen. Etwa über die Entwicklung einer Fragestellung, über die Suche nach Quellen oder den Aufbau einer Argumentation. Gerade im Umgang mit Quellen kann ein KI-System wie ChatGPT nur sehr bedingt helfen.“

    In der Wissenschaft könnten Programme wie ChatGPT die Zahl der Betrugsfälle steigen lassen: „Schon heute herrscht ein hoher Druck, möglichst viel zu publizieren. Es ist also leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, die relevante Literatur zusammenzufassen oder in einer anderen als der Muttersprache zu publizieren“, stellt Albrecht fest.

    Die Anwendungspotenziale und möglichen gesellschaftlichen Auswirkungen von Computermodellen wie ChatGPT sind auch Gegenstand einer öffentlichen Sitzung des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages am heutigen 26. April 2023, bei der unter anderem Sachverständige befragt werden.

    Weitere Informationen zur Studie bietet ein ausführliches Interview mit Steffen Albrecht auf https://www.helmholtz.de/newsroom/artikel/was-chatgpt-fuer-bildung-und-wissensch...

    Weiterführende Informationen

    • Studie „ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen“ des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag auf der Publikationsplattform KITopen: https://publikationen.bibliothek.kit.edu/1000158070

    • Pressemitteilung des Deutschen Bundestages: https://www.bundestag.de/presse/pressemitteilungen/2023/pm-230421-forschung-chat...

    Im Portal Expertinnen und Experten des KIT finden Sie weitere Ansprechpersonen aus der Wissenschaft: https://www.sts.kit.edu/expertinnen-und-experten-des-kit.php


    Contact for scientific information:

    Für Interviewwünsche oder weiterführende Informationen stellt der Presseservice des KIT gern den Kontakt zu dem Experten her.
    Bitte wenden Sie sich an Bernd Stegmann, E-Mail: stegmann@tab-beim-bundestag.de, Tel.: 030 28491-114, oder Justus Hartlieb, E-Mail: justus.hartlieb@kit.edu, Tel.: 0721 608-41155.


    More information:

    https://www.sts.kit.edu/expertinnen-und-experten-des-kit.php


    Images

    Criteria of this press release:
    Journalists
    Information technology, Media and communication sciences
    transregional, national
    Science policy, Transfer of Science or Research
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).