idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
24.05.2024 08:43

Regeln für den Umgang mit KI in der Wissenschaft

Dr. Jeanne Rubner Corporate Communications Center
Technische Universität München

    Künstliche Intelligenz (KI) erzeugt Texte, Videos und Bilder, die sich kaum noch von denen von Menschen unterscheiden lassen – mit der Folge, dass wir oft nicht mehr wissen, was echt ist. Auch Forschende lassen sich immer häufiger von KI unterstützen. Eine internationale Arbeitsgruppe hat nun Grundsätze für die Nutzung von KI in der Forschung erstellt, die das Vertrauen in Wissenschaft sichern sollen.

    Reproduzierbarkeit, Transparenz, Verantwortung – davon lebt die Wissenschaft. Vertrauen in die Forschung entsteht insbesondere dadurch, dass Ergebnisse unabhängig davon, an welchem Institut sie entstanden sind, gültig sind. Außerdem müssen Daten, die einer Studie zugrunde liegen, veröffentlicht werden und Forschende die Verantwortung für ihre Publikationen übernehmen.

    Was aber, wenn Künstliche Intelligenz mitforscht? Längst nutzen Fachleute KI-Werkzeuge, um neue Moleküle zu entwerfen, komplexe Daten auszuwerten, ja sogar um Forschungsfragen zu generieren oder etwa eine mathematische Vermutung zu beweisen. KI verändert die Forschung massiv – und deswegen diskutiert die Fachwelt, wie Ergebnisse trotzdem vertrauenswürdig bleiben.

    Forderungen im Fachmagazin PNAS veröffentlicht

    Fünf Prinzipien sollen die menschliche Verantwortung in der Forschung weiterhin sichern, wie jetzt eine interdisziplinäre Arbeitsgruppe mit Mitgliedern aus Politik, Unternehmen und Wissenschaft in der neuesten Ausgabe der Fachzeitschrift Proceedings of the National Academies of Sciences (PNAS) fordert. An dem Verhaltenskodex hat auch Urs Gasser, Professor für Public Policy, Governance and Innovative Technology an der TUM, mitgewirkt.

    Die Forderungen in Kürze:

    • Wissenschaftlerinnen und Wissenschaftler sollen offenlegen, welche Tools und Algorithmen sie benutzt haben und die Beiträge von Maschine beziehungsweise Mensch klar kennzeichnen.
    • Die Forschenden tragen weiterhin die Verantwortung für die Genauigkeit der Daten und für die Schlussfolgerungen, die sie aus diesen ziehen, selbst wenn sie dafür KI-Analysetools verwendet haben.
    • KI-generierte Daten müssen kenntlich gemacht werden, damit sie nicht mit Daten und Beobachtungen aus der realen Welt verwechselt werden können.
    • Die Fachleute müssen sicherstellen, dass ihre Ergebnisse wissenschaftlich fundiert sind und keinen Schaden anrichten. Das Risiko, dass KI etwa durch die verwendeten Trainingsdaten „voreingenommen“ wird, muss möglichst gering gehalten werden.
    • Nicht zuletzt sollen Forschende, zusammen mit Politik, Zivilgesellschaft und Unternehmen die Auswirkungen von KI überwachen und gegebenenfalls Methoden und Regeln anpassen.

    „Signalwirkung für Forschende“

    „Bisherige KI-Prinzipien betreffen vor allem die Entwicklung von KI. Die nun erarbeiteten Grundsätze fokussieren dagegen auf die Nutzung in der Wissenschaft und kommen zur richtigen Zeit. Sie haben Signalwirkung für Forschende über Disziplinen und Sektoren hinweg“, erläutert Urs Gasser.

    Ein neuer Strategierat – angesiedelt bei der Nationalen Akademie der Naturwissenschaften, Ingenieurwissenschaften und Medizin der USA - soll der Wissenschaft beratend zur Seite stehen, schlägt die Arbeitsgruppe vor. „Ich wünsche mir, dass Wissenschaftsakademien in anderen Ländern – namentlich auch hier in Europa – den Ball aufnehmen und die Diskussion um den verantwortungsvollen Umgang mit KI in der Forschung weiter verstärken“, so Urs Gasser.

    Publikation:

    Blau, W. et al. PNAS 2024 Vol. 121 (22) e2407886121 https://doi.org/10.1073/pnas.2407886121


    Kontakt im TUM Corporate Communications Center:

    Dr. Jeanne Rubner
    Tel.: +49 89 289 25283
    jeanne.rubner@tum.de
    www.tum.de


    Wissenschaftliche Ansprechpartner:

    Prof. Dr. Urs Gasser
    Technische Universität München (TUM)
    Lehrstuhl für Public Policy, Governance and Innovative Technology
    urs.gasser@tum.de


    Originalpublikation:

    Blau, W. et al. PNAS 2024 Vol. 121 (22) e2407886121 https://doi.org/10.1073/pnas.2407886121


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten
    Informationstechnik, Medien- und Kommunikationswissenschaften, Philosophie / Ethik, Politik
    überregional
    Forschungsergebnisse, Wissenschaftliche Publikationen
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).