Ein interdisziplinäres Projektteam erforscht ab heute den privatsphäreschonenden Einsatz großer Sprachmodelle im Gesundheitswesen. Das Verbundprojekt ILLUMINATION führt technische, rechtliche, mensch-zentrierte und medizinische Perspektiven zusammen, um eine Anwendung für den klinischen Bereich zu entwickeln, die medizinisches Personal dabei unterstützen soll, Patienten in der Notaufnahme schneller zu priorisieren. Das Bundesministerium für Bildung und Forschung fördert ILLUMINATION über drei Jahre mit insgesamt rd. 1,7 Mio. Euro. Unter der Leitung des CISPA Helmholtz-Zentrums für Informationssicherheit kommen die Verbundpartner heute an der Charité in Berlin für den Projektstart zusammen.
Medizinische Versorgung erfordert umfangreiche Prozesse zur Sprach- und Textverarbeitung: Patientendaten erfassen, Symptome aufnehmen, Krankheitsgeschichten erfragen und Beschwerden einordnen – all das und mehr muss von medizinischem Personal oftmals unter Zeitdruck dokumentiert und ausgewertet werden. Große Sprachmodelle, oder Large Language Models (LLM), sind theoretisch schon jetzt in der Lage, diese Aufgaben weitaus effizienter als Menschen ausführen. In der Praxis birgt das jedoch beträchtliche Risiken für den Datenschutz und die Privatsphäre. Um sensible Patientendaten zuverlässig zu schützen und gleichzeitig die Vorteile von LLMs für die medizinische Versorgung zu nutzen, werden im Rahmen von ILLUMINATION gesetzeskonforme Privatsphäremethoden für LLM-basierte Anwendungen entwickelt.
Große Sprachmodelle in der Notaufnahme: Vorteile bei der Vortriage
Im Zentrum des Projekts steht die Entwicklung einer privatsphärefreundlichen LLM-basierten Anwendung, die das medizinische Personal bei der Vortriage von Patienten in der Notaufnahme unterstützt. Über interaktive Chats sollen Patienten ihre Beschwerden mit dem LLM teilen können, welches die Symptome dann auswertet und eine Priorisierung der Patienten vorschlägt. Aufbauend auf dieser Vorarbeit ermittelt das medizinische Personal zusätzliche Vitalparameter und trifft eine Entscheidung über die weitere Behandlung. Franziska Boenisch, Projektkoordinatorin von ILLUMINATION und leitende Wissenschaftlerin am CISPA, erläutert die Zielsetzung des Projekts: „Mithilfe von LLMs wollen wir Ärztinnen und Ärzte im zeitkritischen Umfeld der Notaufnahmen entlasten. Aufgrund der Privatsphärerisiken war der Einsatz von LLMs in der Vortriage bisher noch nicht möglich.“
Vorhersagequalität mit Privatsphärefreundlichkeit verbinden
Große Sprachmodelle können in spezifischen Kontexten nur dann qualitativ hochwertige Vorhersagen liefern, wenn sie für das jeweilige Einsatzgebiet gezielt weitertrainiert worden sind. Für den Einsatz in der Notaufnahme muss das Projektteam seine Anwendung also mit realen Patientendaten aus vorangegangenen Triagevorgängen füttern. Damit diese sensiblen Daten weder an die Betreiber der LLMs noch an die späteren Anwender leaken können, entwickelt das Projektteam Privatsphäremethoden auf Basis der Differential Privacy. Franziska Boenisch erklärt: „Differential Privacy ist ein mathematischer Framework, der garantieren kann, dass die Daten von Individuen auch privat bleiben. Das heißt, dass das LLM zwar aus der Population lernen kann, also aus der Summe aller eingegebenen Trainingsdaten, aber nicht aus den individuellen Daten eines einzelnen Patienten. Umgekehrt wird auch garantiert, dass kein Individuum einen zu großen Einfluss auf das System und seine Vorhersagen hat.“
Interdisziplinäres Projektteam garantiert ganzheitliche Perspektive
Dieses Vorhaben fördert das Bundesministerium für Bildung und Forschung für knapp drei Jahre mit rd. 1,7 Millionen Euro. Um eine ganzheitliche Sicht auf den Einsatz großer Sprachmodelle im medizinischen Bereich abzubilden, bringt ILLUMINATION die Charité – Universitätsmedizin Berlin, die Universität Heidelberg, die Freie Universität Berlin (FU), und das Berliner Startup algonaut unter der Leitung des CISPA zusammen. Die interdisziplinäre Zusammensetzung des Projektteams vereint Expertisen und Perspektiven aus Medizin, Rechtswissenschaft, Human-Centered Computing, LLM-basierter Prototypentwicklung und maschinellem Lernen.
ILLUMINATION wird gefördert vom Bundesministerium für Bildung und Forschung.
Über das CISPA
Das CISPA Helmholtz-Zentrum für Informationssicherheit ist eine Großforschungseinrichtung des Bundes innerhalb der Helmholtz-Gemeinschaft. Seine Forscher:innen beschäftigen sich mit allen Facetten der Informationssicherheit. Sie arbeiten an den drängenden, globalen Herausforderungen der Cybersicherheit, des Datenschutzes und der vertrauenswürdigen künstlichen Intelligenz. Mit moderner Grundlagenforschung und innovativer anwendungsorientierter Forschung stärken sie die Sicherheit des digitalen Raumes und verbessern industrielle Anwendungen und Produkte. Das CISPA fördert wissenschaftliche Talente, unterstützt vielversprechende Gründer:innen und bildet Fach- und Führungskräfte für die Wirtschaft aus. So trägt es seine Forschungsergebnisse in die Gesellschaft und stärkt die Konkurrenzfähigkeit Deutschlands und Europas.
https://cispa.de
Dr. Franziska Boenisch
Dr. Adam Dziedzic
CISPA Helmholtz-Zentrum für Informationswissenschaft
Stuhlsatzenhaus 5, 66123 Saarbrücken
boenisch@cispa.de
dziedzic@cispa.de
Das Projekt ILLUMINATION ist heute gestartet.
CISPA
Criteria of this press release:
Journalists, Scientists and scholars
Information technology, Medicine
transregional, national
Cooperation agreements, Research projects
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).