Künstliche Intelligenz (KI) kann so trainiert werden, dass sie erkennt, ob ein Gewebebild Tumor enthält. Wie sie ihre Entscheidung trifft, bleibt bislang jedoch verborgen. Ein Team des Forschungszentrums für Protein-Diagnostik, kurz PRODI, der Ruhr-Universität Bochum entwickelt einen neuen Ansatz: Mit ihm wird die Entscheidung einer KI erklärbar und somit vertrauenswürdig. Den Ansatz beschreiben die Forschenden um Prof. Dr. Axel Mosig in der Zeitschrift „Medical Image Analysis“, online veröffentlicht am 24. August 2022.
Für die Arbeiten kooperierte Bioinformatiker Axel Mosig mit Prof. Dr. Andrea Tannapfel, Leiterin des Instituts für Pathologie, der Onkologin Prof. Dr. Anke Reinacher-Schick vom St. Josef Hospital der Ruhr-Universität sowie dem Biophysiker und PRODI-Gründungsdirektor Prof. Dr. Klaus Gerwert. Die Gruppe entwickelte ein neuronales Netz, also eine KI, die einordnen kann, ob eine Gewebeprobe Tumor enthält oder nicht. Dazu fütterten sie die KI mit vielen mikroskopischen Gewebebildern, von denen einige tumorhaltig, andere tumorfrei waren.
„Neuronale Netze sind zunächst eine Black Box: Es ist unklar, welche Unterscheidungsmerkmale ein Netzwerk aus den Trainingsdaten lernt“, erläutert Axel Mosig. Im Vergleich zu menschlichen Expertinnen und Experten fehlt ihnen die Fähigkeit, Entscheidungen zu erklären. „Gerade bei medizinischen Anwendungen ist es aber wichtig, dass die KI erklärbar und somit vertrauenswürdig ist“, ergänzt der an der Studie beteiligte Bioinformatiker David Schuhmacher.
KI basiert auf falsifizierbaren Hypothesen
Die erklärbare KI des Bochumer Teams basiert daher auf der einzigen Art von sinnvollen Aussagen, die die Wissenschaft kennt: auf falsifizierbaren Hypothesen. Ist eine Hypothese falsch, so muss das durch ein Experiment nachweisbar sein. Künstliche Intelligenz folgt normalerweise dem Prinzip des induktiven Schließens: Aus konkreten Beobachtungen, den Trainingsdaten, erstellt die KI ein allgemeines Modell, auf dem basierend sie alle weiteren Beobachtungen bewertet.
Das Problem dahinter hat der Philosoph David Hume bereits vor 250 Jahren beschrieben und lässt sich leicht veranschaulichen: Wenn man noch so viele weiße Schwäne beobachten würde, könnte man aus diesen Daten trotzdem niemals schließen, dass alle Schwäne weiß sind und dass es keine schwarzen Schwäne gibt. Die Wissenschaft bedient sich daher der sogenannten deduktiven Logik. Bei diesem Vorgehen ist eine allgemeine Hypothese der Ausgangspunkt. Zum Beispiel wird die Hypothese, dass alle Schwäne weiß sind, durch die Beobachtung eines schwarzen Schwans falsifiziert.
Aktivierungskarte zeigt, wo der Tumor erkannt wird
„Auf den ersten Blick erscheinen die induktiv arbeitende KI und die deduktive wissenschaftliche Methode fast unvereinbar“, sagt die ebenfalls an der Studie beteiligte Physikerin Stephanie Schörner. Aber die Forschenden fanden einen Weg. Ihr neu entwickeltes neuronales Netz liefert nicht nur eine Klassifikation, ob eine Gewebeprobe tumorhaltig oder tumorfrei ist. Sie erzeugt zusätzlich eine Aktivierungskarte des mikroskopischen Gewebebildes.
Die Aktivierungskarte orientiert sich an einer falsifizierbaren Hypothese, nämlich dass die vom neuronalen Netz abgeleitete Aktivierung genau den Tumorregionen in der Probe entspricht. Mit ortsspezifischen molekularen Methoden kann diese Hypothese überprüft werden.
„Dank der interdisziplinären Strukturen am PRODI haben wir beste Voraussetzungen, um den hypothesenbasierten Ansatz zukünftig in die Entwicklung vertrauenswürdiger Biomarker-KI einfließen zu lassen, beispielsweise um bestimmte Therapie-relevante Tumor-Subtypen unterscheiden zu können“, resümiert Axel Mosig.
Förderung
PRODI wird gefördert vom Ministerium für Kultur und Wissenschaft des Landes NRW (Grantnummer 111.08.03.05-133974). Das Bundesministerium für Bildung und Forschung förderte einen Teil der Arbeiten im Rahmen des Projekts „Slide2Mol“ unter dem Förderkennzeichen 031L0264.
Weitere Fotos zum Download
Weitere Bilder und ausführliche Bilderklärungen finden Sie unter:
https://news.rub.de/presseinformationen/wissenschaft/2022-09-02-bioinformatik-wi...
Prof. Dr. Axel Mosig
Kompetenzbereich Bioinformatik
Zentrum für Proteindiagnostik
Ruhr-Universität Bochum
Tel.: +49 234 32 18133
E-Mail: axel.mosig@rub.de
David Schuhmacher et al.: A framework for falsifiable explanations of machine learning models with an application in computational pathology, in: Medical Image Analysis, 2022, DOI: 10.1016/j.media.2022.102594, https://www.sciencedirect.com/science/article/pii/S1361841522002286
Sie haben die scheinbar unvereinbare induktive Vorgehensweise von maschinellem Lernen mit deduktive ...
RUB, Marquard
Aus dem mikroskopischen Bild einer Gewebeprobe (links) leitet das neuronale Netz eine Aktivierungska ...
PRODI
Criteria of this press release:
Journalists
Biology, Information technology
transregional, national
Research results, Scientific Publications
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).