gms | German Medical Science

67. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e. V. (GMDS), 13. Jahreskongress der Technologie- und Methodenplattform für die vernetzte medizinische Forschung e. V. (TMF)

21.08. - 25.08.2022, online

AUCMEDI: Von der Insellösung zur einheitlichen und automatischen Klassifizierung von medizinischen Bildern

Meeting Abstract

  • Dominik Müller - Universität Augsburg, Bayern, Deutschland, Augsburg, Germany; Medical Data Integration Center, Institute for Digital Medicine, University Hospital Augsburg, Augsburg, Germany
  • Dennis Hartmann - Universität Augsburg, Bayern, Deutschland, Augsburg, Germany
  • Iñaki Soto Rey - Medical Data Integration Center, Institute for Digital Medicine, University Hospital Augsburg, Augsburg, Germany
  • Frank Kramer - Universität Augsburg, Augsburg, Germany

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie. 67. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e. V. (GMDS), 13. Jahreskongress der Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. (TMF). sine loco [digital], 21.-25.08.2022. Düsseldorf: German Medical Science GMS Publishing House; 2022. DocAbstr. 132

doi: 10.3205/22gmds051, urn:nbn:de:0183-22gmds0512

Veröffentlicht: 19. August 2022

© 2022 Müller et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Einleitung: Das Gebiet der KI-basierten medizinischen Bildklassifizierung hat in den letzten Jahren ein rasantes Wachstum erfahren [1]. Der Grund dafür lässt sich, auf die steigende Verfügbarkeit von medizinischer Bildgebung als auch auf die Verbesserung der Vorhersagefähigkeiten der automatisierten Bildanalyse durch tiefe neuronale Netzwerke zurückführen [1], [2]. Die mögliche Integration solcher tiefen neuronalen Netzwerke in die klinische Routine ist derzeit daher ein hochaktuelles Forschungsthema. Das Bestreben der Klinker, insbesondere der bildgebenden Disziplinen, ist daher, die Modelle als klinische Entscheidungsunterstützung zu nutzen, um die Diagnosesicherheit zu verbessern oder zeitaufwendige manuelle Prozesse zu automatisieren [1], [2].

Stand der Technik: Klinische Anwendungsstudien offenbaren jedoch, dass die Integration von Pipelines für die Bildklassifizierung in eine Krankenhausumgebung erhebliche Schwierigkeiten bereitet [3], [4]. Bereits implementierte Lösungen aus der Literatur sind in der Regel eigenständige Software, sogenannte Insellösungen, welche für eine bestimmte Erkrankung oder einen einzelnen Datensatz entwickelt und optimiert wurden [2], [5], [6]. Durch die fehlende Generalisierbarkeit stehen Klinker vor dem Problem, dass keine Wiederverwendbarkeit auf eigene Datensätze und somit kein praktischer Einsatz in der klinischen Forschung möglich ist.

Konzept: Das Open-Source Python Framework AUCMEDI bietet für die beschriebenen Herausforderungen eine Lösung. Das Softwarepaket bietet nicht nur eine Bibliothek als „High-Level“ API für den standardisierten Bau von modernen medizinischen Bildklassifizierung-Pipelines an, sondern auch die reproduzierbare Installation und direkte Anwendung mittels Dockerisierung und automatischer Hyperparameter Erkennung.

Implementierung: AUCMEDI beinhaltet folgende Kernmerkmale:

  • Große Variabilität an 2D/3D Dateneingabe Möglichkeiten mit bereits mitgelieferten Schnittstellen zu den gängigsten medizinischen Bildformaten, wie DICOM, MetaImage, NifTI, PNG oder TIF.
  • Auswahl an Vorverarbeitungs-Methoden zur Aufbereitung von Bildern, wie Augmentierungsverfahren, Farbkonvertierungen, Fensterungen, Filterungen, Größenänderungen und Normalisierungen.
  • Nutzung von tiefen neuronalen Netzwerken für die binäre, multi-class als auch multi-label Klassifizierung und effizienten Verfahren gegen Klassenungleichgewichte mittels modernen Loss Funktionen wie Focal Loss.
  • Bibliothek aus modernen Architekturen, wie ResNet [7] bis hin zu EfficientNet [8].
  • Komplexe Ensemble Learning Techniken (Kombiniation von Vorhersagen) mittels test-time Augmentation, Bagging via Kreuzvalidierung oder Stacking via Logistic Regressions.
  • Explainable AI zur Erklärung von undurchsichtigen Entscheidungsfindungen der Modelle mittels Activation Maps wie Grad-CAM [9] oder Backpropagation [10].
  • Automated-Machine-Learning (AutoML) Mentalität zur Gewährleistung der einfachen Anwendung, Integration als auch Wartung von komplexen medizinischen Bildklassifizierung-Pipelines.

Gewonnene Erkenntnisse: Mit AUCMEDI ist es Forschern möglich, mit nur wenigen Codezeilen eine vollständige, als auch leicht zu integrierende Pipeline für die medizinische Bildklassifizierung aufzusetzen. AUCMEDI ist als Python-Paket über PyPI („pip install aucmedi“) und als Repository über GitHub verfügbar mit ausführlicher Dokumentation, Beispielen und Anbindungen an moderne DevOps (CI/CD) Techniken: https://github.com/frankkramer-lab/aucmedi.

Die Autoren geben an, dass kein Interessenkonflikt besteht.

Die Autoren geben an, dass kein Ethikvotum erforderlich ist.


Literatur

1.
Esteva A, Chou K, Yeung S, Naik N, Madani A, Mottaghi A, et al. Deep learning-enabled medical computer vision. Npj Digit Med. 2021;4:1–9. DOI: 10.1038/s41746-020-00376-2 Externer Link
2.
Fourcade A, Khonsari RH. Deep learning in medical image analysis: A third eye for doctors. J Stomatol Oral Maxillofac Surg. 2019;120:279–88. DOI: 10.1016/j.jormas.2019.06.002 Externer Link
3.
Swarna SR, Boyapati S, Dutt V, Bajaj K. Deep learning in dynamic modeling of medical imaging: A review study. In: Proceedings of the 3rd International Conference on Intelligent Sustainable Systems (ICISS 2020). Institute of Electrical and Electronics Engineers Inc.; 2020. p. 745–9. DOI: 10.1109/ICISS49785.2020.9315990 Externer Link
4.
Bizzego A, Bussola N, Chierici M, Maggio V, Francescatto M, Cima L, et al. Evaluating reproducibility of AI algorithms in digital pathology with DAPPER. PLOS Comput Biol. 2019;15:e1006269. DOI: 10.1371/journal.pcbi.1006269 Externer Link
5.
Müller D, Kramer F. MIScnn: a framework for medical image segmentation with convolutional neural networks and deep learning. BMC Med Imaging. 2021;21:12. DOI: 10.1186/s12880-020-00543-7 Externer Link
6.
Bhattacharya S, Reddy Maddikunta PK, Pham QV, Gadekallu TR, Krishnan S SR, Chowdhary CL, et al. Deep learning and medical image processing for coronavirus (COVID-19) pandemic: A survey. Sustain Cities Soc. 2021;65:102589. DOI: 10.1016/j.scs.2020.102589 Externer Link
7.
He K, Zhang X, Ren S, Sun J. Deep residual learning for image recognition. In: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE Computer Society; 2016, p. 770–8. DOI: 10.1109/CVPR.2016.90 Externer Link
8.
Tan M, Le Q V. EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks. In: Proceedings of the 36th International Conference on Machine Learning; 2019 Jun 9-15; Long Beach, California, USA. p. 10691–700.
9.
Selvaraju RR, Cogswell M, Das A, Vedantam R, Parikh D, Batra D. Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization. Int J Comput Vis. 2016;128:336–59. DOI: 10.1007/s11263-019-01228-7 Externer Link
10.
Simonyan K, Vedaldi A, Zisserman A. Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps. In: International Conference on Learning Representations (ICLR) 2014 - Workshop Proceedings.