gms | German Medical Science

26. Jahrestagung der Gesellschaft für Arzneimittelanwendungsforschung und Arzneimittelepidemiologie (GAA)

Gesellschaft für Arzneimittelanwendungsforschung und Arzneimittelepidemiologie

21.11. - 22.11.2019, Bonn/Bad Godesberg

Zwischen Erlösung und Verdammnis – Versprechen und aktuelle Realität von artificial intelligence in Versorgungsforschung und -praxis

Meeting Abstract

Suche in Medline nach

  • corresponding author presenting/speaker Ingo Meyer - PMV Forschungsgruppe, Universität zu Köln, Köln, Germany

Gesellschaft für Arzneimittelanwendungsforschung und Arzneimittelepidemiologie e.V. (GAA). 26. Jahrestagung der Gesellschaft für Arzneimittelanwendungsforschung und Arzneimittelepidemiologie. Bonn/Bad Godesberg, 21.-22.11.2019. Düsseldorf: German Medical Science GMS Publishing House; 2019. Doc19gaa06

doi: 10.3205/19gaa06, urn:nbn:de:0183-19gaa064

Veröffentlicht: 19. November 2019

© 2019 Meyer.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Hintergrund: Die zunehmende Verbreitung von künstlicher Intelligenz (artificial intelligence) in vielen Lebensbereichen verspricht entweder die Erlösung der Menschheit von allen ernstzunehmenden Problemen oder die Verdammnis zu einer den Maschinen untergeordneten Existenz. Das ist zumindest der Eindruck, den man zuweilen vom populären und (teils auch) vom fachlichen Diskurs zu diesem Thema vermittelt bekommt. Zugleich gibt es aber eine deutlich differenziertere Betrachtungsweise dieses gar nicht so jungen Themas, das im Gesundheitsbereich immerhin seit den 1960er Jahren bearbeitet wird.

Mit dem Einsatz von AI im Gesundheitswesen verbindet sich die Erwartung von Kostensenkung, Qualitätsverbesserung, stärkerer Gleichheit und besserem Zugang [1]. Diese Erwartungen werden durch positive Beispiele aus anderen Wirtschaftsbereichen wie z.B. dem Onlinehandel unterstützt. Daraus entstehen einerseits Herausforderungen prinzipieller Natur, wie etwa die Frage, wer entscheidet: der Algorithmus oder der ihn nutzende Mensch? Andererseits müssen auch praktische Fragen wie die nach Datenschutz oder Investitionsbedarf beantwortet werden.

Ausgehend von einer regen Diskussion rund um die Themen Digital Health, artificial intelligence und der Verantwortung der Fachgesellschaften bei der GAA Tagung 2018 möchte dieser Vortrag einen Einstieg in das Thema AI im Gesundheitswesen geben.

Material und Methoden: Grundlage des Vortrags ist eine Publikation von Becker (2019) [2], die auf Grundlage einer PubMed Recherche nach den Schlagworten „artificial intelligence“ UND „ medicine“ sowie „machine learning“ UND „medicine“ für die Zeit ab 2015 einen Überblick zum Status quo gibt. Eine zweite Quelle ist ein Bericht von AlgorithmWatch und Bertelsmann Stiftung zur automatisierten Entscheidungsfindung [3]. In Anlehnung an diesen Bericht verwendet der Vortrag das Konzept des „automated decision making“ (ADM) anstelle des definitorisch schwerer zu fassenden Begriffs der „artifical intelligence“.

Ergebnisse: ADM Systeme kommen in einer Vielzahl von Forschungs- und Anwendungsgebieten zum Einsatz, die Becker in die Kategorien 1) Einschätzung von Krankheitsrisiken und Behandlungserfolg, 2) Komplikationsmanagement, 3) Unterstützung der laufenden Versorgung und 4) Erforschung von Pathologien und Behandlungen unterteilt. Verwendet werden dabei unterschiedliche Arten von Daten aus Krankenhausinformationssystemen bzw. elektronischen Patienten- oder Fallakten, sowie Genomdaten, Bilddaten und Audiodaten. In breiterer Anwendung scheinen insbesondere Diagnosesysteme auf Grundlage von Bild- und anderen Daten zu sein. Im Gegensatz dazu sind Systeme zur Unterstützung laufender Versorgung in der Praxis weniger verbreitet.

Bedenken bestehen in der Frage nach der Qualität der verwendeten Algorithmen, insbesondere was inhärenten Bias angeht. Solche Probleme können zu inadäquaten oder falschen Prognosen führen, die auf Grund der fehlenden Nachvollziehbarkeit der Arbeitsweise der Algorithmen schwer zu beheben sind. Kontrovers diskutiert werden die Fragen, ob ADM Systeme klinisches Fachpersonal eher ersetzen oder unterstützen werden bzw. ob ADM Systeme auf Dauer die einzigen durchgängigen Beobachter von Patient*innen sein werden.

Neben den technischen Systemen selbst liegt ein Schwerpunkt auf der Betrachtung sozio-technischer Zusammenhänge wie z.B. der Organisations- und Entscheidungskontexte, in die ADM Systeme eingebunden sind.

Schlussfolgerung: Die historische Dauer der Bearbeitung des Themas und die Vielzahl der Anwendungsfälle zeigen, dass das Thema AI schon weit gediehen ist und keinesfalls Neuland darstellt. Die noch ausstehende Verwendung von Systemen in der Breite sowie die noch offenen Fragen belegen aber auch, dass es noch viel zu tun gibt. Interessant ist, dass viele der Bedenken bei näherer Betrachtung gar nicht neu sind: garbage-in-garbage-out, die Frage nach der Agency in sozio-technischen Zusammenhängen aber auch inhärenter Bias sind geradezu Konstanten empiriegeleiteten Handelns. Hier lohnt sich also ein Blick über den Tellerrand, um Fragen besser einsortieren und Lösungen entwickeln zu können.


Literatur

1.
Emanuel EJ, Wachter RM. Artificial Intelligence in Health Care – Will the Value Match the Hype? JAMA. 2019;321(23):2281-2.
2.
Becker A. Artificial Intelligence in Medicine – What is It Doing for Us Today? Health Policy and Technology. 2019;8(2):198-205.
3.
AlgorithmWatch; Bertelsmann Stiftung. Automating Society – Taking Stock of Automated Decision-Making in the EU. 2019 Jan. Available from: https://algorithmwatch.org/wp-content/uploads/2019/02/Automating_Society_Report_2019.pdf Externer Link