gms | German Medical Science

20. Deutscher Kongress für Versorgungsforschung

Deutsches Netzwerk Versorgungsforschung e. V.

06. - 08.10.2021, digital

Sekundärdatenanalysen in der Versorgungsforschung auf Basis HTML-basierter Inhalte – automatisierte Erfassung am Beispiel der Patient*innenzufriedenheit

Meeting Abstract

Search Medline for

  • Christian Kempny - Hochschule Hamm-Lippstadt, Department Hamm, Deutschland; Universität Witten/Herdecke, Fakultät für Gesundheit, Department für Humanmedizin, Witten, Deutschland
  • Patrick Brzoska - Universität Witten/Herdecke, Fakultät für Gesundheit, Department für Humanmedizin, Witten, Deutschland

20. Deutscher Kongress für Versorgungsforschung (DKVF). sine loco [digital], 06.-08.10.2021. Düsseldorf: German Medical Science GMS Publishing House; 2021. Doc21dkvf415

doi: 10.3205/21dkvf415, urn:nbn:de:0183-21dkvf4152

Published: September 27, 2021

© 2021 Kempny et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Outline

Text

Hintergrund/Fragestellung/Problem: Im Internet liegen viele qualitative und quantitative versorgungsbezogene Daten vor, die reichhaltige Analysen ermöglichen würden, bisher aber nur unzureichend genutzt werden. Das liegt daran, dass sie sich oft nicht ohne Weiteres automatisiert auslesen lassen. Ein Beispiel hierfür sind Bewertungen von Krankenhausaufenthalten in sozialen Medien oder auf Bewertungsportalen, die zwar frei verfügbar sind, bei denen aber fehlende Programmierschnittstellen (APIs) fehlen, die ein automatisiertes Auslesen ermöglichen würden. Damit diese Daten für die Forschung nutzbar gemacht werden können, müssen zwei Fragen beantwortet werden.

1.
Wie können solche Sekundärdaten mit möglichst geringem Aufwand für die Auswertung mittels quantitativer und qualitativer Auswertungssoftware aufbereitet werden?
2.
Wie kann der Forschungsprozess transparent dokumentiert werden, damit eine Reproduzierbarkeit der Datensammlung und -auswertung sichergestellt werden kann?

Lösungen und Lösungsvorschläge: Im Rahmen des Beitrags zeigen wir unterschiedliche Möglichkeiten auf, wie Sekundärdaten von Internetseiten, die in Form von HTML-Inhalten präsentiert werden, extrahiert werden können, wenn keine geeigneten Programmierschnittstellen zur Verfügung stehen. Ein großer Vorteil einiger Lösungen liegt dabei darin, dass die Nutzung keine umfangreichen Kenntnisse in Script- oder Markup-Sprachen voraussetzt und es dadurch Forscher*innen aus verschiedenen Disziplinen ermöglicht wird, diese Erhebungsmethodik niedrigschwellig für eigene Fragestellungen anzuwenden. Die Anwendung stellen wir an zwei exemplarischen Fragestellungen vor. In einem ersten Schritt zeigen wir, wie quantitative Sekundärdaten zur Patient*innenzufriedenheit von der Internetseite „weisse-liste.de“ ausgelesen und aufbereitet werden können. Diese Sekundärdaten werden im Anschluss mit den Qualitätsberichten der Krankenhäuser verknüpft und ausgewertet. Als Zweites soll die Möglichkeit der qualitativen Sekundärdatenanalyse zur Patient*innenzufriedenheit anhand der Plattform „klinikbewertungen.de“ vorgestellt werden. Zudem geben wir Hinweise zur transparenten Dokumentation des Forschungsprozesses.

Schlussfolgerung/Diskussion/Lessons Learned: Statt neue Daten zu erheben, ist es aus forschungsethischer und -ökonomischer Perspektive sinnvoll, im Sinne eines sekundärdatenbasierten Zugangs zunächst das Potenzial im Internet verfügbarer Daten auszuschöpfen. Auf Internetseiten in Form von HTML-Inhalten zur Verfügung gestellte Daten per Hand in Tabellen oder Dokumente zu übertragen, erweist sich bei großen Datenmengen allein aufgrund der Fehleranfälligkeit nicht als zielführendes Vorgehen. Eine automatisierte computergestützte Datensammlung bietet den Vorteil einer deutlich schnelleren und weniger fehleranfälligeren Aufbereitung. Außerdem können Analysen so mit geringem Aufwand über mehrere Zeitpunkte wiederholt werden, beispielsweise um Trendanalysen auf Basis multipler Querschnittauswertungen durchzuführen. Weitere Potenziale ergeben sich durch die Verknüpfung unterschiedlicher Datenquellen.