gms | German Medical Science

15. Deutscher Kongress für Versorgungsforschung

Deutsches Netzwerk Versorgungsforschung e. V.

5. - 7. Oktober 2016, Berlin

Automatisierte Fehlerprüfung: Data Mining und die Datenqualität

Meeting Abstract

Suche in Medline nach

  • Dirk Hunstein - ePA-CC GmbH, Wiesbaden, Deutschland
  • Madlen Fiebig - ePA-CC GmbH, Wiesbaden, Deutschland

15. Deutscher Kongress für Versorgungsforschung. Berlin, 05.-07.10.2016. Düsseldorf: German Medical Science GMS Publishing House; 2016. DocFV50

doi: 10.3205/16dkvf105, urn:nbn:de:0183-16dkvf1056

Veröffentlicht: 28. September 2016

© 2016 Hunstein et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Hintergrund: Mit Zunahme der elektronischen Pflegeprozessdokumentation steigen die Erwartungen an eine Nutzung der dadurch generierten Daten. Auf den ersten Blick ein charmantes Unterfangen: Massendaten aus der Routinedokumentation werden in die Statistiksoftware eingelesen und der Rechner spuckt kurze Zeit später jede Menge an Informationen zur Versorgungsqualität, dem Personalbedarf, zur Kostenkalkulation oder für epidemiologische Zwecke aus.

Doch die Nutzung von Routinedaten hat einen entscheidenden Haken: Die Ergebnisse der Auswertung spiegeln unter Umständen eher die Bedingungen wieder, unter denen die Dokumentation stattfand, anstatt Antworten auf jene Fragen zu geben, die an die Daten gestellt wurden.

Fragestellung: Wie können Strategien aussehen, um die Qualität von Massendaten automatisiert zu prüfen?

Methode: Um den Nutzen von Routinedaten aus dem (pflegerischen) Versorgungsprozess abschöpfen zu können, wurde in einem Forschungsprojekt zur automatisierten Bereitstellung von Kennzahlen für das Pflegemanagement ein „Fehlerindex“ entwickelt. Auf Basis normativer sowie empirisch entwickelter Prüfalgorithmen wird ein standardisierter Indikator für relevante Aspekte der Dokumentationsqualität ausgegeben. Übersteigt der Fehlerindex einen Grenzwert, sollten die Daten von der weiteren Auswertung ausgeschlossen, zumindest aber die Ergebnisse von Berechnungen mit äußerster Vorsicht interpretiert werden.

Ein möglicher landesspezifischer Bias soll in nachfolgenden Modellen mittels internationaler Datenvergleiche „herausgerechnet“ werden. So ist z. B. davon auszugehen, dass Patienten in Deutschland auf Grund der deutlich schlechteren Nurse-Patient-Ratio als z. B. in der Schweiz nicht alle Leistungen erhalten, die sie benötigen (z. B. [1], [2]). Für diese Berechnungen sollen vollstandardisierte und damit vergleichbare Datensätze der Pflegeprozessdokumentation aus den über 160 Kliniken in Deutschland, Österreich und der Schweiz, die mit ePA-AC (ergebnisorientiertes PflegeAssessment AcuteCare) sowie LEP N3 (Leistungserfassung und Prozessdokumentation in der Pflege) dokumentieren, genutzt werden.

Ergebnisse: Während normative Prüfregeln verhältnismäßig einfach zu formulieren sind, ist die Entwicklung valider, empirisch entwickelter Regeln ungleich herausfordernder. Prinzipiell scheint ein standardisierter Fehlerindex aber ein sehr guter Weg zu sein, um die Datenqualität zu prüfen. Gleichzeitig gibt ein solcher Fehlerindex Hinweise auf das Dokumentationsverhalten der Mitarbeiter.

Diskussion: In dem Vortrag sollen – auf Basis von Massendaten der elektronischen Pflegeprozessdokumentation mit ePA-AC und LEP N3 – die Möglichkeiten und Grenzen der automatisierten Prüfung der Dokumentationsqualität gezeigt und diskutiert werden.

Praktische Implikationen: Während die Gesundheitsbranche noch ganz am Anfang steht, haben Google, Facebook und Co. den Wert von „Big Data“ längst erkannt und in erfolgreiche Geschäftsmodelle umgewandelt. Routinedaten der Pflege spielen bisher noch überhaupt keine Rolle, obwohl gerade in der Pflege viele Daten erhoben werden, die für Fragen der Versorgungsforschung von Bedeutung sind.

Aber unabhängig vom Reifegrad der Datennutzung: ohne geeignete Modelle zur Beurteilung der Datenqualität besteht das Risiko, dass relevante Erkenntnisse vom Rauschen der Daten überdeckt werden. Empirisch abgesicherte Fehleralgorithmen dagegen helfen, aus den Daten einen Mehrwert zu schöpfen.

Contributed equally: D. Hunstein, M. Fiebig


Literatur

1.
Aiken LH, Sloane DM, Bruyneel L, Van den Heede K, Griffiths P, Busse R, Diomidous M, Kinnunen J, Kózka M, Lesaffre E, McHugh MD, Moreno-Casbas MT, Rafferty AM, Schwendimann R, Scott PA, Tishelman C, van Achterberg T, Sermeus W; RN4CAST consortium. Nurse staffing and education and hospital mortality in nine European countries: a retrospective observational study. Lancet. 2014 May 24;383(9931):1824-30. DOI: 10.1016/S0140-6736(13)62631-8. Externer Link
2.
Ausserhofer D, Zander B, Busse R, Schubert M, De Geest S, Rafferty AM, Ball J, Scott A, Kinnunen J, Heinen M, Sjetne IS, Moreno-Casbas T, Kózka M, Lindqvist R, Diomidous M, Bruyneel L, Sermeus W, Aiken LH, Schwendimann R; RN4CAST consortium. Prevalence, patterns and predictors of nursing care left undone in European hospitals: results from the multicountry cross-sectional RN4CAST study. BMJ Qual Saf. 2014 Feb;23(2):126-35. DOI: 10.1136/bmjqs-2013-002318 Externer Link