gms | German Medical Science

GMS Medizinische Informatik, Biometrie und Epidemiologie

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e.V. (GMDS)

ISSN 1860-9171

Benchmarking von Krankenhausinformationssystemen – eine vergleichende Analyse deutschsprachiger Benchmarkingcluster

Benchmarking of hospital information systems – a comparison of benchmarking clusters in German-speaking countries

Originalarbeit

GMS Med Inform Biom Epidemiol 2015;11(1):Doc04

doi: 10.3205/mibe000160, urn:nbn:de:0183-mibe0001605

Veröffentlicht: 20. August 2015

© 2015 Jahn et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Die Methode des Benchmarkings wird mittlerweile in vielen Krankenhäusern als Instrument des strategischen Informationsmanagements genutzt. Während der letzten Jahre bildeten sich im deutschsprachigen Raum mehrere Benchmarkingcluster, innerhalb derer sich Krankenhäuser bezüglich der Kosten, Leistung und Effizienz ihrer Informationssysteme und ihres Informationsmanagements vergleichen und positionieren. Um Benchmarkingcluster hinsichtlich ihrer Merkmale unterscheiden zu können und eine Entscheidungsunterstützung für die Auswahl eines geeigneten Benchmarkingclusters zu schaffen, wird ein Klassifikationsschema entwickelt. Das Klassifikationsschema betrachtet sowohl die Rahmenbedingungen der Benchmarkingcluster sowie deren inhaltliche Ausrichtung. Es wird auf sieben im deutschsprachigen Raum und in den letzten Jahren aktive Benchmarkingcluster angewandt, um diese zu beschreiben. Derzeit überwiegt das Performance Benchmarking, wobei sich die Benchmarkingcluster hinsichtlich der Anzahl der Benchmarkingpartner und der Kooperationsformen unterscheiden. Auch werden unterschiedliche Benchmarkingobjekte betrachtet. Die Untersuchung von Kosten und Qualität von Anwendungssystemen, physischen Datenverarbeitungssystemen, Organisationsstrukturen des Informationsmanagements und IT-Service-Prozessen dominiert. Untersuchungen zum strategischen Informationsmanagement, taktischen Informationsmanagement, der IT Governance und der Qualität von Daten und datenverarbeitenden Prozessen können noch ausgebaut werden. Auf Basis des Klassifikationsschemas und der Analyse der Benchmarkingcluster werden schließlich allgemeine Empfehlungen für das Benchmarking von Krankenhausinformationssystemen abgeleitet.

Schlüsselwörter: Benchmarking, Krankenhausinformationssysteme, Informationsmanagement

Abstract

Benchmarking is a method of strategic information management used by many hospitals today. During the last years, several benchmarking clusters have been established within the German-speaking countries. They support hospitals in comparing and positioning their information system’s and information management’s costs, performance and efficiency against other hospitals. In order to differentiate between these benchmarking clusters and to provide decision support in selecting an appropriate benchmarking cluster, a classification scheme is developed. The classification scheme observes both general conditions and examined contents of the benchmarking clusters. It is applied to seven benchmarking clusters which have been active in the German-speaking countries within the last years. Currently, performance benchmarking is the most frequent benchmarking type, whereas the observed benchmarking clusters differ in the number of benchmarking partners and their cooperation forms. The benchmarking clusters also deal with different benchmarking subjects. Assessing costs and quality application systems, physical data processing systems, organizational structures of information management and IT services processes are the most frequent benchmarking subjects. There is still potential for further activities within the benchmarking clusters to measure strategic and tactical information management, IT governance and quality of data and data-processing processes. Based on the classification scheme and the comparison of the benchmarking clusters, we derive general recommendations for benchmarking of hospital information systems.

Keywords: benchmarking, hospital information systems, information management


Einleitung und Hintergrund

Abteilungen für Informationsmanagement in Krankenhäusern stehen oft untereinander in Austausch, um sich gegenseitig über neue Entwicklungen zu informieren und sich bezüglich ihrer Leistungen zu positionieren. Zusammenschlüsse bzw. Interessenvertretungen von Krankenhaus-CIOs, wie im deutschen Raum der Bundesverband der Krankenhaus-IT-Leiterinnen/Leiter e.V. (KH-IT e.V.), der Arbeitskreis der Leiter der Klinischen Rechenzentren der Universitätskliniken Deutschlands (ALKRZ), die Arbeitsgruppe IT der Arbeitsgemeinschaft kommunaler Groß-Krankenhäuser (AKG) oder die Entscheiderfabrik [1], fördern den krankenhausübergreifenden Erfahrungsaustausch. Als etablierte Managementmethode nutzen Krankenhaus-CIOs innerhalb solcher Interessensvertretungen zunehmend das Benchmarking, um Leistung, Kosten und Qualität von Informationssystemen und Informationsmanagement zu vergleichen.

Als Informationssystem soll der Teil eines Krankenhauses bezeichnet werden, der Daten, Wissen und Information verarbeitet. Zum sogenannten Krankenhaus-Informationssystem (KIS) gehören somit Anwendungssysteme und physische Datenverarbeitungssysteme und deren Komponenten, die alle an der Krankenversorgung beteiligten Personen bei deren Aufgaben unterstützen. Das Informationsmanagement wiederum umfasst alle planenden, steuernden und überwachenden Aufgaben, die das Informationssystem betreffen und wird im Krankenhaus in der Regel durch eine Abteilung für Informationsmanagement ausgeführt [2].

Abteilungen für Informationsmanagement im Krankenhaus verbinden mit dem Vergleich mit anderen Krankenhäusern den Wunsch, eigene Schwachstellen zu identifizieren, erfolgversprechende Praktiken kennenzulernen und an das eigene Informationssystem oder das Informationsmanagement anzupassen. Neben dem Wunsch nach Verbesserung des Status quo entstehen Benchmarkingvorhaben auch oft aus der Notwendigkeit heraus, die Krankenhausleitung, aber auch die Nutzer des Informationssystems, über die Güte und Leistung des Informationssystems oder der IT-Abteilung zu informieren. Viele Krankenhausleitungen erkennen in nicht ausreichendem Maße die Möglichkeiten, wie durch das Informationssystem Krankenhausprozesse adäquater unterstützt werden können und wie Komponenten des Informationssystems für die Erreichung der strategischen Zielsetzungen des Krankenhauses effektiver eingesetzt werden können (vgl. [3]).

Die in den Wirtschaftswissenschaften vor mehr als 30 Jahren entstandene Managementmethode des Benchmarkings ist definiert als der kontinuierliche Prozess des Messens und Vergleichens von Produkten, Dienstleistungen und Praktiken innerhalb einer Organisation oder gegen den stärksten Mitbewerber oder Industrieführer, um „best practices“ zu finden und zu implementieren [4]. Während sich der klassische Betriebsvergleich auf die Betrachtung einiger Kennzahlen beschränkt, sollen beim Benchmarking die zugrundeliegenden Praktiken verstanden und adaptiert werden, die zu herausragenden Leistungen führen. Diese sollen sich beispielsweise in Form von Kennzahlen messen lassen [5]. In jüngeren Benchmarkingdefinitionen werden die Grenzen zwischen Betriebsvergleich und Benchmarking aufgehoben. Adebanjo u.a. (2010) unterscheiden informelles Benchmarking, das keinem festen Prozess folgt, Performance Benchmarking, das der Positionierung gegenüber Wettbewerbern dient und somit einem Betriebsvergleich anhand von Kennzahlen entspricht, und das ursprüngliche Best Practice Benchmarking [6]. Während das informelle, aber auch das Best Practice Benchmarking tendenziell mit wenigen Benchmarkingpartnern durchgeführt wird, werden beim Performance Benchmarking oft statistische Maße für eine große Gruppe von Benchmarkingpartnern berechnet.

Als weitere Abstufung zwischen Performance Benchmarking und Best Practice Benchmarking hinsichtlich des Durchführungsaufwandes kann das Diagnostische Benchmarking angesehen werden, das gezielt nach Schwachstellen und potenziellen Maßnahmen zu deren Behebung sucht [7]. Abbildung 1 [Abb. 1] ordnet die unterschiedlichen Typen des Benchmarkings ordinal in den zwei Dimensionen „Verständnistiefe, potentieller Nutzen“ und „Aufwand, Kosten“ ein. Der Aufwand der Durchführung drückt sich auch in der Nutzung des jeweiligen Verfahrens aus. In einer Studie, an der sich 453 internationale Organisationen beteiligten, wird dem Informellen Benchmarking der höchste Nutzungsgrad (69%) bescheinigt, gefolgt von Performance Benchmarking (49%) und dem Best Practice Benchmarking (40%) [5].

Dass in der gegenwärtigen Literatur zum Benchmarking von Krankenhausinformationssystemen (im Folgenden: KIS-Benchmarking) Kennzahlenvergleiche und die Suche nach aussagekräftigen Kriterien zwei Schwerpunkte bilden (z.B. [8], [9], [10]), weist auf eine Dominanz des Performance Benchmarkings gegenüber den aufwendigeren Verfahren des Diagnostischen Benchmarkings und des Best Practice Benchmarkings hin.

Die Suche nach Kriterien, die einerseits die Leistung des Informationssystems oder des Informationsmanagements messen und andererseits auch für die Krankenhausleitung plausibel sind, stellt eine Herausforderung dar. Auch in zwei Workshops der Arbeitsgruppe „Methoden und Werkzeuge für das Management von Krankenhausinformationssystemen (mwmKIS)“ [11] der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e.V. (GMDS), die Praktiker und Wissenschaftler, die sich mit dem KIS-Benchmarking beschäftigen, zusammenführte, wurde dies deutlich. Es stellten sich mehrere deutschsprachige Benchmarkingcluster unterschiedlicher Größe vor, die verschiedene Aspekte des Informationsmanagements beleuchten und sich auch in ihrer Methodik und ihren Zielsetzungen wesentlich unterscheiden. Als Benchmarkingcluster soll die Menge aller Teilnehmer eines Benchmarkings (Benchmarkingpartner) bezeichnet werden. Es entstand seitens der Teilnehmer der mwmKIS-Workshops der Wunsch, die unterschiedlichen Benchmarkingcluster systematisch zu unterscheiden, um letztendlich dem CIO im Krankenhaus eine Hilfestellung zu geben, welchem Benchmarkingcluster er sich anschließen kann oder wie er ein Benchmarking im kleineren Rahmen durchführen kann. Dieses Papier möchte die Grundlage für diese Entscheidungsunterstützung schaffen, indem

  • ein Klassifikationsschema für das KIS-Benchmarking in Form eines Metamodells beschrieben wird und
  • dieses Klassifikationsschema auf die bei den Workshops vorgestellten Benchmarkingcluster angewandt wird.

Als Fazit sollen allgemeine Handlungsempfehlungen hinsichtlich der Durchführung eines KIS-Benchmarkings abgeleitet werden.


Entwicklung eines Klassifikationsschemas für das KIS-Benchmarking

Um ein Klassifikationsschema zu erhalten, mit Hilfe dessen aktuelle Benchmarkingcluster und Benchmarkingmethoden charakterisiert werden können, wurde ein vierstufiger, iterativer Prozess durchlaufen, an dem sich mehrere Teilnehmer der mwmKIS-Workshops zum Thema KIS-Benchmarking beteiligten:

1.
Identifikation von Begriffen zur Beschreibung eines Benchmarkings aus der Benchmarkingliteratur
2.
Prüfung und Ergänzung der in 1. identifizierten Begriffe und Merkmale durch die Expertengruppe und Festlegungen zu KIS-spezifischen Ausprägungen von Klassen
3.
Identifikation von Beziehungen zwischen den Begriffen und Beschreibung des Klassifikationsschemas als Klassendiagramm
4.
Erprobung des Klassifikationsschemas in einem Fragebogen zum KIS-Benchmarking und finale Anpassung

Identifikation von Begriffen zur Beschreibung eines Benchmarkings

In der Literatur findet sich keine einheitliche Systematik für die Charakterisierung eines Benchmarkings (BM). Ansätze für Begriffsklärungen und Klassifikationen in Hinsicht auf bestimmte Benchmarkingmerkmale finden sich z.B. in [3], [4], [12], [13], [14]. Tabelle 1 [Tab. 1] fasst, ausgehend von der Literatur, Begriffe, die Merkmale eines Benchmarkings beschreiben, sowie ihre unterschiedlichen Bezeichnungen zusammen (1. Spalte), nennt mögliche Merkmalsausprägungen (2. Spalte) und Quellen (3. Spalte). Kursiv gesetzte Begriffe in den Tabellen und im weiteren Text werden im Folgenden durchgehend für die Charakterisierung von Benchmarkingclustern verwendet.

Überprüfung und Ergänzung der Begriffe durch Expertengruppe und Festlegungen zu KIS-spezifischen Ausprägungen

Tabelle 1 [Tab. 1] wurde unter vier Experten, die selbst ein KIS-Benchmarking leitend oder strategisch begleitend durchführten, diskutiert und um die in Tabelle 2 [Tab. 2] aufgeführten, aus der Praxis heraus als relevant zu betrachtende Benchmarkingmerkmale erweitert.

Für die meisten Benchmarkingmerkmale liegen in Tabelle 1 [Tab. 1] und Tabelle 2 [Tab. 2] bereits Ausprägungen vor, insbesondere für solche Merkmale, deren Ausprägungen branchenunabhängig sind, z.B. Benchmarkingtyp, Kooperationsform oder Benchmarkingvergleichsmaßstab.

Spezifische Merkmalsausprägungen für Krankenhausinformationssysteme und deren Management werden für das Benchmarkingobjekt benötigt. Beispielsweise kann bei einem KIS-Benchmarking die Funktionalität oder die Verfügbarkeit der Anwendungssysteme untersucht werden. Liegt der Fokus eher auf dem Informationsmanagement, könnten mögliche Benchmarkingobjekte das IT Service Management oder das Projektmanagement sein.

Winter u.a. führen Begriffsdefinitionen und eine Systematik für Krankenhausinformationssysteme und deren Management ein [2], die die Grundlage für den im Folgenden beschriebenen Katalog von Ausprägungen des Benchmarkingobjektes bilden. Innerhalb des Katalogs wird zwischen „Sichten auf das Informationsmanagement“ und „Sichten auf das Informationssystem“ unterschieden. Es wurde der Begriff der Sicht gewählt, da je nach zugrundeliegender Perspektive auf das Informationsmanagement Überschneidungen zwischen Aufgaben des Informationsmanagements auftreten können. Beispielsweise kann das Informationsmanagement in strategische, taktische und operative Aufgaben unterteilt werden. Diesen Aufgaben lassen sich jedoch Konzepte wie IT Governance oder IT Service Management nicht eindeutig zuordnen. IT Governance kann als Teil des Strategischen Informationsmanagements oder auch als ihm übergeordnete Aufgabe aufgefasst werden. Disziplinen des IT Service Management nach der IT Infrastructure Library (ITIL) wie Service Strategy, Service Transition und Service Operation [15] beziehen sich in unterschiedlichem Maße auf Aufgaben des strategischen, taktischen und operativen Informationsmanagements. Da ein Benchmarkingcluster sich möglicherweise jeweils auf eine Perspektive konzentriert und z.B. die Umsetzung der Service Strategy nach ITIL und nicht das strategische Informationsmanagement aus aufgabenorientierter Sicht untersucht, werden die unterschiedlichen Sichten in den Katalog aufgenommen, obwohl sie nicht überschneidungsfrei sind. Es resultiert folgender Katalog für die Beschreibung der Benchmarkingobjekte; für jedes Benchmarkingobjekt werden eine kurze Beschreibung sowie Beispiele angegeben:

  • Sichten auf das Informationsmanagement
    • Strategisches Informationsmanagement: Die Entwicklung des Informationssystems wird langfristig geplant, gesteuert und überwacht. Eine typische Aufgabe ist beispielsweise die Erstellung eines strategischen Rahmenplans.
    • Taktisches Informationsmanagement (Projektmanagement): Es werden Projekte zur Einführung, Evaluation oder Ablösung von Anwendungssystemen durchgeführt.
    • Operatives Informationsmanagement: Der tägliche Betrieb des Informationssystems wird sichergestellt (z.B. Support, Netzwerküberwachung).
    • IT-Servicemanagement: Die Abteilung für Informationsmanagement und deren Rolle als Dienstleister für das Krankenhaus stehen im Mittelpunkt. Zum Beispiel werden entsprechend ITIL Serviceprozesse wie Incident Management, Problem Management und Change Management etabliert.
    • IT-Governance: Sie umfasst das Festlegen von Entscheidungsbefugnissen und Verantwortlichkeiten für den Einsatz von IT, um Unternehmensziele zu erreichen [16].
    • Organisationsstrukturen des Informationsmanagements: Aufbau und Umfang der Abteilung für Informationsmanagement werden betrachtet.
    • IT-Kompetenz und Einstellung zu IT [7]: Wissen und Fähigkeiten der Mitarbeiter der Abteilung für Informationsmanagement sowie die Einstellung von Entscheidungsträgern gegenüber der IT beeinflussen Größe, Leistungsspektrum und Wahrnehmung der Abteilung und bestimmen die Menge der in Anspruch zu nehmenden externen IT-Dienstleistungen.
    • Informationsmanagement gesamt: Darunter wird die Gesamtsicht auf alle planenden, steuernden und überwachenden Aufgaben zusammengefasst, die die Weiterentwicklung und den Betrieb des Informationssystems zum Gegenstand haben.
  • Sichten auf das Informationssystem
    • Datenverarbeitende Krankenhausprozesse: Dazu gehören alle Prozesse, in denen Daten (z.B. Patientendaten, Verwaltungsdaten) erzeugt, aktualisiert, gespeichert oder gelöscht werden, z.B. Befundmanagement, Arztbriefschreibung, Durchführung von operativen Maßnahmen.
    • Daten, Information und Wissen: Darunter sollen sowohl alle im Krankenhaus relevanten Informationen (z.B. Informationen über Patienten oder administrative Abläufe) sowie krankenhausspezifisches Wissen (z.B. Wissen über Krankheiten, Abrechnungsverfahren oder Management) verstanden werden. Wissen und Information werden durch Daten repräsentiert, deren Lebenszyklus inkl. Erhebung, Veränderung, Speicherung und Löschung durch das Informationssystem gewährleistet werden muss.
    • Anwendungssysteme: Darunter sind installierte und betriebsbereite Softwareprodukte wie z.B. Medizinische und Pflegerische Dokumentationssysteme (bzw. Klinische Informationssysteme), Computerized-Physician-Order-Entry-Systeme (CPOE), Radiologieinformationssysteme, Archivierungssysteme oder Picture-Archiving-and-Communication-Systeme (PACS) zusammengefasst.
    • Schnittstellen und Kommunikationsstandards: Anwendungssysteme tauschen über Schnittstellen Nachrichten aus. Zum Austausch von Patienten- oder Bilddaten können Kommunikationsstandards wie HL7 bzw. DICOM zum Einsatz kommen.
    • Physische Datenverarbeitungsbausteine: Darunter wird sämtliche Hardware, wie z.B. Server, PCs, Netze etc. zusammengefasst.
    • Informationssystem gesamt: Das Informationssystem eines Krankenhauses ist das System, welches die datenverarbeitenden Krankenhausprozesse, alle Daten, Anwendungssysteme, Schnittstellen und Physischen Datenverarbeitungssysteme des Krankenhauses umfasst. Eine Gesamtbetrachtung des Informationssystems ist z.B. hilfreich, um Benchmarkingparameter zu Architekturstilen des Informationssystems einzuordnen.
  • Informationssystem und Informationsmanagement gesamt: Dies repräsentiert die Gesamtsicht auf das Informationssystem und Informationsmanagement und schließt alle Ressourcen des Informationsmanagements ein. Ein Beispiel für einen zugehörigen Benchmarkingparameter wären in Hinblick auf Kosten die Gesamtausgaben einer IT-Abteilung pro Jahr (inkl. Sachausgaben, Personalausgaben etc.).

Weitere krankenhausspezifische Merkmalsausprägungen wurden für Benchmarking-Stakeholder zusammengestellt: Die Krankenhausleitung, die Abteilung für Informationsmanagement, das Krankenhauspersonal, die Patienten oder Externe, z.B. Softwareunternehmen oder Beratungshäuser, können die Zielgruppen für das Benchmarking sein.

Bezüglich der Merkmale der Benchmarkingparameter wurde eine branchenunabhängige Klassifikation gewählt. Der Typ des Benchmarkingparameters wird unterschieden nach Zeit, Kosten, Qualität – entsprechend des „Magischen Dreiecks“, wobei Qualität nochmals in Struktur-, Prozess- und Ergebnisqualität unterteilt ist [17]. Diese Einteilung lässt sich im Kontext von Informationssystemen folgendermaßen anwenden (nach [2]): Die Strukturqualität eines Informationssystems bezieht sich auf technische und menschliche Ressourcen, die für die Informationsverarbeitung genutzt werden. Dazu zählen Anwendungssysteme, Hardwaresysteme, oder auch Nutzer des Informationssystems. Die Prozessqualität bezieht sich auf datenverarbeitende Prozesse und deren IT-Unterstützung. Schließlich beschreibt die Ergebnisqualität den messbaren Wert des Informationssystems für die Institution und ihre Stakeholder: Trägt das Informationssystem zur Erfüllung der Krankenhausziele bei, indem es z.B. Mitarbeiter befähigt, Prozesse effizient durchzuführen oder aber die neusten Technologien für eine Hochleistungsmedizin bereitstellt? Werden die Erwartungen der Nutzer erfüllt (Nutzerzufriedenheit)? Der Benchmarkingparameter kann auf einer metrischen, ordinalen oder nominalen Skala abgebildet sein.

Beschreibung des Klassifikationsschemas als Klassendiagramm

In diesem Schritt werden die Benchmarkingmerkmale und ihre Beziehungen untereinander in einem Klassendiagramm zusammengeführt (Abbildung 2 [Abb. 2]). Als zentrale Begriffe, durch die sich ein Benchmarking charakterisieren lässt, wurden der Benchmarkingcluster, der Benchmarkingpartner, das Benchmarkingobjekt, der Benchmarkingparameter, das Datenmanagement, welches Datenerhebung und -auswertung umfasst, sowie das Benchmarking selbst identifiziert. Weitere in Tabelle 1 [Tab. 1] und in der letzten Aufzählung genannte Merkmale fügen sich als Eigenschaften bzw. Attribute dieser Begriffe in das Metamodell ein. Der Benchmarkingcluster, der alle Benchmarkingpartner enthält, wird beispielsweise näher definiert durch die Attribute Benchmarkingvergleichsmaßstab, Benchmarkingfrequenz und Kooperationsform. Innerhalb eines Benchmarkings können mehrere Benchmarkingobjekte untersucht werden, welche wiederum durch eine Menge von Benchmarkingparametern beschrieben werden können. Die Benchmarkingparameter werden durch das Datenmanagement, bei dem u.a. eine bestimmte Erhebungsmethode genutzt wird, instanziiert.

Erprobung des Klassifikationsschemas in einem Fragebogen zum KIS-Benchmarking

Um die Plausibilität des eingeführten Klassifikationsschemas und der identifizierten Ausprägungen zu überprüfen und gegebenenfalls zu verbessern, wurde das Klassifikationsschema in einen Fragebogen für Benchmarkingcluster übersetzt. Dieser enthält im ersten Teil Fragen zum Benchmarkingcluster, den Benchmarkingpartnern und der Datenerhebung, im zweiten Teil eine beispielhafte Zuordnung von verwendeten Kennzahlen zu Benchmarkingobjekten. Der Fragebogen wurde probeweise an fünf Benchmarkingcluster gesandt, um Verständlichkeit und Plausibilität zu überprüfen. Drei Benchmarkingcluster sandten den Fragebogen komplett ausgefüllt und mit Kommentaren versehen zurück, ein Benchmarkingcluster beantwortete nur den ersten Teil der Fragen. Fragen des ersten Teils konnten problemlos beantwortet werden. Allerdings zeigte sich, dass bestimmte Merkmalsausprägungen wie die der Benchmarkingzielsetzung (Messen und Positionieren, Entscheidungsfindung und Finden von Best Practices) keine Klassifikation, d.h. keine disjunkte Zuordnung zu den Ausprägungen, zulassen. Vielmehr gibt es Benchmarkingcluster, die zwar in erster Linie das „Messen und Positionieren“ unterstützen, jedoch auch das klassische Lernen von Best Practices als ihr Ziel verstehen oder zumindest Kontakte zwischen Benchmarkingpartnern herstellen, die für ein Best Practice Benchmarking geeignet sind. Anstelle der propagierten einfachen Antwortmöglichkeit wurde somit bei einigen Fragen eine Mehrfachauswahl gewünscht. Im Sinne der vollständigen Beschreibung der Benchmarkinginitiativen werden deshalb auch alle Kombinationen von Merkmalsausprägungen für derartige Fragen zugelassen.

Als schwierig erwiesen sich für die Befragten die Zuordnung von Benchmarkingparametern („key performance indicators“, KPI) zu deren Typ (Zeit, Kosten, drei Qualitätstypen) und die Verknüpfung mit Benchmarkingobjekten. Für die finale Klassifikation der Benchmarkingcluster wurde deshalb festgelegt, auf die Angabe und Klassifizierung von Kennzahlen zu verzichten, sondern den Inhalt des Benchmarkings durch eine Kombination aus Benchmarkingobjekt (Sichten auf das Informationsmanagement und das Informationssystem) und den Typ der dazu erhobenen Benchmarkingparameter (Zeit, Kosten, Menge, Qualität) anzugeben. Es wurde als neue Ausprägung des Typs des Benchmarkingparameters „Mengen und Mengenverhältnisse“ (kurz: „Menge“) eingeführt, um beispielsweise Mengenangaben zu Komponenten des Informationssystems (z.B. Anzahl von Servern, Server pro Mitarbeiter) beschreiben, die oftmals in einem KIS-Benchmarking erhoben werden, jedoch keine direkte Kostenaussage oder Aussagen zur Qualität zulassen. Auf eine Untersuchung zu Skala, Berechnungsmethode und Quelle jedes einzelnen Benchmarkingparameters wurde insofern verzichtet. Der Grad der Vergleichbarkeit von Benchmarkingparametern wurde global in Bezug auf das gesamte Benchmarking abgefragt. Der resultierende Fragebogen ist in Anhang 1 [Anh. 1] dargestellt.

Darüber hinaus wurde als weiteres Unterscheidungsmerkmal innerhalb des Datenmanagements das Attribut Zuständigkeit für Auswertung hinzugefügt. Dies verursachte die einzige Änderung am ursprünglichen Klassendiagramm, die in Abbildung 2 [Abb. 2] bereits berücksichtigt ist.


Ergebnisse der Anwendung des Klassifikationsschemas für Benchmarkingcluster

Die Anwendung des vorgestellten Metamodells zur Beschreibung und Charakterisierung erfolgt für folgende Benchmarkinginitiativen aus dem deutschsprachigen Raum, die in den letzten Jahren regelmäßig ein Benchmarking durchgeführt haben:

a) IT-Benchmarking der Entscheiderfabrik [18]
b) IT-Benchmarking des Arbeitskreises kommunaler Großkrankenhäuser (AKG) [3]
c) IT-Benchmarking der Universitätsklinika in Nordrhein-Westfalen [19]
d) Europäisches Electronic Medical Record Adoption Model (EMRAM) der HIMSS (Healthcare Information and Management Systems Society, US-amerikanische, global agierende Not-for-Profit-Organisation) [20]
e) IT-Benchmarking der Schweizer Spitäler [21], [22]
f) IT-Report Gesundheitswesen der Hochschule Osnabrück [10], [23]
g) Benchmarking der KH-IT [3]

Die Informationen zu den Benchmarkingclustern wurden den angeführten Publikationen, Vortragsfolien und Webdokumenten entnommen und durch Informationen aus den oben erwähnten Fragebögen ergänzt. Abschließende Korrekturen wurden durch direkte Befragung der Benchmarkingclustern vorgenommen. Bis auf Benchmarkingcluster f) stellten sich alle Benchmarkingcluster bei Workshops der GMDS-Arbeitsgruppe mwmKIS vor; f) wurde u.a. auf den Jahrestagungen der GMDS 2012 und 2013 vorgestellt. Die inhaltliche Ausrichtung von Benchmarkingcluster g) ist identisch mit b), weil die Arbeitsgruppe IT der kommunalen Großkrankenhäuser ihre Methode der KH-IT zur Verfügung gestellt hat.

Tabelle 3 [Tab. 3] fasst für die sieben Benchmarkingcluster Informationen zu Benchmarkingcluster, Benchmarkingpartnern, Benchmarkingtyp und Datenerhebung zusammen und beschreibt somit den organisatorischen Rahmen für die Durchführung der Benchmarkings.

Alle untersuchten Benchmarkingcluster führen ein externes Performance Benchmarking zur Positionierung gegenüber anderen Krankenhäusern mit Hilfe von Kennzahlen durch (Benchmarkingvergleichsmaßstab, Benchmarkingart). Die Benchmarkingfrequenz variiert, a), c) und e) führen jährlich ein Benchmarking durch, bei allen anderen Benchmarkingclustern liegen bis zu 24 Monate zwischen zwei Erhebungen. Die Benchmarkingcluster d) und e) bieten darüber hinaus die Möglichkeit Kontakte für ein Best Practice Benchmarking herzustellen. Bei c) ist unmittelbar ein Best Practice Benchmarking möglich. a), b), d), f) und g) führen als Stakeholder Krankenhausleitung und die Abteilung für Informationsmanagement an, c) und e) adressieren in erster Linie die Abteilung für Informationsmanagement. a) gibt während des Benchmarkings entstandene Statistiken nach einem bestimmten Geschäftsmodell an Softwarehersteller weiter.

Es besteht bei den untersuchten Benchmarkingclustern ein Zusammenhang zwischen der Anzahl der Benchmarkingpartner und der Kooperationsform, der Darstellung der Ergebnisse sowie Zuständigkeit der Auswertung. Kleine Benchmarkingcluster mit bis zu 10 Benchmarkingpartnern werten ihre Benchmarkingdaten selbst aus und kommunizieren ihre Benchmarkingergebnisse offen untereinander.

Es kommen unterschiedliche, typische Methoden der Datenerhebung wie mündliche Befragungen, schriftliche Befragungen und Auswertung von Routinedaten zum Einsatz. Die Datenerhebung findet größtenteils mit Hilfe von Excel-Tabellen statt, nur bei e) und f) werden ausnahmslos Online-Umfragen durchgeführt. Die Angaben zu benötigten Ressourcen in Form von Mitarbeiterstunden für das Erheben der Benchmarkingdaten sind gekennzeichnet durch die Angabe großer Intervalle. So kann innerhalb desselben Benchmarkingclusters die Erhebung in einem Krankenhaus 24 Stunden, in einem anderen Krankenhaus 60 Stunden dauern. In schriftlichen Kommentaren oder auch im persönlichen Gespräch stellte sich heraus, dass diese Zeiten stark durch Qualität und Umfang der hauseigenen Dokumentation des Informationssystems beeinflusst werden. d) und f) geben eine vergleichsweise geringe Anzahl von Mitarbeiterstunden seitens der Krankenhäuser an, was sich jeweils durch eine inhaltliche Schwerpunktbildung anhand einfach erhebbarer Benchmarkingparameter erklären lässt. Neben den zeitlichen Ressourcen müssen in fast allen Benchmarkingclustern keine monetären Ressourcen in Form von Gebühren aufgebracht werden. Einzig Benchmarkingcluster e) erhebt eine Gebühr für teilnehmende Krankenhäuser.

Bei allen Benchmarkingclustern ist mindestens eine nationale Vergleichbarkeit von Kennzahlen gegeben. d) nutzt einen europaweit einheitlichen Score zur Bewertung des Umsetzungsgrades einer elektronischen Patientenakte.

Für die inhaltliche Analyse der Benchmarkingcluster wurden die jeweils erhobenen Benchmarkingparameter betrachtet und einem Benchmarkingobjekt (z.B. IT Service Management, Anwendungssysteme) sowie einem Typ (Zeit, Kosten, Menge oder Qualität) zugeordnet. Die aufgetretenen Kombinationen aus Benchmarkingobjekt und Typ des Benchmarkingparameters werden in Tabelle 4 [Tab. 4] für jeden Benchmarkingcluster dargestellt. Die Tabelle gibt somit einen Überblick, welche Benchmarkingobjekte durch den Benchmarkingcluster abgedeckt werden und ob sie hinsichtlich Zeit, Kosten, Menge oder Qualität untersucht wurden. Zum besseren Verständnis wird in Anhang 2 [Anh. 2] für jede Kombination aus Benchmarkingobjekt und Benchmarkingparameter-Typ eines Benchmarkingclusters ein Beispiel für einen Benchmarkingparameter genannt. b) und g) werden in einer Spalte zusammengefasst, da die Inhalte identisch sind. Tabelle 4 [Tab. 4] wird durch ein Säulendiagramm in Abbildung 3 [Abb. 3] ergänzt, das veranschaulicht, wie viele Benchmarkingobjekte bezüglich der Benchmarkingparameter-Typen Zeit, Kosten, Menge und Qualität in den Benchmarkingclustern betrachtet werden.

Benchmarkingcluster e) untersucht entsprechend Tabelle 4 [Tab. 4] und Abbildung 3 [Abb. 3] die meisten unterschiedlichen Benchmarkingobjekte, wobei sowohl Zeit, Kosten, Menge als auch Qualität von Informationssystem und Informationsmanagement untersucht werden. Ein starker Fokus liegt auf Anwendungssystemen, die hinsichtlich aller Benchmarkingparameter-Typen untersucht werden:

  • Zeiten für Anwendungssysteme drücken sich beispielweise in dem Benchmarkingparameter „SW-Parametrierung/-Konfigurierung – Zeit in Stunden“ aus; es werden Kosten für die Anschaffung von Software untersucht.
  • Als Menge wird z.B. die Anzahl medizinischer Applikationen angegeben, für die die Leistung „Applikation installieren und betreiben, inkl. Lizenzmanagement: Kleine Anwendung“ zutrifft.
  • Die Qualität von Anwendungssystemen drückt sich in Nutzenscores aus, die in Abhängigkeit von Reife- und Durchdringungsgrad berechnet werden. Auch ist e) der einzige Benchmarkingcluster, der mehrere Benchmarkingparameter des Typs Zeit erfasst, z.B. die Zeit in Stunden für Projektleitertätigkeiten (Taktisches Informationsmanagement).

Im Gegensatz zu e) liegt bei d) eine starke Fokussierung auf wenige Benchmarkingobjekte vor. Dies kann eine Erklärung für die relativ niedrige Anzahl an Mitarbeiterstunden zur Datenerhebung sowie den großen Teilnehmerkreis sein.

Die Benchmarkingcluster a), b), c), f) und g) decken jeweils eine ähnlich große Anzahl von Benchmarkingobjekten ab, setzen aber leicht unterschiedliche Schwerpunkte. a) untersucht Kosten des Informationssystems und einige qualitative Aspekte des Informationssystems. b) und g) untersuchen sowohl die Qualität von Themen des Informationsmanagements (Strategisches Informationsmanagement, IT Governance, IT Service Management) als auch die Qualität von Daten und datenverarbeitenden Krankenhausprozessen (z.B. „Reifegrad der Leistungsanforderung“). c) konzentriert sich auf Kosten des Informationssystems und Informationsmanagements, betrachtet aber auch die Qualität von IT Service Management, Organisationsstrukturen des Informationsmanagements, Daten und Anwendungssystemen. f), das viele qualitative Aspekte von Informationsmanagement und Informationssystem untersucht, erhebt Zahlen zu einer definierten Menge von Benchmarkingparametern bei jeder Durchführung alle zwei Jahre, setzt aber zusätzlich unterschiedliche Schwerpunkte, wodurch nicht von jedem Benchmarkingparameter der zeitliche Verlauf dargestellt werden kann. Die Angaben zu f) in Tabelle 4 [Tab. 4] beziehen sich auf die Erhebung im Jahr 2013, in dem ein Schwerpunkt auf der „IT-Unterstützung klinischer Prozesse“ lag [23].

Benchmarkingobjekte, die von jedem Benchmarkingcluster untersucht werden, sind „Organisationsstrukturen des Informationsmanagements“, „Physische Datenverarbeitungssysteme“, „Informationssystem und Informationsmanagement“, wobei Letzteres meist in Form der Gesamt-IT-Kosten oder IT-Budgets betrachtet wird. „Anwendungssysteme“ werden in sechs von sieben Benchmarkingclustern durch Benchmarkingparameter abgebildet. Nur einem Benchmarkingcluster ist das Benchmarkingobjekt „Informationsmanagement allgemein“ zugeordnet. Schnittstellen und Kommunikationsstandards“, „Informationssystem allgemein“, „Taktisches Informationsmanagement“ und „IT-Kompetenz und Einstellung zu IT“ werden von je zwei Benchmarkingclustern untersucht. Je drei Benchmarkingcluster betrachten und „IT Governance“ und „Strategisches Informationsmanagement“. „Daten, Information und Wissen“, „Datenverarbeitende Krankenhausprozesse“ und „IT Service Management“ werden von je vier Benchmarkingclustern untersucht.

„Operatives Informationsmanagement“ als Benchmarkingobjekt scheint momentan keine Rolle bei den betrachteten Benchmarkingclustern zu spielen, wobei es eine große Schnittmenge zwischen Operativem Informationsmanagement und IT Service Management gibt, das sehr häufig betrachtet wird.

Folgende Kernaussagen zu Rahmenbedingungen und inhaltlicher Ausrichtung der untersuchten Benchmarkingcluster lassen sich zusammenfassen:

  • Performance Benchmarking, das statistische Maße für eine große Gruppe von Benchmarkingpartnern erhebt, steht bei allen untersuchten Benchmarkingclustern im Mittelpunkt.
  • Die kleinen Benchmarkingcluster b) (AKG) und c) (UK NRW) lassen einen offenen Austausch zwischen den Benchmarkingpartnern zu.
  • Die Teilnahme an einem Benchmarking ist bis auf Benchmarkingcluster e) (Schweizer Spitäler) kostenlos.
  • Benchmarkingcluster e) (Schweizer Spitäler) untersucht Informationssystem und Informationsmanagement entsprechend der hier gewählten Darstellungsweise am umfassendsten. Schwerpunkt hinsichtlich des Typs der erhobenen Benchmarkingparameter liegt bei der Qualität, inhaltlicher Schwerpunkt ist die Betrachtung von Anwendungssystemen.
  • Benchmarkingcluster d) (HIMMS) fokussiert inhaltlich am stärksten durch die Betrachtung einiger weniger Benchmarkingobjekte.
  • Kostenbetrachtungen spielen bei a) (Entscheiderfabrik) und c) (UK NRW) eine dominante Rolle.
  • Bei Benchmarkingcluster f) (IT-Report Gesundheitswesen) stehen qualitative Benchmarkingparameter im Mittelpunkt. Eine definierte Menge von Benchmarkingparametern wird bei jeder Durchführung des Benchmarkings betrachtet, zusätzlich erfolgt alle zwei Jahre eine Schwerpunktsetzung.

Diskussion

Entwurf des Klassifikationsschemas und des Fragebogens für Benchmarkingcluster

Das Klassifikationsschema für das KIS-Benchmarking entstand teils durch Literaturrecherche, teils durch Diskussion in der Expertenrunde. Da die Expertenrunde geprägt war durch die in der GMDS-Arbeitsgruppe mwmKIS vorgestellten Benchmarkingcluster, könnte das entstandene Klassifikationsschema besser für die Beschreibung eines stark durch Kennzahlen (Benchmarkingparameter) geprägten Performance Benchmarkings als für die Beschreibung eines Best Practice Benchmarkings geeignet sein.

Bei der Untersuchung der Benchmarkingparameter wird eine Klassifikation in Bezug auf Benchmarkingobjekte und Benchmarkingparameter-Typen (Zeit, Kosten, Menge und Qualität) vorgenommen. Diese Systematik hilft, die Komplexität der oftmals großen Menge an untersuchten Benchmarkingparametern pro Benchmarkingcluster zu reduzieren und inhaltliche Aussagen zum Gegenstand des Benchmarkings zu treffen. Dennoch könnte eine ausführlichere Untersuchung weiterführende Fragen zur Qualität der Benchmarkingparameter beantworten: Für jeden Benchmarkingcluster könnte erhoben werden, welche und wie viele Benchmarkingparameter sich aus etablierten Quellen ableiten, also z.B. ob ein Benchmarkingparameter zur Messung eines Reifegrades von IT-Service-Prozessen sich von „Capability Model Maturity Integration (CMMI)“ [24] oder aus einem Prozessbefähigungsmodell nach COBIT 5 [25] ableitet.

Rahmenbedingungen innerhalb der Benchmarkingcluster

Die betrachteten Benchmarkingcluster lassen sich alle dem Benchmarkingtyp „Performance Benchmarking“ zuordnen und unterstützen somit eine Positionierung gegenüber den Benchmarkingpartnern. Es besteht bei den zwei offen kooperierenden sowie den anonymen Benchmarkingclustern d) und e) die Möglichkeit, innerhalb der Benchmarkingcluster Kontakte für ein Best Practice Benchmarking herzustellen, allerdings sind innerhalb der Benchmarkingcluster keine Vorgehensmodelle für ein Best Practice Benchmarking etabliert. Das aufwendigere Best Practice Benchmarking findet mit einer kleineren Anzahl von Benchmarkingpartnern statt und ist stärker auf eine intensive Analyse eines ausgewählten Benchmarkingobjektes beschränkt. Deshalb werden möglicherweise dessen Methoden und Ergebnisse im Bereich des KIS-Benchmarkings seltener publiziert, möglicherweise existieren aber auch keine etablierten Methoden.

Innerhalb der untersuchten Benchmarkingcluster zeigt sich ein Zusammenhang zwischen der Anzahl der Benchmarkingpartner und der Kooperationsform sowie dem Aufwand, den man an der Anzahl der untersuchten Benchmarkingobjekte sowie den Ressourcen in Form von Mitarbeiterstunden abschätzen kann. Kleinere Benchmarkingcluster mit bis zu zehn Teilnehmern weisen oft eine offene Kooperationsform auf und legen teilweise gegenseitig alle Benchmarkingergebnisse offen. Dabei werden oft große Mengen an Benchmarkingparametern genutzt. Große Benchmarkingcluster anonymisieren alle Ergebnisse und es ist zunächst kein Austausch mit anderen Benchmarkingpartnern vorgesehen. Auch hält sich der Aufwand für die Erhebung in Grenzen. Auffallend ist die größtenteils auf Tabellenkalkulationsprogrammen basierende Werkzeugunterstützung für Datenerhebung und -auswertung, die bei großen Datenmengen zu erhöhter Fehleranfälligkeit führen kann. Webbasierte Umfragetools mit integrierten Datenbanken wären hier die bessere Alternative.

Inhalte des KIS-Benchmarkings

Die durchgeführte inhaltliche Auswertung der Benchmarkingparameter der sechs Benchmarkingcluster bildet die Menge aller Benchmarkingparameter auf Kombinationen aus Benchmarkingobjekt und Typ des Benchmarkingparameters ab. Es lässt sich anhand dieser Auswertung nicht ablesen, ob für eine Kombination eine oder mehrere Benchmarkingparameter von einem Benchmarkingcluster genutzt werden. Selbst wenn man die Anzahl angeben würde, wäre damit noch keine Aussage über Qualität oder auch Schwerpunktbildung eines Benchmarkingclusters getroffen, da oftmals auch eine große Menge einzelner Kennzahlen zu einem Score zusammengefasst wird. Auch steht beispielsweise bei Benchmarkingcluster d) mit dem EMRAM (Electronic Medical Record Adoption Model) Score im Wesentlichen ein Benchmarkingparameter im Mittelpunkt, was anhand der gewählten Darstellung auch nicht unmittelbar abzuleiten ist.

Inhaltliche Schwerpunkte der untersuchten Benchmarkingcluster sind Anwendungssysteme, Physische Datenverarbeitungssysteme, Organisationsstrukturen des Informationsmanagements und IT Service Management. Es stellt sich die Frage, inwieweit diese Benchmarkingobjekte von Nutzen sind, um die Qualität, Leistung oder den Wertbeitrag eines KIS zu messen. Dabei kann es helfen, das Ziel eines Informationssystems zu definieren. Laut Ammenwerth und Haux soll das Informationssystem die „Durchführung der […] notwendigen Unternehmensaufgaben möglichst effizient und unter Berücksichtigung einer wirtschaftlichen Betriebsführung sowie [der Einhaltung] von gesetzlichen und sonstigen Anforderungen [...] unterstützen“ [26]. Unternehmensaufgaben können wiederum nur unterstützt werden, wenn Informationen zur richtigen Zeit am richtigen Ort den richtigen Personen im richtigen Format zur Verfügung stehen. Insofern kann eine Betrachtung der datenverarbeitenden Krankenhausprozesse inkl. der verarbeiteten Daten wegweisend für das KIS-Benchmarking sein, die von einigen Benchmarkingclustern bereits praktiziert wird. Darüber hinaus wird Data Governance in Krankenhäusern von der US-amerikanischen American Health Information Management Association (AHIMA), die sich mit der Qualität medizinischer Daten und Patientenakten befasst und entsprechende Zertifikate vergibt, als eine „post-EHR implementation priority“ für das Informationsmanagement in Krankenhäusern angesehen [27]. Somit kann die Definition von Benchmarkingparametern, die Aussagen über den Reifegrad von definierten Zuständigkeiten und Entscheidungsbefugnisse für Daten, Information und Wissen zulassen, ein KIS-Benchmarking sinnvoll ergänzen.

Neben der Untersuchung des KIS wird auch von fast allen Benchmarkingclustern das Informationsmanagement, insb. Prozesse des IT Service Managements und Organisationsstrukturen, untersucht. Im Gegensatz dazu sind IT Governance, strategisches Informationsmanagement und das taktische Informationsmanagement unterrepräsentiert, obwohl sie wichtige Themen für CIOs und die Krankenhausleitung darstellen. Aktuelle Untersuchungen von Marktforschungsinstituten zeigen, dass nur 43% der Abteilungen für Informationsmanagement von großen Unternehmen bezüglich der Geschäftsstrategie mit der Geschäftsführung zusammenarbeiten [28] und 75% der CIOs und CFOs von Unternehmen bereits das Scheitern geschäftskritischer IT-Projekte miterlebt haben [29]. Dass diese Probleme auch in vielen Krankenhäusern bestehen, denen zusätzlich oft ein geringerer Reifegrad ihrer IT gegenüber Unternehmen anderer Branchen attestiert wird, ist anzunehmen.

Die hier vorgestellte inhaltliche Untersuchung der Benchmarkingcluster nimmt eine inhaltliche Klassifizierung anhand der erhobenen Benchmarkingparameter vor, d.h. die Qualität und Aussagekraft der Benchmarkingparameter wurden nicht untersucht. Zu diesem Zwecke wären weiterführende Untersuchungen, z.B. in Form von Umfragen unter den Benchmarkingpartnern und den Stakeholdern zu Nutzen und Akzeptanz des Benchmarkings notwendig. Eine Kosten-Nutzen-Analyse von Benchmarkingparametern, die den Aufwand zur Erhebung der Ausprägung eines Benchmarkingparameters und die von den Stakeholder-Gruppen empfundene Nützlichkeit des Benchmarkingparameters ins Verhältnis setzt, könnte beispielsweise Gegenstand einer empirischen Untersuchung sein.


Fazit: Handlungsempfehlungen für die Durchführung eines KIS-Benchmarkings

Als Fazit werden basierend auf der Entwicklung des Klassifikationsschemas und der Analyse der Benchmarkingcluster folgende allgemeine Handlungsempfehlungen für das Benchmarking von Krankenhausinformationssystemen abgeleitet:

1.
Wird mit dem Benchmarking das Ziel der Positionierung gegenüber anderen Krankenhäusern oder der groben Identifikation von Schwachstellen verfolgt, sollte ein Performance Benchmarking innerhalb eines Benchmarkingclusters durchgeführt werden.
2.
Wird mit dem Benchmarking das Ziel des Findens und Implementierens von Best Practices verfolgt, kann bei noch unbekanntem Benchmarkingobjekt ein Performance Benchmarking vorangestellt werden, um Schwachstellen zu identifizieren und Kontakt zu potentiellen Benchmarkingpartnern herzustellen. Auch bei bekanntem Benchmarkingobjekt können Ergebnisse eines Performance Benchmarking Hinweise auf leistungsstarke Benchmarkingpartner geben.
3.
Bei der Auswahl eines Benchmarkingclusters für das Performance Benchmarking sollten zunächst die jeweils untersuchten Benchmarkingobjekte, z.B. anhand von Tabelle 4 [Tab. 4], betrachtet werden:
    • Welcher Benchmarkingcluster setzt inhaltliche Schwerpunkte, die im eigenen Haus von strategischer Bedeutung sind?
    • Sollen das Informationssystem und datenverarbeitende Krankenhausprozesse oder das Informationsmanagement und IT-Service-Prozesse betrachtet werden?
    • Sollen quantitative Parameter, Zeitparameter, Kostenparameter oder qualitative Parameter betrachtet werden?
4.
Ein weiteres Auswahlkriterium für die Auswahl eines Benchmarkingclusters ist die Anzahl der Benchmarkingpartner. Bei großem Teilnehmerkreis ist die Wahrscheinlichkeit am höchsten, auf die „besten“ Krankenhäuser zu treffen. Die Kooperation ist jedoch meist anonym und es ist nicht sicher, ob sich ein Kontakt zum Besten herstellen lässt. Bei einem kleineren Benchmarkingcluster ist die Wahrscheinlichkeit geringer, auf „beste Krankenhäuser zu treffen“. Allerdings ist durch die offenere Kooperation ein größeres Potenzial für ein anschließendes informelles oder Best Practice Benchmarking gegeben.

Vor der Entscheidung für die Durchführung eines Benchmarkings sollten grundsätzliche, aus der Benchmarkingliteratur bekannte Voraussetzungen erfüllt sein. Der Erfolg eines Benchmarkings hängt wesentlich von der Zustimmung und dem Interesse der Stakeholder, aber auch von der Bereitstellung ausreichender Ressourcen für Vorbereitung, Durchführung und dem Ableiten von Aktivitäten aus Benchmarkingergebnissen ab.


Anmerkung

Interessenkonflikte

Die Autoren erklären, dass sie keine Interessenkonflikte in Zusammenhang mit diesem Artikel haben.


Literatur

1.
guig.org [internet]. Grevenbroich: GuiG – Gesellschaft für Unternehmensführung und IT-Service-Management in der Gesundheitswirtschaft GmbH; c2008 [cited 13.05.2014]. Available from: http://www.guig.org/summary Externer Link
2.
Winter A, Haux R, Ammenwerth E, Brigl B, Hellrung N, Jahn F. Health Information Systems: Architectures and Strategies. London: Springer-Verlag London Limited; 2011. (Health Informatics). DOI: 10.1007/978-1-84996-441-8 Externer Link
3.
Simon A. Die betriebswirtschaftliche Bewertung der IT-Performance im Krankenhaus am Beispiel eines Benchmarking-Projekts. In: Schlegel H, editor. Steuerung der IT im Klinikmanagement: Methoden und Verfahren. Wiesbaden: Vieweg + Teubner; 2010. p. 73-90. DOI: 10.1007/978-3-8348-9393-2_5 Externer Link
4.
Camp RC. Benchmarking. München, Wien: Carl Hanser Verlag; 1994.
5.
Mertins K, Kohl H. Benchmarking - der Vergleich mit den Besten. In: Mertins K, Bauer W, editors. Benchmarking: Leitfaden für den Vergleich mit den Besten. 1st ed. Düsseldorf: Symposion Publishing; 2004. p. 15-57.
6.
Adebanjo D, Abbas A, Mann R. An investigation of the adoption and implementation of benchmarking. Int J Oper Prod Manag. 2010;30(11):1140-69. DOI: 10.1108/01443571011087369 Externer Link
7.
Wainwright D, Green G, Mitchell E, Yarrow D. Towards a framework for benchmarking ICT practice, competence and performance in small firms. Perform Measur Metr. 2005;6(1):39-52. DOI: 10.1108/14678040510588580 Externer Link
8.
Hübner-Bloder G, Ammenwerth E. Key performance indicators to benchmark hospital information systems – a delphi study. Methods Inf Med. 2009;48(6):508-18. DOI: 10.3414/ME09-01-0044 Externer Link
9.
Otieno GO, Hinako T, Motohiro A, Daisuke K, Keiko N. Measuring effectiveness of electronic medical records systems: towards building a composite index for benchmarking hospitals. Int J Med Inform. 2008 Oct;77(10):657-69. DOI: 10.1016/j.ijmedinf.2008.01.002 Externer Link
10.
Liebe JD, Hübner U. Developing and Trialling an independent, scalable and repeatable IT-benchmarking procedure for healthcare organisations. Methods Inf Med. 2013;52(4):360-9. DOI: 10.3414/ME12-02-0016 Externer Link
11.
MWMKIS [Internet]. Leipzig: GMDS-Arbeitsgruppe/GI-Arbeitskreis „Methoden und Werkzeuge für das Management von Krankenhausinformationssystemen“; [cited 28.02.2014]. Available from: http://mwmkis.imise.uni-leipzig.de/ Externer Link
12.
Kütz M. Kennzahlen in der IT: Werkzeuge für Controlling und Management. 1st ed. Heidelberg: dpunkt-Verlag; 2003.
13.
Legner C, Österle H. Prozeßbenchmarking – Ein methodischer Ansatz zur Prozeßentwicklung mit Standardsoftware. In: Scheer AW, Nüttgens M, editors. Electronic business engineering. Heidelberg: Physica-Verlag; 1999. p. 331-52. DOI: 10.1007/978-3-642-58663-7_19 Externer Link
14.
Mertins K, Kohl H. Benchmarking-Techniken. In: Mertins K, Bauer W, editors. Benchmarking: Leitfaden für den Vergleich mit den Besten. 1st ed. Düsseldorf: Symposion-Publishing; 2004. p. 73-96.
15.
ITIL Lifecycle Suite 2011: ITIL Service Strategy, ITIL Service Design, ITIL Service Transition, ITIL Service Operation, ITIL Continual Service Improvement. London: The Stationery Office Ltd; 2011.
16.
Weill P, Ross JW. IT governance: How top performers manage IT decision rights for superior results. Boston, MA: Harvard Business School Press; 2004.
17.
Donabedian A. Evaluating the quality of medical care. Milbank Mem Fund Q. 1966 Jul;44(3):Suppl2:166-206. DOI: 10.2307/3348969 Externer Link
18.
2010er Entscheiderfabrik – Unternehmenserfolg durch optimalen IT-Einsatz: IT-Benchmarking im Krankenhaus – Ausgangsbasis für Prozessoptimierungen: Report zur Ersterhebung 2010. IT-Benchmarking; 2010. Available from: http://www.guig.org/_fileserver/documents/2010/fachgruppen/2010_EF_IT-Benchmarking%20Report_v1-0.pdf Externer Link
19.
Jöckel K, Lowitsch V. Ergebnisse eines Benchmarks der Kosten, Leistungen und Zuständigkeiten der Universitätskliniken NRW / RP. Vortrag bei Arbeitstreffen MWMKIS; 08.11.2010; Frankfurt a. M.
20.
Buddrus U. HIMSS EMR Adoption Model – Benchmarking des Fortschritts von Krankenhäusern zur Schaffung einer Umgebung für die papierlose elektronische Patientenakte. Vortrag bei Arbeitstreffen MWMKIS: 06.05.2011; Nürnberg.
21.
Baltschukat K. IT-Benchmark Schweizer Spitäler. Vortrag bei Arbeitstreffen MWMKIS: 06.05.2011; Nürnberg.
22.
Pschebezin F. Musterspital. Ergebnisse aus dem Benchmark 2010. Spital-IT-Gruppe. Schaffhausen: BEG & Partners; 2011. [cited 24.02.14] Available from: http://www.begpartners.com/downloads/Bericht_fuer_Musterspital.pdf Externer Link
23.
Hübner U, Liebe JD, Straede MC, Thye J. IT-Report Gesundheitswesen: Schwerpunkt IT-Unterstützung klinischer Prozesse – Befragung der bundesdeutschen Krankenhäuser. Hannover: Niedersächsisches Ministerium für Wirtschaft, Arbeit und Verkehr; 2014. Available from: http://l4asrv-1.wi.hs-osnabrueck.de/joomla2/index.php/downloads/category/14-it-report-gesundheitswesen-download-it-report-gesudheitswesen-schwerpunkt-it-unterstuetzung-klinischer-prozesse Externer Link
24.
SCAMPI Upgrade Team. Standard CMMI® Appraisal Method for Process Improvement (SCAMPI™) A: Version 1.3: Method Definition Document. Pittsburgh, Pennsylvania: Carnegie Mellon University; 2011 Mar. Available from: http://repository.cmu.edu/cgi/viewcontent.cgi?article=1665&context=sei Externer Link
25.
ISACA. COBIT 5: Framework für Governance und Management der Unternehmens-IT. Rolling Meadows, IL: ISACA; 2012.
26.
Ammenwerth E, Haux R. IT-Projektmanagement in Krankenhaus und Gesundheitswesen: Einführendes Lehrbuch und Projektleitfaden für das taktische Management von Informationssystemen. Stuttgart: Schattauer; 2005.
27.
Fluckinger D. AHIMA 2012: Data governance is post-EHR implementation priority. [cited 15.06.15] Available from: http://searchhealthit.techtarget.com/podcast/AHIMA-2012-Data-governance-is-post-EHR-implementation-priority Externer Link
28.
Forrester Research. Integrated thinking: The answer to enterprise IT’s perpetual struggle. 2013. Available from: http://www.effectiveui.com/landing-pages/downloads/publications/EffectiveUI_Study_Integrated_Thinking.pdf Externer Link
29.
Quack K. IT-Planning-Studie 2013. Computerwoche. 18.06.2013. Available from: http://www.computerwoche.de/a/it-planning-studie-2013,2535017 Externer Link
30.
Töpfer A, Mann A. Benchmarking: Lernen von den Besten. In: Töpfer A, Adams R, editors. Benchmarking: Der Weg zu Best Practice. Berlin: Springer; 1997. p. 31-75.
31.
Petrov K, Scarsi GC, Ajodhia V, Keller K. Efficency Factor's Determination (X Factor): Issue Paper Erra Tariff/Pricing Committee. KEMA International B.V.; 2006 Aug. Available from: http://erranet.org/index.php?name=OE-eLibrary&file=download&id=4697&keret=N&showheader=N Externer Link
32.
Hane W, Lentrodt A. Durchführung eines Benchmarking-Projekts. In: Mertins K, Bauer W, editors. Benchmarking: Leitfaden für den Vergleich mit den Besten. 1st ed. Düsseldorf: Symposion-Publishing; 2004. p. 239-65.
33.
ISACA. COBIT 4.1: Framework, control objectives, management guidelines, maturity models. Rolling Meadows, IL USA: IT Governance Institute; 2007.