gms | German Medical Science

15. Deutscher Kongress für Versorgungsforschung

Deutsches Netzwerk Versorgungsforschung e. V.

5. - 7. Oktober 2016, Berlin

Wie kann Evaluation die Implementierung von Innovationen unterstützen?

Meeting Abstract

Search Medline for

  • Susanne Giel - Univation Institut für Evaluation - Dr. Beywl & Associates GmbH, Köln, Deutschland

15. Deutscher Kongress für Versorgungsforschung. Berlin, 05.-07.10.2016. Düsseldorf: German Medical Science GMS Publishing House; 2016. DocV065

doi: 10.3205/16dkvf024, urn:nbn:de:0183-16dkvf0243

Published: September 28, 2016

© 2016 Giel.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Outline

Text

Evaluation untersucht - zwar nicht ausschließlich, jedoch typisch - Innovationen. Gerade wenn Modellhaftes erprobt oder Lösungen für neue Herausforderungen gesucht werden, beauftragen Programmverantwortliche Evaluationen, die Aussagen zum Gelingen und zu den Wirkungen dieser Neuerungen treffen sollen. Evaluation – als relativ junge Wissenschaft – entwickelte in den vergangenen Jahrzehnten ein eigenständiges Profil, das sich in mancherlei Hinsicht von klassischer Grundlagen- und Wirkungsforschung unterscheidet. Ein zentraler Unterschied besteht darin, dass in Evaluationen die Praxis und Administration von Programmen den Takt vorgeben und die Logik der Forschung sich anpassen muss. Diese Tatsache hat vielfältige Konsequenzen für die Praxis und die Konzipierung von Evaluationen. Dies spiegeln auch die Standards für Evaluation wider, die entstanden, um Qualitätskriterien für Evaluationen zu definieren und um die Professionalisierung voranzutreiben.

Die Standards für Evaluationen gliedern sich in vier Gruppen: Nützlichkeit, Durchführbarkeit, Fairness und Genauigkeit. Diese Grobsortierung legt offen, dass Evaluationen nicht auf ein spezifisches Design festgelegt sind, sondern dass die Frage nach angemessenen Methoden eine Frage unter vielen ist: So sind beispielsweise Beteiligte und Betroffene für Evaluationen eine zentrale Größe, die es zu identifizieren und weitgehend einzubeziehen gilt. Den Dreh- und Angelpunkt für das Design und die Methodenwahl bilden die intendierten Nutzungsabsichten der Evaluation. Evaluationen müssen effizient durchgeführt werden und rechtzeitig Ergebnisse präsentieren können.

Der Vortrag illustriert entlang ausgewählter Standards das spezifische Vorgehen von Evaluationen und arbeitet heraus, welche Konsequenzen daraus für die Evaluation von innovativen Vorhaben zu ziehen sind. Innovative Programme stellen Evaluationen vor besondere Herausforderungen, weil eine Praxis untersucht werden soll, die sich noch in der Entwicklung befindet und sich dementsprechend verändert. Auch fehlt es an einer gesicherten Wissensbasis, um überhaupt festzulegen, welche (intendierten und nicht-intendierten) Wirkungen überhaupt zu erfassen sind. Abgeleitet daraus werden einige Grundüberlegungen zur Umsetzung und zum Design von Evaluationen innovativer Programme.

Begriffsdefinitionen rund um die Evaluation finden Sie hier: http://eval-wiki.org/glossar/Eval-Wiki:_Glossar_der_Evaluation


Literatur

1.
Bartsch S, Beywl W, Niestroj M. Der Programmbaum als Evaluationsinstrument. In: Giel, Klockgether, Mäder. Evaluationspraxis. Professionalisierung - Ansätze - Methoden. Münster: Waxmann; 2015. S. 87-109.
2.
DeGEVal. Standards für Evaluation. 4. Auflage. Mainz; 2008. http://www.degeval.de/fileadmin/user_upload/Sonstiges/STANDARDS_2008-12.pdf External link
3.
DeGEval. Empfehlungen für Auftraggebende von Evaluationen. o.J. http://www.degeval.de/fileadmin/Publikationen/Publikationen_Homepage/DeGEval_-_Empfehlungen_Auftraggebende.pdf External link
4.
Giel S. Wirkungen auf der Spur mit Programmtheorien. In: Giel, Klockgether, Mäder. Evaluationspraxis. Professionalisierung - Ansätze - Methoden. Münster: Waxmann; 2015. S. 111-129.