gms | German Medical Science

4. Symposium Health Technology Assessment
Bewertung medizinischer Verfahren

Deutsche Agentur für HTA des DIMDI – DAHTA@DIMDI

13. bis 14.11.2003, Krefeld

Meta-Analyse und Cochrane-Collaboration

Vortrag

Suche in Medline nach

  • corresponding author Stefan Sauerland - Medizinische Fakultät der Universität Köln, Biochemische und Experimentelle Abteilung, Köln

Deutsche Agentur für Health Technology Assessment des Deutschen Instituts für Medizinische Dokumentation und Information. 4. Symposium Health Technology Assessment - Bewertung medizinischer Verfahren. Krefeld, 13.-14.11.2003. Düsseldorf, Köln: German Medical Science; 2004. Doc03hta13

Die elektronische Version dieses Artikels ist vollständig und ist verfügbar unter: http://www.egms.de/de/meetings/hta2003/03hta13.shtml

Veröffentlicht: 29. April 2004

© 2004 Sauerland.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielf&aauml;ltigt, verbreitet und &oauml;ffentlich zug&aauml;nglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Gliederung

Text

Sinn und Unsinn von Übersichtsartikeln

Der Umfang der medizinischen Literatur macht es dem Leser heute unmöglich, zu einem definierten Themengebiet die komplette Primärliteratur zu kennen. Daher verlässt man sich immer mehr darauf, dass das relevante Wissen in Form von Übersichtsartikeln zusammengefasst wird. Heute unterscheidet man entsprechend der historischen Entwicklung folgende drei Arten von Übersichtsartikeln („reviews"): 1. der traditionelle, narrative Review, 2. der systematische Review, 3. die Meta-Analyse.

Der traditionelle, narrative Review: Hier beschreibt ein Autor (oder Autorenteam) auf der Basis der ihm bekannten Literatur den Stand des Wissens. Solche Artikel unterliegen einer Selektion der Literatur und sind oft subjektiv geprägt.

Der systematische Review: Auf der Basis einer systematischen Literatursuche wird der aktuelle Wissensstand zusammengetragen und interpretiert. Diese Reviews sind weniger anfällig für Verzerrungen und Subjektivität.

• Die Meta-Analyse: Hierbei werden (wie beim systematischen Review) alle relevanten Originalarbeiten gesucht, darüber hinaus werden jedoch die Ergebnisse dieser Einzelstudien mit statistischen Methoden zusammengefasst.

(NB: Im englischen Schrifttum werden die Begriffe meta-analysis und systematic review oft gleichartig verwendet.)

Die früher sehr beliebten narrativen Übersichtsartikel sind heute unter Druck geraten, da man beobachtet hat, dass die Autoren solcher Artikel die Literatur oft so auswählen, dass ihre vorgefassten Schlussfolgerungen bestätigt werden. Unliebsame Studien, die das Gegenteil beweisen, werden dagegen einfach nicht beachtet. So wurde z.B. gezeigt, dass Übersichtsartikel die Gefahren des Passivrauchens gerade dann verneinten, wenn die Autoren Kontakte zur Tabakindustrie hatten [1]. Für den Leser ist also bei traditionellen Übersichtsartikeln nicht unterscheidbar, inwieweit der Artikel wissenschaftliche Daten oder reine Meinung enthält. In einer anderen Untersuchung konnten Antman et al. zeigen, dass Lehrbuchartikel (die ähnlich wie traditionelle Übersichtsartikel zu sehen sind) zum Teil 15 Jahre hinter der aktuellen Studienlage hinterherhinken [Abb. 1]. Daher veröffentlichen die großen Zeitschriften heute Übersichtsartikel meist nur noch dann, wenn sie systematisch erstellt wurden, also eine systematische Literatursuche beinhalten.

Vorgehen zur Erstellung einer Meta-Analyse

Die sieben Schritte einer Meta-Analyse

1. Ziel/Protokoll

2. Literatursuche

3. Bewertung der Studien

4. Datenextraktion

5. Statistische Analyse

6. Sensitivitätsanalyse

7. Interpretation

Eine Meta-Analyse ist per se eine retrospektive Studie, die keine Patienten, sondern Studien analysiert. Damit läuft auch eine Meta-Analyse Gefahr, durch Manipulationen a posteriori verfälschte Ergebnisse zu liefern. Um dem vorzubeugen, sollte eine Meta-Analyse (wie eine klinische Studie auch) einem prospektiven Protokoll folgen. Abweichungen von diesem Protokoll sollten als solche deklariert werden.

Wer ein bestimmtes Ergebnis der Meta-Analyse erzielen will, kann durch das rückwirkende Verändern der Ein- und Ausschlusskriterien es schließlich erreichen, nur solche Studien in der Analyse zu haben, die dem gewünschten Ergebnis nahe kommen. Daher ist das exakte Festlegen der Ein- und Auschlusskriterien wichtig, anhand derer dann idealerweise gleich zwei Experten unabhängig voneinander die in Frage kommenden Studien prüfen. Gute Meta-Analysen nennen auch die ausgeschlossenen Studien.

Literatursuche

Eine möglichst umfassende und nachvollziehbar dokumentierte Literatursuche ist die unerlässliche Basis jeder Meta-Analyse. Da eine solche Literatursuche sehr viel Mühe macht, wird gerade hier oft fehlerhaft gearbeitet. Als Leser sollte man daher im Methodikteil einer Meta-Analyse/eines systematischen Reviews genau prüfen, ob die Autoren wirklich alle relevanten Studien finden konnten, oder ob wichtige Datenbanken ungenutzt blieben [Tab. 1]. Abzulehnen wegen des hohen Risiko von „Publikations-Bias" [2] ist insbesondere eine Suche nach relevanten Studien allein in Medline oder allein nach englischsprachigen Arbeiten.

Es konnte gezeigt werden, dass Autoren aus nicht-englischsprachigen Ländern signifikante Ergebnisse bevorzugt in angloamerikanischen Zeitschriften publizieren, so dass die nicht-signifikanten Ergebnisse dann in deutschen, französischen oder auch spanischen Zeitschriften „verschwinden" [3], [4]. Da Medline seinen Schwerpunkt bei angloamerikanischen Journals hat, führt also eine unvollständige Literatursuche tendenziell zu einer Überschätzung des Behandlungseffekts. Diese ernst zu nehmende Form von Verzerrung wird als „Language Bias", spöttisch auch als „Tower of Babel-Bias" bezeichnet.

Eine gute Meta-Analyse nutzt daher neben Medline auch Embase [Tab. 2] und Cochrane, sowie weitere in Frage kommende spezielle Datenbanken, z.B. AIDS-Line oder ToxLine. Hier bietet die Website des Deutsche Instituts für Medizinische Dokumentation und Information (DIMDI) eine gute Übersicht. Die Cochrane Library hat den Vorteil, dass hier auch randomisierte Studien aus zahlreichen nicht gelisteten Zeitschriften verfügbar sind. Solche Zeitschriften werden von der Cochrane Collaboration mühsam Seite für Seite per Hand durchgesehen. Eine solche Handsuche ist für eine Meta-Analyse oft dennoch unumgänglich, da viele Zeitschriften in keiner der obigen Datenbanken verfügbar sind.

Sehr schwierig ist das Suchen der grauen Literatur. Hierzu zählen Bücher, Kongressbände und Dissertationen. Bei bestimmten Fragestellungen sollte auch die pharmazeutische Industrie zu unpublizierten Studien befragt werden. Kritisch wird derzeit diskutiert, inwieweit Abstracts in Meta-Analysen berücksichtigt werden sollten. Wenn die Studie sich nach Kontakt mit den Autoren als verlässlich erweist, sollte man sie aber einschließen.

Auch gerade laufende Studien sollten durchgesehen werden, z.B. über clinicaltrials.gov [Abb. 2] oder auch controlled-trials.com.

Bewertung der gefundenen Studien

In einem ersten Schritt werden nun die in der Literatursuche identifizierten Studien anhand der Einschlusskriterien geprüft. Hierbei ist zu dokumentieren, welche Studien schon aufgrund des Abstracts ausgeschlossen und welche Artikel im Volltext bewertet wurden. Die Studien müssen hierbei methodischen und inhaltlichen Kriterien genügen. Meist beschränken sich Meta-Analysen zu Therapiefragen auf randomisierte Studien [Abb. 3].

In einem zweiten Schritt werden die definitiv eingeschlossenen Studien im Detail beurteilt. Hierbei können Checklisten helfen, die Übersicht zu behalten. Wichtiger ist jedoch, dass die drei Kerneigenschaften der randomisierten Studien in der Analyse untersucht werden [5]: Randomisation, Verblindung und Follow-up mit Intention-to-Treat Analyse [Tab. 3].

Es ist bekannt, dass randomisierte Studien mit unverdeckter Randomisation den wahren Therapieeffekt um bis zu 40% überschätzen können [6]. Auch für die Verblindung gibt es ähnliche Unterschiede [Abb. 4].

Das Resultat dieser Qualitätsbewertung ist eine Rangfolge der Studien oder eine Gruppierung in „gute" und „schlechte" Studien. Hierüber läßt sich später im Rahmen einer Sensitivitätsanalyse ein Vergleich guter und schlechter Studien anstellen. Fällt bei dieser Prüfung ein deutlicher Unterschied auf, spricht vieles dafür, die schlechten Studien gesondert zu behandeln oder gar von der Analyse auszuschließen.

Datenextraktion

Für die Meta-Analyse braucht man die publizierten Ergebnisse in einer standardisierten Form. Insbesondere benötigt man zu jedem Ergebnis auch eine Angabe seiner Präzision. Dies bedeutet, dass man für dichotome Ergebnisse (z.B. Eintreten einer Komplikation ja/nein) die Anzahl der Patienten benötigt. Für kontinuierliche Zielvariablen (z.B. Krankenhausverweildauer) braucht man dagegen zusätzlich zum Lagemaß (z.B. Mittelwert oder Median) ein Streumaß (z.B. Standardabweichung, 95%-Konfidenzintervall oder Interquartilsbereich).

Immer wieder wird man auf fehlende Daten stoßen. Dann muss man versuchen, diese Angaben noch vom Autor zur erfragen. Ist auch dies erfolglos, muss man die Angaben schätzen. So kann man beispielsweise aus einem p-Wert die Standardabweichungen schätzen. Besonders schwierig sind dagegen fehlerhafte Daten, wo sich also die Angaben z.B. in Abstract und im Ergebnisteil eindeutig widersprechen. Lassen sich solche Diskrepanzen nicht auflösen, ist die Studie von der Meta-Analyse auszuschließen.

Statistische Analyse

Das statistische Zusammenrechnen von Einzelstudien zu einem Gesamtergebnis bezeichnet man als Meta-Analyse im engeren Sinne. Die statistischen Techniken hierzu stammen aus anderen Wissenschaftszweigen, speziell der Psychologie und der Physik, wo Meta-Analyse schon viel länger betrieben wird.

Das Grundprinzip der Meta-Analyse besteht nicht darin, verschiedene Studien „zusammenzurechnen", in dem Sinne, dass p-Werte gemittelt werden oder die Studienergebnisse einfach aufaddiert werden, denn damit würden die vielen Einzelstudien wie eine große Studie behandelt werden. Stattdessen werden immer nur Patienten einer Therapie- und einer Kontrollgruppe innerhalb einer Studie verglichen.

Man berechnet also für jede Einzelstudie ein Ergebnis, das als Effektmaß ausgedrückt wird. Effektmaße sind z.B. das Relative Risiko (RR), das Odds Ratio (OR) oder die Risikodifferenz (RD) für dichotome Parameter, und der standardisierte oder gewichtete Mittelwertsunterschied (SMD oder WMD) für kontinuierliche Variablen. Die Meta-Analyse kontinuierlicher Variablen ist grundsätzlich auf das Vorliegen einer Normalverteilung angewiesen.

Diese Effektmaße werden dann gewichtet aufaddiert. Hierbei erhalten Studien mit großer Patientenzahl mehr Gewicht als kleine Studien. Die Gewichtungsfaktoren beziehen aber auch die Anzahl der Ereignisse mit ein. Am Ende teilt man wieder durch die Summe der Gewichtungsfaktoren, um das Gesamtergebnis der Meta-Analyse zu erhalten. Hierzu wird ein Konfidenzintervall errechnet [Tab. 4]. Übliche Gewichtungsfaktoren für dichotome Ereignisse sind in Tabelle 5 [Tab. 5] aufgelistet. Hierbei bezeichnen a, b, c, und d die Anzahl der Patienten in der Vier-Felder-Tafel (a = Anzahl Ereignisse in Therapiegruppe). Versuche, auch die Studienqualität in die Gewichtung mit einzubeziehen, sind bisher sehr selten [7].

Das Ergebnis der Meta-Analyse wird schließlich im Forest-Plot dargestellt [Abb. 5]. Hierbei werden sowohl die Ergebnisse der Primärstudien als auch der Gesamtschätzer mit dem zugehörigen Konfidenzintervall aufgetragen. Dadurch, dass meist auch die Originaldaten angegeben werden, bleiben die Einzelergebnisse nachprüfbar. Ferner kann sich der Leser über die Angabe der relativen Gewichtung der Einzelstudien, wi(%), einen Eindruck davon verschaffen, in wieweit das Gesamtergebnis auf den Einzelstudien beruht.

Wichtig ist auch, ob alle Einzelstudien mit ihren Konfidenzintervallen im Forest Plot den Summenschätzer überlagern. Wenn dies nicht der Fall ist, wenn also Ausreißerstudien sehr weit links oder rechts liegen, ist von Heterogenität auszugehen, da die Studien scheinbar nicht den gleichen Therapieeffekt abbilden.

Heterogenität sollte aber auch statistisch überprüft werden. Hierbei wird betrachtet, wie weit der Therapieeffekt in der Einzelstudie, TEi, vom Gesamttherapieeffekt TE abweicht. Diese Abstände werden quadriert und in gleicher Weise wie oben gewichtet aufsummiert [Tab. 6]. Erreichen die so errechneten Heterogenitätsstatistiken Q oder I 2 hohe Werte, so muss von Heterogenität ausgegangen werden [8].

Wenn Heterogenität vorliegt, ist dies ein ernstes Problem, das nicht einfach ignoriert werden darf [9]. Zumindest sollte man die statistische Methode anpassen, indem man anstelle des Fixed-Effects-Modells das Random-Effects-Modell wählt, das ein gewisse Variation der Studienergebnisse untereinander miteinbezieht [10]. Besser ist es jedoch, die Ursachen der Heterogenität in der Sensitivitätsanalyse aufzuklären.

Sensitivitätsanalyse

Das statistische Poolen von Einzelstudien ist einfach. Schwieriger ist oft die Frage zu beantworten, ob dies überhaupt sinnvoll ist. In der Sensitivitätsanalyse versucht man, mögliche Faktoren zu prüfen, die das Ergebnis der Meta-Analyse beeinflussen haben könnten. Diese Einflussfaktoren können methodischer (z.B. Verblindung der Studie) oder inhaltlicher (z.B. Alter der Patienten) Natur sein. Besonders wichtig ist die Sensitivitätsanalyse bei Vorliegen von Heterogenität.

Es gibt zwei Techniken der Sensitivitätsanalyse: Entweder man gruppiert die Studien in zwei (oder mehr) Gruppen und vergleicht dann die Ergebnisse in beiden Subgruppen. Oder man verwendet ein kontinuierliches Kriterium, um die Studienergebnisse gegenüber diesem Kriterium aufzutragen. Letzteres wird als Meta-Regression bezeichnet und eignet sich z.B. für Dosis-Wirkungs-Beziehungen und um die Wechselwirkung zwischen Patientenalter und Therapieeffekt zu untersuchen.

Ein Beispiel einer Sensitivitätsanalyse [Tab. 7], das für Furore gesorgt hat, ist die Cochrane Meta-Analyse zum mammographischen Brustkrebs-Screening [11]. Die Autoren haben 6 von 8 Studien wegen offenbar unsauberer Randomisation separat gehalten und fanden in den verbliebenen zwei Studien keinerlei Anhalt mehr für eine Wirksamkeit des Screenings. Durch die Gruppierung der Studien ließ sich die ursprünglich sehr starke Heterogenität beseitigen.

Prinzipiell ist bei Sensitivitätsanalysen weniger darauf zu achten, ob die Ergebnisse in den Subgruppen noch signifikant sind oder nicht, denn meist wird allein über die geringere Fallzahl eine Nicht-Signifikanz erreicht. Stattdessen ist es wichtiger, die Subgruppenergebnisse untereinander zu vergleichen. Unterscheiden sie sich oder nicht?

Der Funnel-Plot (engl. funnel = Trichter) [Abb. 6] ist ein weiterer extrem wichtiger Teil der Sensitivitätsanalyse. Hiermit kann geprüft werden, ob das Ergebnis der Meta-Analyse durch Publikations-Bias verfälscht ist. Da nämlich auch die beste Literatursuche unpublizierte Studien nicht finden kann, sollte der Einfluss durch derlei Bias graphisch und quantitativ untersucht werden.

Der Funnel-Plot nutzt die Tatsache, dass Studien großer Fallzahl fast immer publiziert werden, während kleine Studien oft nur dann publiziert werden, wenn sie das gewünschte signifikante Ergebnis liefern. Wenn also Publikations-Bias vorhanden ist, werden sich die publizierten Ergebnisse der großen und der kleinen Studien unterscheiden. Im Funnel-Plot ergibt sich dann ein schiefes Bild, in dem die kleinen Studien einen größeren Therapieeffekt zeigen.

Da die rein graphische Beurteilung von Funnel-Plots oft schwierig ist [Abb. 7], existiert auch hierfür ein statistischer Test auf Asymmetrie [12]. Selbstverständlich funktioniert die Analyse im Funnel-Plot nur, wenn eine genügend große Anzahl (ca. >10) von unterschiedlich großen Primärstudien vorhanden ist.

Interpretation der Ergebnisse

Eine Meta-Analyse sollte in Abhängigkeit von der Qualität der Primärstudien, den Ergebnissen des Heterogenitätstests und der Sensitivitätsanalysen die Schlussfolgerungen mit Vorsicht ziehen. Prinzipiell ist eine große Studie mit 1000 Patienten immer besser als eine Meta-Analyse von zehn kleinen Studien à 100 Patienten.

Sonderformen der Meta-Analyse

Neben Therapiestudien können auch alle anderen Studienformen einer Meta-Analyse unterzogen werden, z.B. Fall-Kontroll- oder Kohorten-Studien. Kritisch wird die Datenanalyse, wenn die Ergebnisse in den Primärstudien als Median mit Quartilen berichtet sind, oder wenn nur Überlebenskurven dargestellt sind.

Ein Lösungsansatz ist dann das Zurückgreifen auf die einzelnen Primärdaten: Bei so genannten IPD-Meta-Analysen (Indivuellen-Patientendaten-Meta-Analysen) versucht man, die Originaldaten aller Patienten aller Studien zu erhalten, um hieraus eine (dann nach Studie stratifizierte) Gesamtanalyse zu rechnen. Solche IPD-Meta-Analysen sind aufgrund ihres hohen Aufwands aber sehr selten anzutreffen.

Kumulative Meta-Analysen sind Meta-Analysen, in denen die Primärstudien chronologisch angeordnet sind und dann für jede neue hinzukommende Studie ein neue Meta-Analyse-Ergebnis dargestellt ist. Auf diese Weise lässt sich das Gesamtergebnis über die Zeit verfolgen [Abb. 1].

Indirekte Meta-Analysen analysieren Vergleichsstudien zu A vs. B und B vs. C, um A vs. C zu vergleichen.

Meta-Analyse diagnostischer Studien

Die Meta-Analyse diagnostischer Studien, erfolgt nach ganz anderen Prinzipien als die Meta-Analyse therapeutischer Studien [Tab. 8]. Dies fängt schon bei der Literaturrecherche an, wo man andere Suchbegriffe und Datenbanken verwenden muss. So ist z.B. die Cochrane Library begrenzt auf randomisierte Studien, so dass sie naturgemäß wenige Diagnosestudien enthält. Die Bewertung von Diagnosestudien ist relativ komplex. Man weiß aus empirischen Studien, dass eine unabhängige und verblindete Durchführung der Tests in einem repräsentativen Patientenkollektiv besonders wichtig ist [13].

Zur Datenextraktion aus den Einzelstudien werden wiederum Vier-Felder-Tafeln verwendet [Abb. 8]. Als Effektmaße berichtet werden oft aber nur Sensitivität/Spezifität, positiver/negativer Vorhersagewert oder auch Likelihood Ratios, so dass man dann die rohen Zahlen aus diesen Angaben errechnen muss.

Für die statistische Analyse gibt es vier verschiedene Methoden: Entweder man arbeitet mit Sensitivitäten und Spezifitäten, die über ROC- (Receiver operating Characteristics) Kurven [Abb. 9] modelliert werden [14]. Oder man verwendet die prädiktiven Werte oder die Likelihood-Ratios [15]. Ein vierter Ansatz ist das Berechnen diagnostischer Odds Ratios (DOR) aus [(Sensitivität)/(1-Sensitivität)]/[(1-Spezifität)/(Spezifität)].

Die beliebteste Methodik stammt von Moses und Littenberg und verwendet Sensitivitäten und Spezifitäten [16]. Hierzu existiert ein freies DOS-Programm (MetaTest V 0.6), das von Joseph Lau in Boston entwickelt wurde. Hierbei werden die Studiendaten logistisch transformiert und wechselseitig addiert bzw. substrahiert. Hohe Werte auf der Y-Achse bedeuten eine insgesamt hohe Treffsicherheit des Tests, während die Y-Achse das Verhältnis von Sensitivität zu Spezifität abbildet. Durch die erhaltenen Punkte wird eine Regressionsgrade samt Konfidenzintervallen bestimmt [Abb. 10]. Diese Gerade wird dann wieder zurück transformiert, so dass sich eine klassische ROC-Kurve ergibt. Durch den statistischen Vergleich der Flächen unter der Kurve (AUC) kann man mehrere diagnostische Verfahren gegeneinander testen.

Funnel Plots können über die Darstellung von diagnostischer Treffsicherheit (Accuracy) gegenüber der Präzision (inverse Varianz) in ähnlicher Weise wie bei Therapiestudien erstellt werden.

Die Cochrane Collaboration

Weil Meta-Analysen eine zentrale Basis für evidenz-basierte medizinische Versorgung sind, sollte ihre Erstellung höchsten methodischen Ansprüchen genügen [17]. Gleichzeitig gibt es zu vielen Themenbereichen in der Medizin immer noch überhaupt keine Meta-Analysen, obwohl dies sinnvoll wäre. Daher scheint es von hoher Priorität die Methodik der Meta-Analyse weiter zu verbreiten. Dies ist das Ziel der Cochrane Collaboration.

Historische Entwicklung

Bereits 1972 wies der englische Epidemiologe Archibald Cochrane [Abb. 11] in seinem vielzitierten Buch „Effectiveness and efficiency. Random reflections on health services" die Mediziner auf die immer größer werdende Kluft zwischen Forschung und Praxis hin. Er hatte beobachtet, dass bei vielen medizinischen Entscheidungen oft das Studienwissen außer acht gelassen wurde, weil die medizinische Literatur zu umfangreich und komplex geworden war [18]. 1979 schrieb Cochrane: „Es ist sicherlich ein großes Versäumnis unseres Berufsstandes, dass wir keine kritische Zusammenfassung aller randomisiert kontrollierten Studien organisiert haben, die nach Fachgebiet oder Subspezialisierung geordnet ist und regelmäßig aktualisiert wird."

Seine Idee fiel auf fruchtbaren Boden. In Oxford begann eine Gruppe von Medizinern und Methodologen damit, auf dem Gebiet der Geburtshilfe zu den wichtigsten Fragen alle randomisierten Studien zusammenzutragen und mit Hilfe der Meta-Analyse zusammenzufassen [19]. Cochrane lobte dieses Pilotprojekt noch kurz vor seinem Tod als einen Meilenstein der medizinischen Forschung. Aus einer dieser Meta-Analysen wurde übrigens später das Logo der Cochrane Collaboration entwickelt [Abb. 12].

Gefördert vom englischen Gesundheitssystem wurde dann im Oktober 1992 das erste Cochrane Centre in Oxford eröffnet. Da man nun alle Bereiche der medizinischen Versorgung bearbeiten wollte, wurde schnell klar, dass dies nur mit einer internationalen Zusammenarbeit vieler Forscher über viele Jahre möglich sein würde [20]. So gründeten 77 Personen aus 11 Ländern ein Jahr später die Cochrane Collaboration. Die Cochrane Collaboration ist seitdem stetig angewachsen. Sie ist ein internationaler Verbund, der frei ist von finanziellen Interessen. Ihr erklärtes Ziel ist das Erstellen, Aktualisieren und Verbreiten von systematischen Übersichtsarbeiten zu Fragen der Gesundheitsversorgung.

Organisationsstruktur

Prinzipiell hat die Cochrane Collaboration eine sehr offene und demokratisch organisierte Struktur, die aber auf Unabhängigkeit nach außen (speziell zur Pharmaindustrie) sehr bedacht ist. Die organisatorische Gliederung ist auf wenige Einheiten beschränkt [Tab. 9]. Unter der Führung einer gewählten Steering Group sind vor allem die Review Groups und die Cochrane Centres das Herzstück der Organisation [21].

Die momentan etwa 50 Review Groups koordinieren die Erstellung von systematischen Reviews zu definierten Krankheitsbildern oder Organsystemen. Ähnlich einer wissenschaftlichen Zeitschrift gibt es jeweils einen Leiter der Review Group mit einem kleinen Stab von Experten, dazu eine Gruppe von Editoren, die die Cochrane Reviews prüfen, und schließlich die Reviewer selbst, die zu einer einzelnen wissenschaftlichen Fragestellung eine systematische Übersicht erstellen. Während der Kern der Review Group, die so genannte Editorial Base, meist an einem einzigen Ort lokalisiert ist, können die Reviewer aus allen Teilen der Welt stammen und sogar international kooperieren. Hierbei werden fast ausschließlich elektronische Kommunikationswege benutzt.

Die Cochrane Centres bündeln und koordinieren die auf nationaler Ebene verfügbare Unterstützung. Oft betreuen sie nicht nur ein Land, sondern zusätzlich einige weitere Länder, die noch über keine solche Struktur verfügen. Ein weiterer Tätigkeitsbereich ist das Durchsuchen nicht erfasster Zeitschriften per Hand nach kontrollierten klinischen Studien (Handsuche) [22].

Das Cochrane Review

Als ersten Schritt zu einem Cochrane Review läßt der Autor seine Fragestellung durch die zuständige Review Group registrieren. Hierdurch wird verhindert, dass ein zweiter Autor zur selben Thematik ein Review beginnt. Danach wird ein Protokoll des Reviews erstellt, das von meist zwei Experten geprüft wird. Durch dieses Festlegen der Methodik noch vor Beginn des eigentlichen Reviews soll verhindert werden, dass die Methodik später rückwirkend modifiziert wird, um vielleicht die Ergebnisse in eine bestimmte Richtung zu verfälschen [Abb. 13].

Um die sichere Handhabung der statistischen Meta-Analyse zu gewährleisten, hat ein spezielles Team innerhalb der Cochrane Collaboration eine Computersoftware entwickelt. Das Programm „Review-Manager", kurz „RevMan" genannt, ist im Internet frei verfügbar [Abb. 14]. In dem Programm stehen mehrere statistische Maßzahlen und Modelle sowie Grafiken, z.B. der Funnel Plot, zur Verfügung. Zu dem Programm existiert ein Handbuch, das als Leitfaden zur Erstellung einer Meta-Analyse sehr empfohlen werden kann.

Sobald das Review dann fertig gestellt ist, wird es abermals durch die Gutachter der Review Group geprüft und in die Cochrane Library eingebunden. Obwohl das Review nun fertig ist, haben die Autoren die Aufgabe, die Literatur zu ihrem Thema kontinuierlich auf neue Studien durchzusehen. Auch werden die Kommentare der Leser gesammelt. Sobald dann entscheidende neue Daten verfügbar sind, ergibt sich die Notwendigkeit, das Review zu aktualisieren [Abb. 13]. Aktualisierte Reviews werden in der Cochrane Library speziell markiert. Bei nicht-aktualisierten Reviews wird angegeben, ob zumindest die neuere Literatur geprüft wurde, oder ob das Review tatsächlich veraltet ist.

Aufgrund ihrer strengen Methodik gelten Cochrane Reviews als besonders hochwertige Meta-Analysen [23]. [Tab. 10]

Die Cochrane Library

Die Cochrane Library, meist mit „CLib" abgekürzt [Abb. 15], enthält primär die Cochrane Reviews und Review Protokolle, wie bereits oben beschrieben. Daneben gibt es eine zweite wichtige Datenbank, die über 350.000 Referenzen zu kontrollierten klinischen Studien enthält. Der Vorteil dieses Studienregisters ist, dass hier nur die für den Kliniker relevanten Studien verfügbar sind, dies aber in höchster Vollständigkeit. So enthält das Controlled Clinical Trials Register keine tierexperimentellen oder Laborstudien, keine Editorials, Fallserien oder -berichte. Dafür sind die über die Handsuche gefundenen kontrollierten Studien hier vorhanden, so dass diese Datenbank eine wichtige Quelle für eine Meta-Analyse ist.

Interessant ist es auch, zu bestimmten Fragestellungen die systematischen Reviews außerhalb der Cochrane Collaboration durchzusehen. Diese sind in der Database of Abstracts of Reviews of Effectiveness, kurz „DARE", indexiert. Mehr als die Hälfte aller hier enthaltenen 3.800 Zitate haben eine Qualitätsbewertung durchlaufen und sind als strukturierte Abstracts in dieser Datenbank aufgenommen.

Um zumindest die Existenz von zwar durchgeführten, aber nie publizierten randomisierten Studien zu dokumentieren, existiert mit dem Medical Editors' Trials Amnesty eine kleine aber interessante Datenbank. Hier kann jeder, der von einer solchen nicht-publizierten Studie weiß, wenigstens ihre zentralen Punkte sowie eine Kontaktadresse nennen.

Da die Cochrane Library auch als Orientierungshilfe innerhalb der Cochrane Collaboration dienen soll, sind schließlich das Cochrane Handbook und alle Adressen und Themenschwerpunkte der Cochrane Centres und Review Groups aufgelistet. Abschließend verfügt die Cochrane Library über ein Register von Artikeln zur Methodik der Meta-Analyse, und zu Fragen der Gesundheitsökonomie und medizinischen Technologiebewertung.

Weiterführende Literatur zur Meta-Analyse

Egger M, Davey Smith G, Altman D: Systematic reviews in health care (2nd Edition). BMJ Bookshop, London, 2001 [Preis: 50 £]

Sutton AJ, Abrams KR, Jones Dr, Sheldon TA, Song F: Systematic reviews of trials and other studies, Health Technol Assess 1998; 2(19): 1-320 [als PDF-Datei zum Download frei verfügbar unter: www.hta.nhsweb.nhs.uk]

Lauterbach KW, Schrappe M: Gesundheitsökonomie, Qualitätsmangement und Evidence-based Medicine. Schattauer-Verlag, Stuttgart [Preis: 76,95 €]


Literatur

1.
Barnes DE, Bero LA: Why review articles on the health effects of passive smoking reach different conclusions. JAMA 1998; 279: 1566-70.
2.
Chalmers TC, Frank CS, Reitman D. Minimizing the three stages of publication bias. JAMA 1990; 263: 1392-5.
3.
Egger M, Zellweger-Zahner T, Schneider M, Junker C, Lengeler C, Antes G. Language bias in randomised controlled trials published in English and German. Lancet 1997; 350: 326-9.
4.
Dickersin K, Min YI, Meinert CL. Factors influencing publication of research results. Follow-up of applications submitted to two institutional review boards. JAMA 1992; 267: 374-8.
5.
Jüni P, Witschi A, Bloch R, Egger M. The hazards of scoring the quality of clinical trials for meta-analysis. JAMA 1999; 282: 1054-1060.
6.
Schulz KF, Chalmers I, Hayes RJ, Altman DG. Empirical evidence of bias. Dimensions of methodological quality associated with estimates of treatment effects in controlled trials. JAMA 1995; 273: 408-412.
7.
Detsky AS, Naylor CD, O'Rourke K, McGeer AJ, L'Abbe KA. Incorporating variations in the quality of individual randomized trials into meta-analysis. J Clin Epidemiol 1992;45-3:255-65.
8.
Higgins JPT, Thompson SG, Deeks JJ, Altman DG. Measuring inconsistency in meta-analyses. BMJ 2003; 327: 557-60.
9.
Thompson SG. Why sources of heterogeneity in meta-analysis should be investigated. BMJ 1994; 309: 1351-5
10.
DerSimonian R, Laird N. Meta-analysis in clinical trials. Control Clin Trials 1986; 7: 177-88
11.
Gøtzsche PC, Olsen O. Is screening for breast cancer with mammography justifiable? Lancet 2000; 355: 129-34.
12.
Egger M, Davey Smith G, Schneider M, Minder C. Bias in meta-analysis detected by a simple, graphical test. BMJ 1997; 315: 629-34
13.
Lijmer JG, Mol BW, Heisterkamp S, Bonsel GJ, Prins MH, van der Meulen JHP, Bossuyt PMM. Empirial evidence of design-related bias in studies of diagnostic tests. JAMA 1999; 282: 1061-6.
14.
Walter SD, Irwig L, Glasziou PP. Meta-analysis of diagnostic tests with imperfect reference standards. J Clin Epidemiol 1999; 52: 943-51.
15.
Stengel D, Bauwens K, Sehouli J, Ekkernkamp A, Porzsolt F. A likelihood ratio approach to meta-analysis of diagnostic studies. J Med Screen 2003; 10: 47-51.
16.
Moses LE, Shapiro D, Littenberg B. Combining independent studies of a diagnostic test into a summary ROC curve: data-anlaytic approaches and some additional considerations. Stat Med 1993; 12: 1292-316.
17.
Antes G, Bassler D, Galandi D: Systematische Übersichtsarbeiten. Ihre Rolle in einer evidenz-basierten Gesundheitsversorgung. Deutsches Ärzteblatt 1999; 96(10):A-616-A-622.
18.
Cochrane AL: Effectiveness and efficiency: random reflections on health services. London: Nuffield Provincial Hospitals Trust, 1972.
19.
Chalmers I, Enkin M, Keirse MJNC: Effective care in pregnancy and childbirth. Oxford: Oxford University Press, 1989.
20.
Ault A: Climbing a medical Everest. Science 2003; 300: 2024-5.
21.
Bero L, Rennie D. The Cochrane Collaboration. Preparing, maintaining, and disseminating systematic reviews of the effects of health care. JAMA 1995; 274: 1935-8.
22.
McDonald S, Lefebvre C, Antes G, et al. The contribution of handsearching European general health care journals to the Cochrane Controlled Trials Register. Eval Health Prof 2002; 25: 65-75.
23.
Jadad AR, Cook DJ, Jones A, Klassen TP, Tugwell P, Moher M, Moher D. Methodology and reports of systematic reviews and meta-analyses: a comparison of Cochrane reviews with articles published in paper-based journals. JAMA 1998; 280: 278-80