gms | German Medical Science

GMS Medizinische Informatik, Biometrie und Epidemiologie

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e.V. (GMDS)

ISSN 1860-9171

Zum Wandel der Informationstechnologie in der Medizinischen Biometrie und Statistik

On the change of information technology in the field of Medical Biometry and Statistics

Rückblick und Ausblick

Search Medline for

  • corresponding author Reinhard Roßner - Institut für Medizinische Biometrie und Medizinische Informatik, Universitätsklinikum Freiburg, Freiburg, Deutschland

GMS Med Inform Biom Epidemiol 2005;1(2):Doc11

The electronic version of this article is the complete one and can be found online at: http://www.egms.de/en/journals/mibe/2005-1/mibe000011.shtml

Published: June 20, 2005

© 2005 Roßner.
This is an Open Access article distributed under the terms of the Creative Commons Attribution License (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.en). You are free: to Share – to copy, distribute and transmit the work, provided the original author and source are credited.


Zusammenfassung

In dem vorliegenden Beitrag wird eine Übersicht der Anwendung der Informationstechnologie (IT) in der Medizinischen Biometrie und Statistik am Beispiel der Abteilung in Freiburg gegeben. Ein knapper historischer Abriss der von IT betroffenen Anwendungsgebiete und der dafür verwendeten installierten technischen Systeme soll das Gerüst bilden um die strukturellen Veränderungen bei der Nutzung der IT in einer sich ebenfalls wandelnden Abteilung Medizinische Biometrie und Statistik zu skizzieren.

Schlüsselwörter: Informationstechnologie, elektronische Datenverarbeitung, medizinische Statistik, statistische Software, historische Entwicklung

Abstract

An overview on the applications of information technology (IT) in Medical Biometry and Statistics is given using the developments at the Department of Medical Biometry and Statistics in Freiburg for illustration. A description of the fields of applications and of the technical equipment shall provide the basis for pointing out structural changes in the use of IT and in the discipline itself over the last forty years.

Keywords: information technology, electronic data processing, medical statistics, statistical software, historical development


Einleitung

Der vorliegende Artikel ist die schriftliche Form eines Vortrags zur Festveranstaltung "40 Jahre Medizinische Biometrie und Statistik in Freiburg" mit dem Titel "Zum Wandel der Informationstechnologie in der Medizinischen Biometrie und Statistik" am 12. März 2004. An ausgewählten Punkten sollte gezeigt werden, welche enorme Zunahme an Leistungsfähigkeit und Komplexität in der Informationstechnologie (IT) in diesen 40 Jahren stattgefunden hat. Der Schwerpunkt liegt dabei auf den frühen Jahren, weil die Gegenwart und die jüngere Vergangenheit als weitgehend bekannt angenommen werden kann.

Neben dem technischen Wandel gibt es aber auch Prinzipien, die beim Einsatz der IT in der Medizinischen Biometrie in Freiburg immer angewendet wurden, auch wenn manche erst im Laufe der Zeit explizit formuliert wurden. Da wichtige Aufgaben in der Medizinischen Biometrie immer nur mit Einsatz der IT bewältigt werden konnten, war es in Freiburg das Ziel, den IT-Einsatz im Rahmen geordneter Konzepte und Strukturen durchzuführen. Dazu gehören vor allem folgende Punkte:

• Die Verantwortung für die Planung, Installation und die Betreung der IT-Einrichtungen lag bei speziell dafür abgestelltem IT-Personal. Alle nicht mit IT befassten Mitarbeiterinnen und Mitarbeiter sollen weitestgehend von IT-technischen Problemen zugunsten ihrer fachlichen Arbeit entlastet werden.

• Im Rahmen der gegebenen personellen und finanziellen Möglichkeiten wurde immer versucht möglichst zeitnah der technischen Entwicklung zu folgen. Unter sorgfältiger Abschätzung des Risikos, sich Probleme mit unausgereiften Produkten einzuhandeln, gelang es eine hohe Effizienz des über die Jahre zu erreichen.

• IT-Strukturen, die die Bedürfnisse der Arbeit im Fach Biometrie erfüllen, sind am besten zu erreichen, wenn Personen mit biometrischen Fachkenntnissen von Anfang an und mit wesentlichem Einfluss die IT-Entscheidungen mitgestalten.


Historischer Rückblick

Die Gründungszeit ab 1963: "Konventionelle Lochkartenanlage"

Mit dem Wintersemester 1963/64 begann die Amtszeit von Professor Edward Walter als Leiter des Instituts für Medizinische Statistik und Dokumentation. Er legte einen Plan für den Aufbau des Instituts [7], [6] vor, bei dem besonders der Punkt „Größere Auswertungsarbeiten durchführen" den Einsatz von IT-Technik zwingend erforderlich machte. Edward Walter hatte in seiner Berufungsverhandlung erreicht, dass ihm Mittel für eine Ausstattung nach dem damaligen Stand der Technik zur Verfügung standen. Der Datenträger der damaligen Zeit war die Lochkarte, ein genormtes Stück Karton, in dem ein Datensatz von maximal 80 Zeichen eingestanzt werden konnte. So wurde eine sog. „konventionelle Lochkartenanlage" angemietet, wie sie im Prinzip seit Jahrzehnten in Gebrauch waren. Zur Datenerfassung nutzte man Maschinenlocher (Abbildung 1 [Abb. 1]), die Eingaben wurden mit Prüflochern überprüft, so dass ein korrekter Datensatz in Form eines Lochkartenstapels entstand. Zur Weiterverarbeitung standen die Geräte Tabelliermaschine (Abbildung 2 [Abb. 2]), Sortiermaschine (Abbildung 3 [Abb. 3]), Mischer und Doppler zur Verfügung.

Das Hauptgerät war die Tabelliermaschine. Sie war auf einer Schalttafel mittels Steckverbindungen und elektrischen Steckelementen programmierbar, es gab eine Leseeinrichtung für die Lochkarten mit Eingabe- und Ablagefach. Ergebnisse wurden mit dem Druckwerk auf Endlospapier ausgedruckt. Ein typischer, standardisierter Arbeitsgang ohne besonderen Programmieraufwand auf der Schalttafel zur Berechnung von statistischen Kenngrößen verlief etwa wie folgt: Die Maschine druckte die kumulativen Größen wie Anzahl, Summe, Quadratsumme usw. auf Papier aus. Wenn der Kartenstapel nach einen Gruppenmerkmal sortiert war, konnte man diese Zwischenresultate für jede Untergruppe erhalten. Die Endberechnung wurde meist per Hand, bzw. Handkurbel- oder elektrischer Tischrechenmaschine durchgeführt. Zur Berechnung einer anderen Gruppeneinteilung wurde der Kartenstapel auf der Sortiermaschine nach diesem anderen Gruppenmerkmal umsortiert und erneut mit der Tabelliermaschine bearbeitet. Gab es mehrere Kartenarten zu einer Beobachtungseinheit, konnten die getrennt erfassten Kartenarten mit dem Mischer zusammensortiert werden. Die große mechanische Beanspruchung der Lochkarten führte nicht selten zu Beschädigungen der Kartenstapel, deshalb war es immer ratsam einen mit dem Kartendoppler erstelltes zweites Exemplar des Kartenstapels in Reserve zu haben.

Nutzung der Rechenanlagen der Universität

Selbst einfache routinemäßige Auswertungen bedeuteten mit der „konventionellen Lochkartenanlage" einen beträchtlichen Aufwand. So wurde sehr bald begonnen die elektronischen Rechenanlagen der Universität mit zu nutzen. Es gab damals 1965 zwei Anlagen: Im Mathematischen Institut (Hebelstraße) eine Siemens 2002 und im Physikalischen Institut eine IBM 7040. Beide hatten Lochkarten Ein-/Ausgabegeräte, die Siemens 2002 musste von eigenem Personal bedient werden (open-shop), während für die IBM 7040 bereits ein Operatorteam arbeitete, dem man die eigenen Jobs in Form von Kartenstapeln an einem Schalter übergab (closed-shop).

Die Nutzung dieser Systeme für statistische Auswertungen setzte geeignete Programme voraus. Diese mussten zur damaligen Zeit selbst entworfen und für die jeweilige Anlage codiert werden. Edward Walter hatte bereits in Göttingen auf einer IBM 650 gearbeitet und dort ein Programmkonzept für die gängigsten statistischen Standardverfahren entwickelt. Dieses Konzept ließ er nun für die vorhandenen Anlagen umsetzen. In den Folgejahren wurden laufend Erweiterungen hinzugefügt. Auf der Siemens-Anlage stand ein Algol- und auf der IBM ein Fortran-Compiler zur Verfügung. Die Ergebnisse der Compilierung waren bei den mäßigen Ausstattungen der damaligen Anlagen oft für Datensätze realistischer Größe nicht effizient genug, so dass es üblich war, das vom Compiler erzeugte Programm an den kritischen Stellen durch Teile in Maschinencode zu verbessern.

Täglich einmal wurden die Lochkartenstapel im PKW vom Institut beim Rathaus in der Freiburger Innenstadt ins Institutsviertel gebracht und die Ausdrucke der inzwischen verarbeiteten Jobs abgeholt.

Der Umzug des Instituts in die Stefan-Meier-Straße zum Jahresende 1968 brachte allein durch die Verkürzung der Wege eine Erleichterung. Da aber die vorhandenen Rechenanlagen von allen interessierten Einrichtungen der Universität konkurrierend genutzt wurden, gab es einen ständigen Mangel an Rechenkapazität. Eine Lösung war die Anmietung einer eigenen Rechenanlage als Ablösung der „konventionellen Lochkartenanlage".

Die erste institutseigene EDV-Anlage

Anlässlich des Umzugs in die Stefan-Meier-Straße wurde die Anmietung der Kernbestandteile der „konventionellen Lochkartenanlage" nicht mehr verlängert. Tabelliermaschine und Doppler wurden in den neuen Institutsräumen nicht mehr aufgestellt. Im Jahr 1965 hatte IBM das System 1130 auf den Markt gebracht. Ein solches System wurde im Jahr 1969 angemietet. Die Zentraleinheit (Abbildung 4 [Abb. 4]) war ein schreibtischähnliches Gebilde mit einer Kugelkopfschreibmaschine als Konsolgerät. Der Arbeitsspeicher war ein Ferritkernspeicher von anfangs 16 kByte, er wurde später auf die Maximalgröße von 32 kByte ausgebaut. Im rechten Unterschrank war ein Wechselplattenlaufwerk untergebracht. Der Datenträger war eine Wechselplattenkassette mit der Kapazität von 1 Mbyte. Immerhin konnten System- und andere Programme darauf gehalten werden, für Datenspeicherung war die Kapazität schlichtweg zu gering. Die Lochkarte war weiterhin das einzige Erfassungs- und Speichermedium für die Daten. Zur Minimalausstattung des System 1130 gehörte deshalb der Lesestanzer 1442 (Abbildung 5 [Abb. 5]), ein Lochkartenleser mit einer in der Kartenführung nach der Leseeinheit positionierten Stanzeinrichtung und der Drucker 1132 (Abbildung 6 [Abb. 6]), eigentlich eine umgebaute Tabelliermaschine. In wenigen Monaten wurden die eigen entwickelten Programme auf dieses System portiert, und da es rund um die Uhr zur Verfügung stand, konnte es den Rechenbedarf des Instituts nahezu komplett abdecken.

Die Zeit der Großrechner

Im Jahr 1972 wurde der Neubau des Universitätsrechenzentrums in der Hermann-Herder-Straße eingeweiht. Damit begann die dominierende Rolle der Großrechner der 1100er Serie von Sperry-UNIVAC für fast zwei Jahrzehnte an der Universität Freiburg. An diesen Systemen wurde erstmalig Plattenspeicherkapazität für die Nutzer zur Verfügung gestellt. Das bedeutete eine einschneidende Wandlung im Umgang mit den Datenbeständen: Die Lochkarte wurde nur noch als Erfassungsmedium benutzt, die aktuelle Datenhaltung und -pflege geschah auf der Platte, die Archivierung auf Magnetband. Die großen Regale mit den Lochkartenbeständen verloren in kurzer Zeit ihre Bedeutung.

Wegen dieser technischen Vorteile wurde sogleich begonnen, die am Institut entwickelte Programmbibliothek auf die Systeme Sperry-UNIVAC zu übertragen. Dort standen leistungsfähige Compiler, vor allem Fortran, zur Verfügung. Eine Nachbesserung des vom Compiler erzeugten Codes war bei der Leitungsfähigkeit der Rechner nicht mehr angezeigt.

Mitte der 70er Jahre erschienen auch die ersten statistischen Programmpakete auf dem Markt, insbesonders BMD (das spätere BMDP) und SPSS standen zur Verfügung. SAS lief nicht auf der vorhandenen Plattform und war deshalb auch erst mehr als ein Jahrzehnt später in Freiburg nutzbar.

Die großen Vorteile, die die aufwändigen Systeme im Universitätsrechenzentrum mit sich brachten, legten die Ablösung des eigenen Systems nahe. Deshalb wurde dieses 1975 durch eine Remote-Batch-Station „Dietz 621 RJE" ersetzt. So hatte man Karteneingabe und Druckausgabe für die Jobs des Rechenzentrumsrechners im Hause. Die Bildschirmkonsole bot mit den beiden 2,4 MByte Plattenlaufwerken erstmalig für eine Person die interaktive Editiermöglichkeit der abzusendenden Jobs.

Vom Dialogterminal zum Personal Computer

Mit zunehmender Leistungsfähigkeit des Rechenzentrumsrechners wurde neben der Stapelverarbeitung (Batchbetrieb) Zug um Zug auch der Dialogbetrieb zugelassen. Ende der 70er gab es im Universitätsrechenzentrum den ersten Raum mit vier öffentlich zugänglichen Bildschirmterminals. Der Andrang war so groß, dass die Benutzungsdauer auf 15 Minuten begrenzt wurde. Aber schnell wurde das Angebot erweitert: Zum einen in den Räumen des Rechenzentrums, zum andern wurde das erste Datennetz in der Universität installiert, welches die Möglichkeit zum Betrieb von Dialogterminals in den Universitätseinrichtungen bot. Im Institut standen ab 1982 im Computerraum neben dem kartenorientierten Batchterminal bis zu zehn Bildschirmgeräte zur interaktiven Arbeit am Großrechner zur Verfügung.

Zu Beginn der 80er Jahre erschienen auch die ersten Personal Computer (PC). Nach einer eher spielerisch geprägten Einführungsphase mit diesen Systemen etablierten sich zwei wichtige Anwendungsgebiete: Zum einen wurde die Datenerfassung am PC vorgenommen, die erfassten Daten wurden auf Diskette gespeichert. Dies bedeutete nach kurzer Zeit das Ende des Mediums Lochkarte im Institut. Zum andern begann im Sekretariat die Ablösung der Schreibmaschine durch den PC. In diesen beiden aufgeführten Arbeitsbereichen geschah es nun erstmalig, dass Personen mit Computern arbeiteten, die sich mit der Computertechnik nicht beschäftigen, sondern nur schlicht ihre Arbeit machen wollten. Die Arbeit am Computer musste besonders aufbereitet und die Personen ausreichend geschult werden. Der Begriff „Benutzerfreundlichkeit" war in die IT-Szene eingetreten. Seine Bedeutung ist bis heute ständig gewachsen.

Das Jahr 1984 wurde überschattet vom plötzlichen Tod des Institutsleiters Edward Walter. Bis zum Amtsantritt des Nachfolgers erfolgten auch im IT-Bereich keine einschneidenden Neuerungen.

Neuordnung des Instituts

Im Jahr 1986, dem Jahr des Amtsantritts von Professor Martin Schumacher als Leiter des Instituts, wurde die seit Jahren auf dem Papier stehende Aufteilung des Instituts in die beiden Abteilungen „Medizinische Biometrie und Statistik" und „Medizinische Informatik" auch faktisch vollzogen. So beziehen sich alle folgenden Aussagen auf die Abteilung Medizinische Biometrie und Statistik. Martin Schumacher führte von Beginn an das Prinzip ein, dass ein zentraler IT-Service sämtlichen Mitarbeitern die benötigte IT-Technik zur Verfügung stellt um sie von sachfremder Arbeit zu entlasten.

Noch 1986 wurde die erste flächendeckende Vernetzung der Arbeitsräume installiert. Die Arbeit am Computer verlagerte sich aus dem zentralen Computerraum an die Arbeitsplätze. Zeitgleich wurde in der Abteilung das erste Rechnersystem unter Unix beschafft. Das System Motorola 8400 bot eine Alternative für die inzwischen als schwerfällig empfundene Arbeit an den zentralen Universitätsgroßrechnern.

Im gleichen Jahr wurde die biometrische Betreuung einschließlich des Datenmanagements mehrerer multizentrischer klinischer Studien von Heidelberg nach Freiburg transferiert. Die gesamte Software für diese in der Durchführungsphase stehenden Studien einschließlich des gewählten Datenmodells [3] war in SAS implementiert worden. SAS stand aber auf den zu dieser Zeit in Freiburg vorhandenen Rechnersystemen nicht zur Verfügung. Deshalb musste für SAS weiterhin auf das Universitätsrechenzentrum Heidelberg zurückgegriffen werden. Beim damaligen Stand der Technik war es ein unkonventionelles Unterfangen mit einer wenig leistungsfähigen, in Heidelberg kaum unterstützten Datex-P Verbindung und einem für diese Art der Verbindung nicht ausgerichteten IBM-System dort die komplexen Arbeitsgänge des Datenmanagements für klinische Studien durchzuführen. Durch die hohe Flexibilität des eben beschafften Unixsystems konnte diese Arbeit unter den gegebenen Umständen erfolgreich zwei Jahre lang durchgeführt werden - ein Nutzen, der allein die Beschaffung des Unixsystems gerechtfertigt hätte. 1988 wurde im Freiburger Rechenzentrum ein System IBM 3090 installiert, SAS konnte nun vor Ort genutzt werden.

Die mit IT-Unterstützung durchzuführenden Aufgaben in der Abteilung hatten in dieser Zeit massiv zugenommen. An der Spitze stand die eben erwähnte biometrische Betreuung Klinischer Studien, welche Planung, Durchführung mit Datenmanagement und Auswertung umfasst. Dieser organisatorisch und technisch aufwändige Bereich führte bald zur Einrichtung einer speziellen Arbeitsgruppe, dem „Methodischen Zentrum" [5]. Ferner wurde das Erstellen von Publikationen und Berichten einschließlich der grafischen Aufbereitung nur noch rechnergestützt durchgeführt. In der statistischen Auswertung war durch gestiegene Leistungsfähigkeit der Systeme der Einsatz komplexerer Algorithmen (nicht lineare Verfahren, Analyse von Überlebenszeiten, Resamplingmethoden) nun routinemäßig möglich. In der Methodenentwicklung verbreitete sich der Einsatz von Simulationstechniken. Eine einzige Aufgabe aus dem IT-Bereich fiel weg: Die Eigenprogrammierung von statistischen Standardverfahren wurde endgültig eingestellt. Die in Laufe der Jahre gewachsene Sammlung von routinemäßig genutzten Verfahren (univariate Statistiken, lineare Regression, Häufigkeitsanalysen in mehrdimensionalen Kontingenztafeln, Varianzanalysen, allgemeines lineares Modell) wurden außer Betrieb genommen. Die kommerziell angebotenen Statistikpakete deckten vom Umfang her das Methodenspektrum zufrieden stellend ab und waren den Eigenkonstrukten vor allem von der Handhabung her weit überlegen.

Vernetzte, leistungsfähige Rechner in der Abteilung

Im Dezember 1989 wurde die erste Unix-Workstation von Sun-Microsystems, basierend auf der damals neuen SPARC-Technologie, beschafft. Unix bot zu dieser Zeit bereits durch eine standardisierte Vernetzung die Möglichkeit die Verwaltung der Rechner zentral für alle Arbeitsplätze durchzuführen. Zentrale Systeminstallation, Systempflege, Programm- und Datenhaltung brachten eine wesentliche Arbeitsersparnis, ergaben ein stabiles Gesamtsystem und boten hohe Flexibilität beim Ausbau. Da die Preise für diese kleinen Unix-Workstations erschwinglich geworden waren, wurden bis 1992/93 diese Systeme flächendeckend an den Arbeitsplätzen der Abteilung eingesetzt [2], ein Modell, das unter der Bezeichnung „Wissenschaftler Arbeitsplatz" (WAP) bekannt wurde. Damit stand in der Abteilung eine weitaus größere Rechen- und Speicherkapazität zur Verfügung als der Großrechner im Rechenzentrum bieten konnte. Als dann SAS unter Unix auf den Markt kam, bedeutete dies das Ende der Großrechnernutzung in der Abteilung. Die anfangs untereinander relativ gleichwertigen Workstations differenzierten sich durch Nachkauf immer leistungsfähigerer Systeme. Diese übernahmen dann, neben dem Einsatz am Arbeitsplatz, Server-Aufgaben während die „älteren" Rechner als reine Arbeitsplatzsysteme eingesetzt wurden. So entstand in kurzer Zeit eine Client-Server-Architektur.

Bis Mitte der 90er Jahre hatten sich die Windows-Betriebssystemvarianten der Firma Microsoft soweit verbreitet, dass deren proprietäre Programme, besonders aus dem Office-Bereich, zum weltweiten defacto-Standard wurden. Der Ruf nach Kompatibilität mit Kooperationspartnern außerhalb wurde immer stärker. Aus diesem Grund wurde bereits 1995 der erste Windows-basierte Terminal-Server mit Technik der Firma Citrix installiert, ein System auf dem mit Windows Programmen von anderen Plattformen aus gearbeitet werden konnten. Diese Technik wird auf mehren, moderneren Nachfolgesystemen bis heute genutzt.

Etwa gleichzeitig wurden von der Verwaltung des Universitätsklinikums immer mehr administrative Verfahren auf neue Versionen mit IT-Unterstützung umgestellt. Die konsequente Folge war, die Arbeitsplätze, die mit administrativen Aufgaben befasst waren, mit dem IT-Konzept der Verwaltung des Universitätsklinikums kompatibel zu machen. Es wurden 1996 für die Sekretariate Windows-PCs beschafft und ins Intranet des Universitätsklinikums integriert. Heute gibt es fast keinen administrativen Vorgang mehr, der ohne Nutzung der IT durchgeführt werden kann.


Aktuelle Entwicklungen

In allen Arbeitsfeldern nimmt die IT-Unterstützung sowohl quantitativ als qualitativ zu. Das Datenmanagement multizentrischer klinischer Studien musste gemäß internationaler Qualitätsstandards [5] auf eine neue Basis gestellt werden. Hinzu kommt die technische und organisatorische Herausforderung der Datenerfassung für klinische Studien über das Internet (Remote Data Entry). In der statistischen Forschung kann man auf immer computerintensivere Methoden zurückgreifen. Als Beispiel seien die Resampling Verfahren, davon besonders die Bootstrap Methoden, erwähnt. Einen Überblick über die Vielfalt der aktuellen Forschungsthemen und der derzeitigen Infrastruktur liefert die Übersicht über Freiburger Beiträge zur Biometrie und Klinischen Epidemiologie [1].

Heute ist es selbstverständlich Informationen aus medizinischen Datensammlungen und Literaturdatenbanken am Bildschirm auf dem Schreitisch zu nutzen. Andererseits ist es auch Aufgabe der Abteilung eigene Angebote an Information und Kommunikation in Internet und Intranet bereitzustellen. In Arbeitsbereichen mit intensiver Vortrags- und Reisetätigkeit ist ein vermehrter Einsatz von mobilen, Windows-basierten Systemen erforderlich.

Seit 2000 wird die Ausstattung der Arbeitsplätze auf „Thin-Clients" umgestellt. Diese bieten den Vorteil der der Minimierung des Aufwands der IT-Administration für den einzelnen Arbeitsplatz. Im Jahr 2001 wurde die gesamte Computerausstattung des Methodischen Zentrums in das Intranet des Universitätsklinikums integriert. Derzeit ist der Übergang von Solaris nach Linux als Basisbetriebssystem im Gange.

Zum Schluss soll das arbeitszeitfressende Dauerthema „Computersicherheit" nicht vergessen werden. Selbstverständlich müssen die gesetzlichen Rahmenbedingungen des Datenschutzes für personenbezogene Daten in klinischen Studien erfüllt werden. Daneben müssen unberechtigte Zugriffe, sei es über das Netz oder physisch, auf Rechnersysteme und Datenträger mit möglichst hohen Hürden versehen werden. Schützenswert sind neben der technischen Funktionsfähigkeit der Systeme vor allem Daten aus laufenden Forschungsprojekten. Ohne einen Mehraufwand in der täglichen Arbeit für Authentifizierungen und ohne Investitionen für geeignete Rechner- und Lagerräume ist ein angemessenes Maß an Sicherheit nicht zu haben. Diese Maßnahmen erfordern eine mit Augenmaß verfolgte Gratwanderung zwischen einem die Arbeit blockierenden übertriebenen Sicherheitsdenken und einer nicht zu verantwortenden Angreifbarkeit der gesamten IT-Ausstattung.

Komplexitätszuwachs in der IT: Wandel der Systemstrukturen

In den frühen Jahren war ein Wechsel in der Systemlandschaft, d.h. Wechsel der Rechnersysteme, der Plattformen und der Anwendungen im Allgemeinen kein Problem. Die Systeme waren nicht miteinander verbunden und es konnten keine unerwarteten Wechselwirkungen beim Übergang von einer Komponente auf die nachfolgende auftreten. Das alte Verfahren konnte überlappend weiter benutzt werden und das neue konnte in Ruhe eingeführt und ausgetestet werden. Heute besteht zwischen allen Systemkomponenten ein dicht verwobenes Netz von Abhängigkeiten. Nachfolgendes Beispiel soll das verdeutlichen: Zur reibungslosen Funktion eines gängigen Arbeitsplatzsystems ist die Verfügbarkeit mindestens folgender Komponenten Voraussetzung:

- Daten-Netz mit aktiven und passiven Komponenten

- Name Services

- File Service

- Application Services

- Mail Service

- Web-Server und ggf. Content Management Systeme (CMS)

- Datensicherungs-Service

und evtl. andere mehr.

Bei dieser Komplexität ist es einsichtig, dass Änderungen, Fortschreibungen oder Störungen in einer Komponente mit Auswirkungen auf das Gesamtsystem gerechnet werden muss. Somit besteht bei der Planung von IT-Installationen ein grundsätzlicher Zielkonflikt. Zum einen wird von den Nutzern eine möglichst umfassende Funktionalität gefordert. Das bedeutet, dass eine große Zahl von Anwendungen und Services problemlos zur Verfügung stehen soll. Alle diese sollen getestet und betreut werden und immer in der neuesten optimalen Version vorhanden sein. Demgegenüber müssen die IT-Verantwortlichen darauf sehen, dass die Gesamtinstallation beherrschbar bleibt. Eigenschaften wie Stabilität, Verfügbarkeit, Skalierbarkeit, Erneuerungsfähigkeit und Sicherheit sind unverzichtbar. Im Alltag werden die eben aufgezählten Eigenschaften bei der täglichen Arbeit nach außen nicht sichtbar. Ein störungsfreier Betrieb wird in der Regel als selbstverständlich erwartet, nur bei auftretenden Problemen wird die Wichtigkeit einer guten Systemstruktur deutlich. Deshalb ist das Ziel, einen vernünftigen Kompromiss zwischen einer vielfältigen Funktionalität einerseits und steuerbaren, möglichst schlanken IT-Strukturen andererseits zu finden.

Komplexitätszuwachs in der Abteilung: zentrale oder dezentrale IT-Administration

Auch in der Struktur der Abteilung haben sich deutliche Änderungen vollzogen. Bezeichnend für die Gründungsjahre unter Edward Walter war die tägliche Kaffee- /Teerunde in seinem Büro. Die gesamte Belegschaft passte an den Besprechungstisch. Alle das Institut betreffenden Vorgänge, Projekte und Probleme wurden in dieser Runde angesprochen. Speziell für die IT-Verantwortlichen bedeutete das, dass ihnen umfassende Information über Probleme, Wünsche und Akzeptanz, täglich aktuell zur Verfügung stand. Im Prinzip ist das bis zum Beginn der 90er-Jahre so geblieben. Mit der Vergrößerung der Abteilung entstand auch eine Differenzierung der Aufgaben in mehrere Arbeitsgruppen, die in der täglichen Arbeit völlig unabhängig voneinander sind. Für die IT-Betreuung bedeutet dies, dass die relevanten Informationen über die Bedürfnisse der einzelnen Arbeitsgruppen nicht mehr automatisch greifbar sind. Dieser Informationsmangel stellt ein Risiko dar, denn aus einem mangelhaften Informationsstand folgt früher oder später eine mangelhafte IT-Versorgung.

Im Prinzip gibt es zwei Wege diesen Informationsfluss in der Abteilung sicherzustellen. Als erstes die zentrale Lösung. Vor allem in den USA haben Firmen den Posten des „Chief Information Officer" (CIO) eingeführt. Der CIO ist in der Vorstandsebene gleich nach dem Vorstandsvorsitzenden „Chief Executive Officer" (CEO) angesiedelt und hat Zugriff und Entscheidungsbefugnis auf alle IT-relevanten Vorgänge des Unternehmens. Hier in der Abteilung geht es nicht um einen hochrangigen Posten, als vielmehr um eine Institutionalisierung der Informationsflüsse im IT-Bereich mit dem Ziel einer effizienten Koordinierung. Die treffenden Ausführungen von Rienhoff und Sax [4] über das CIO-Konzept in der medizinischen Forschung in Deutschland lassen sich bestens auf die Dimension einer Abteilung für Medizinische Biometrie übertragen. Die derzeitige Einführung des Qualitätsmanagements im gesamten Universitätsklinikum Freiburg, das auch die Abteilung Medizinische Biometrie und Statistik mit einschließt, bietet eine gute Chance für eine befriedigende Lösung dieses Problems.

Die zweite Möglichkeit ist im Prinzip die Dezentralisierung der IT-Kompetenz in die einzelnen Arbeitsgruppen. Sie bietet sich vor allem dann an, wenn wenig oder gar keine gemeinsamen Verfahren angewendet werden. Das klingt auf den ersten Blick bestechend. Man darf aber nicht vergessen, dass für die heutigen IT-Installationen ein breites technisches Fundament von der Systemarchitektur bis zur Netzinfrastruktur notwendig ist. Die Eigenschaften und der Umfang dieser Strukturen werden vom Endanwender selten deutlich gesehen. Der dafür zu betreibende Aufwand lohnt sich immer weniger, je kleiner der Bereich ist, in dem er angewendet wird. Es gilt darauf zu achten, dass in diesen Bereichen nicht Doppelarbeit geleistet, oder sogar, im Extremfall, dilettantische ad-hoc-Lösungen zum Einsatz kommen. So scheidet dieses dezentrale Konzept im Regelfall aus falls nicht besondere lokale Gründe dafür vorliegen.


Schlussbemerkungen

40 Jahre Entwicklung zeigen eindrücklich, dass IT-Strukturen niemals einen Zustand darstellen, sondern immer nur durch Prozesse beschrieben werden können.

In der heutigen Zeit ist es eine Gratwanderung die benötigte komplexe Funktionalität mit Strukturen zu erreichen, die so schlank wie möglich und damit hinreichend stabil sind.

Nur wenn gültige und laufend nachgebesserte Informationen über die Arbeitsweise und die Bedürfnisse der Anwender vorliegen kann eine gute und effiziente IT-Versorgung gelingen.


Literatur

1.
Antes G, Augustin N, Beyersmann J, Caputo A, Falck-Ytter Y, Gerds T, Gerlach A, Graf E, Holländer N, Ihorst G, Lang B, Meier-Hirmer C, Musio M, Olschewski M, Roßner R, Sauerbrei W, Schlingmann J, Schmoor C, Schulgen G, Schulte Mönting J, Schwarzer G, Schumacher M. Freiburger Beiträge zur Biometrie und Klinischen Epidemiologie. Inform Biom Epidemiol Med Biol. 2004;35:74-122.
2.
Antes G, Rossner R. Workstations unter UNIX als EDV-Umgebung in der Biometrie. Biom Inform Med Biol. 1992;23:185-210.
3.
Leibbrand D. Datenhaltung und Erfassung bei klinischen Studien. EDV Med Biol. 1984;15:33-40.
4.
Rienhoff O, Sax U. Chief-Information-Officers (CIO) in virtuellen Forschungsbetrieben. Wirtschaftsmanagement Special. 2005;1:16-8.
5.
Schmoor C, Eisele C, Graf E, Sauerbrei W, Klingele B, Hellmer A, Rossner R, Schumacher M. Arbeitsweisen des Methodischen Zentrums am Institut für Medizinische Biometrie und Medizinische Informatik der Universität Freiburg bei der biometrischen Betreuung klinischer Studien. Inform Biom Epidemiol Med Biol.1997;28:253-74.
6.
Schumacher M. Wie die Medizinische Statistik nach Freiburg kam - Eine historische Perspektive. GMS Med Inform Biom Epidemiol. 2005;1(2):Doc13.
7.
Walter E. Plan für den Aufbau des Instituts für Medizinische Statistik und Dokumentation der Universität Freiburg i.Br. Freiburg: Akte Institut für Medizinische Statistik und Dokumentation, Universitäts-Archiv Freiburg; 1963.