gms | German Medical Science

50. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (gmds)
12. Jahrestagung der Deutschen Arbeitsgemeinschaft für Epidemiologie (dae)

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie
Deutsche Arbeitsgemeinschaft für Epidemiologie

12. bis 15.09.2005, Freiburg im Breisgau

Unterstützung zukünftiger Anwendungen im Gesundheitswesen durch Kopplung beschreibender Informationen an gegenständliche und virtuelle Objekte

Meeting Abstract

Suche in Medline nach

  • Thorsten Möller - UMIT, Hall i. Tirol
  • Heiko Schuldt - UMIT, Hall i. Tirol

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie. Deutsche Arbeitsgemeinschaft für Epidemiologie. 50. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (gmds), 12. Jahrestagung der Deutschen Arbeitsgemeinschaft für Epidemiologie. Freiburg im Breisgau, 12.-15.09.2005. Düsseldorf, Köln: German Medical Science; 2005. Doc05gmds528

Die elektronische Version dieses Artikels ist vollständig und ist verfügbar unter: http://www.egms.de/de/meetings/gmds2005/05gmds383.shtml

Veröffentlicht: 8. September 2005

© 2005 Möller et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielf&aauml;ltigt, verbreitet und &oauml;ffentlich zug&aauml;nglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Gliederung

Text

Einleitung

Gemäß vielerorts vernehmbarer Beobachtungen, welche auch mittelfristig prognostiziert wurden [1], zeichnen sich für das Gesundheitswesen in Zukunft insbesondere zwei Entwicklungen ab: i.) zunehmende Spezialisierung und Arbeitsteilung und der dadurch verursachte höhere Kommunikationsbedarf sowie ii.) fortschreitende Technisierung, die eine weitere Durchdringung mit Informations- und Kommunikationstechnik (information and communication technology, ICT) zur Folge hat. Gerade im Hinblick auf die Technisierung hat eine weitere Stufe unter neuem Vorzeichen bereits begonnen: Die Einbettung von Rechentechnik in alltägliche ortsunabhängige Gegenstände, wie sie in Aktivitäten und Projekten aus den Bereichen Ubiquitous, Pervasive und Wearable Computing verfolgt wird.

Neben dem fachlichen Kommunikationsbedarf kann man durchgängig in Gesundheitseinrichtungen feststellen, dass Ärzte, Pflege- und sonstiges Personal, Patienten und Angehörige häufig Informationen einfachster Art ad hoc benötigen. Ein Patient möchte beispielsweise wissen, wann welche Behandlung wo stattfindet und gleichzeitig Unterstützung erhalten dorthin zu finden. Eine Krankenschwester möchte vor Ort den Belegungsplan eines Behandlungsraumes wissen. Administratives Personal möchte schnell den Überblick und das Vorhandensein aller Geräte in einem Raum haben, da sie auf Einhaltung von Wartungsintervallen zu prüfen sind. Patienten und Angehörige brauchen Orientierung in Gesundheitseinrichtungen, wenn diese unbekannt für sie sind, oder die Beschilderung nicht verfügbar oder verständlich ist. Pflegepersonal benötigt schnell Überblick über Räume, deren Belegung oder Ausstattung häufigen bis ständigen Änderungen unterworfen ist. So ließen sich weitere Beispiele aufzählen, bei denen der Mensch Informationen unmittelbar, d.h. orts-, situations- und kontextspezifisch sowie zeitnah benötigt.

In diesem Beitrag wird ein Systemkonzept vorgestellt, das auf Basis zukünftiger Technologien in Gesundheitseinrichtungen eine qualitative Verbesserung der Informationsversorgung für alle Beteiligten (Personal, Patienten, Besucher) ermöglicht. Damit kann der Aufwand, Informationen mehr oder minder umständlich von anderer Stelle einzuholen, reduziert werden. Die Kopplung beschreibender Informationen an gegenständliche Objekte stellt dabei eine zentrale Grundlage dar. Auf dieser Grundlage lassen sich neue Systeme entwickeln oder bestehende erweitern, um indirekte Serviceleistungen in Gesundheitseinrichtungen zu verbessern. Diese Form der Unterstützung ist prinzipiell auch übertragbar auf andere Anwendungsgebiete.

Zunächst sollen beschreibende Informationen gegenständlicher und virtueller Objekte und die Beziehungen zwischen ihnen kurz theoretisch betrachtet werden.

Beschreibende Informationen gegenständlicher und virtueller Objekte

Objekte, egal ob gegenständlicher oder virtueller Art, lassen sich durch beliebig viele Informationen in ihren Eigenschaften, Zuständen und Assoziationen bzw. Relationen untereinander, beschreiben. Zu den gegenständlichen Objekten zählen z.B. technische Anlagen/Ressourcen, nichttechnische Güter, aber auch Räume und Gebäude. Beschreibende Informationen können z.B. technische Daten bei Anlagen und Geräten, physikalische Eigenschaften wie Abmaße und Materialien und andere „weitgehend feste“ Informationen sein. Assoziationen und Relationen zwischen Objekten sind z.B. das Enthaltensein (ein Gebäude enthält Räume) oder Grenzbeziehungen (Raum X grenzt an Y), Abhängigkeiten (Raum X ist erreichbar über Flur Y), Interaktionen (Gerät A versorgt Gerät B) usw.

Virtuelle Objekte dagegen liegen digital kodiert vor und werden somit nur im Zusammenhang mit technischen, gegenständlichen Objekten (Computern) benutzbar, da nur Letztere den Zugriff auf sie ermöglichen. Da keine weiteren Einschränkungen bzgl. dieser Objekte gelten sollen, sind darunter nicht nur Dokumente vorstellbar. Beschreibenden Informationen sind, wie bei gegenständlichen Objekten auch, durch Eigenschaften, Zustände, Assoziationen und Relationen, gegeben. Beispiel für ein virtuelles Objekt könnte ein Belegungsplan sein, der als beschreibende Information z.B. den letzten Aktualisierungszeitpunkt besitzt.

Für beide Objekttypen gilt per Definition jeweils die Enthaltensein-Relation, d.h. virtuelle und gegenständliche Objekte können jeweils die gleichen Objekttypen enthalten. Zwischen gegenständlichen und virtuellen, und umgekehrt, ist dagegen nur eine allgemeine Assoziation zugelassen, da es aus Nutzersicht irrelevant ist, bzw. nicht der Natur virtueller Objekte entspricht (virtuell = nicht greifbar aber da), dass sie an einem physischen Ort „existieren“ – aus technischer Sicht schon, denn sie sind letztlich an irgend einem Ort digital kodiert gespeichert.

Methoden

Ausgangspunkt bildet die automatische Identifizierung gegenständlicher Objekte durch entsprechend ausgerüstete tragbare Geräte (z.B. PDAs). Konkret bedeutet dies, dass ein mit entsprechender Identifizierungstechnik ausgestatteter PDA mitgeführt wird, mit dem alle in Reichweite befindlichen Objekte kontinuierlich zu erkennen sind, was prinzipiell unterschiedlich erfolgen kann: i.) optisch durch Mustererkennung des Objektes selbst, ii.) durch am Objekt angebrachte eindeutige Kennungen (Identifier), die optisch oder per Funk erkannt bzw. ausgelesen werden. Letztere Variante stellt auf Basis von am Objekt angebrachten RFID Tags eine einfach zu realisierende Lösungsmöglichkeit dar. Methoden der optischen Erkennung besitzen in diesem Zusammenhang den Nachteil, dass sie auf Grund der zu erwartenden Vielfältigkeit der Objekte, kaum zu prognostizierende Erkennungsraten erreichen würden und werden deshalb momentan nicht favorisiert. Zudem besitzt RFID die Eigenschaft, dass das Lesegerät die Objekte nicht aktiv ansteuern muss. Im Nahfeldbereich einer Person – je nach verwendetem Tag gegenwärtig von 30 cm bis 10 m – wird mit RFID zumindest eine richtungslose Erkennung erreicht [2]. Im einfachsten Fall besteht die Möglichkeit Low-End Tags zu verwenden, die nur die vom Hersteller bereits aufgebrachte 96 Bit lange Seriennummer speichern. Das heißt jedoch, dass alle Informationen, die man mit dem Objekt koppeln möchte, extern in einem Informationssystem repräsentiert werden müssen. PDAs müssen dann mit entsprechenden Technologien ausgerüstet sein, um sie über eine globale Infrastruktur (z.B. Funknetz) abrufen zu können.

Für die Repräsentation der Daten bietet sich der Einsatz von RDF [3] an, da es direkt zur Darstellung von Metadaten über Ressourcen und Objekte spezifiziert wurde. Auch lassen sich Assoziationen und Relationen zw. Objekten ideal abbilden. Die Erfassung der Daten muss entweder manuell geschehen, oder, um diesen Aufwand zu reduzieren, es wird über (Webservice-)Schnittstellen zu vorhandenen Informationssystemen eine automatisierte und online bestehende Datenintegration realisiert.

Bei Einsatz leistungsfähigerer Tags mit schreibbaren Speichern besteht prinzipiell auch die Möglichkeit von vornherein bestimmte Informationen direkt aufzubringen, die dann auf dem tragbaren Gerät auch ohne Verbindung zu externen Informationssystemen zur Verfügung stehen. In einer langfristigen Vision ist es sogar vorstellbar, dass Hersteller der Objekte diese Tags während der Produktion im oder am Objekt anbringen und mit „festen“ Beschreibungsdaten füllen.

Als Resultat wird eine enge bzw. unmittelbare Kopplung von in Benutzung befindlichen Objekten, Mensch und Information realisierbar.

Diskussion und Ausblick

In der ersten Phase der Umsetzung wird derzeit eine eindeutige Terminologie zur Thematik definiert. Gleichzeitig wird eine Klassifizierung genannter Objekttypen erarbeitet, um eine systematische Einbeziehung verschiedenster Typen zu erreichen. Darüber hinaus soll die Analyse gegenwärtiger Forschungstätigkeiten und bestehender Methoden der Identifizierung gegenständlicher Objekte fortgesetzt werden. Dabei besteht die Frage, ob Lösungsmöglichkeiten bestehen, die auch eine zuverlässige Ortung der Objekte möglich machen, beispielsweise [4] und [5]. Eine Integration mit visionären Anwendungen der Augmented Reality bzw. des Wearable Computing ist dann möglich.

Die gewonnenen Erkenntnisse und Erfahrungen liefern die Grundlage für die Entwicklung einer Infrastruktur, in dem schrittweise die bestehenden Lösungsansätze mit Möglichkeiten der personalisierten Filterung und Darstellung zusammengeführt werden.


Literatur

1.
Haux R, et al., Health Care in the Information Society: A Prognosis for the Year 2013. International Journal of Medical Informatics, 2002. 66:3-21
2.
Finkenzeller H, RFID Handbuch, Carl Hanser Verlag München, September 2002
3.
Resource Description Framework (RDF), http://www.w3.org/RDF/, Abruf vom 14.03.2005
4.
Ryuhei T, et al., Annotation Overlay with a Wearable Computer Using Augmented Reality, Proc. 1st Workshop on Advanced Computing and Comm. Techniques for Wearable Information Playing, S. 27-32, 2002
5.
Ross D, Blasch B, Wearable interfaces for orientation and wayfinding, Assets '00: Proceedings of the fourth international ACM conference on Assistive technologies, S. 193-200, 2000