gms | German Medical Science

51. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e. V. (gmds)

10. - 14.09.2006, Leipzig

E-Learning für Blinde und hochgradig Sehbehinderte am Beispiel histologischer Schnittpräparate

Meeting Abstract

  • Roland Linder - Universität zu Lübeck, Lübeck
  • Frank Weichert - Universität Dortmund, Dortmund
  • Andreas Streng - Universität Dortmund, Dortmund
  • Andreas Groh - Universität des Saarlandes, Homburg
  • Werner Liese - Deutsche Blindenstudienanstalt e.V., Marburg
  • Tereza Richards - University of the West Indies, Kingston
  • Martin Diefenbach - Universität Dortmund, Dortmund
  • Mathias Wagner - Universität des Saarlandes, Homburg

Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e.V. (gmds). 51. Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie. Leipzig, 10.-14.09.2006. Düsseldorf, Köln: German Medical Science; 2006. Doc06gmds076

Die elektronische Version dieses Artikels ist vollständig und ist verfügbar unter: http://www.egms.de/de/meetings/gmds2006/06gmds217.shtml

Veröffentlicht: 1. September 2006

© 2006 Linder et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Gliederung

Text

Einleitung und Fragestellung

Die Prävalenz von hochgradiger Sehbehinderung (Visus < 0,1) bis hin zur Blindheit (Visus < 0,05) liegt in Industrieländern bei ca. 0,2%, d.h. allein in Deutschland leiden ca. 160.000 Menschen unter schweren visuellen Defiziten. 30 % der Betroffenen (ca. 50.000) sind jünger als 60 Jahre http://www.dbsv.org/infothek/Statistik.html, http://www.woche-des-sehens.de/presse/zahlen.htm. Zumindest bei dieser Gruppe kann davon ausgegangen werden, dass sie regen Anteil am Alltagsleben nimmt und aufgeschlossen ist für elektronische Hilfsmittel, die den Zugang zu visueller Information erleichtern. Im Bereich des E-Learning werden Studierende mit elektronischen Texten und Bildern konfrontiert. Textuelle Bildschirminhalte können von Vorlesesystemen (Screenreader) in synthetische Sprache umgesetzt werden oder mittels einer speziellen Übersetzungssoftware (z.B. Blindows) ein so genanntes Braille-Display ansteuern, mit dem der Bildschirmtext in Brailleschrift Zeile für Zeile ertastbar wird. Trotz einiger Bemühungen [1] existieren für die direkte Übersetzung von digitalen Bilddateien (Fotos, Landkarten) in haptisch erfahrbare Reliefs bislang keine praktikablen Lösungen, die den Anforderungen gerecht werden. Am Beispiel der Überführung (visueller) histologischer Schnittpräparate in taktile Informationen wird ein erster prototypischer Ansatz vorgestellt.

Material und Methoden

Als haptisches Gerät mit sechs Freiheitsgraden wird das PHANTOM® DesktopTM Haptic Device (SensAble Technologies, Inc., Woburn, MA, USA) eingesetzt. Das Haptic Device berücksichtigt Kinästhetik und Taktilität, wobei Kinästhetik die Kraftrückkopplung an den Benutzer bei Kollision mit virtuellen Reliefstrukturen bezeichnet, Taktilität hingegen den Tastsinn, der zum Erfühlen von Oberflächenstrukturen notwendig ist [2]. Die Berechnung der Kräfte ist für die Erzeugung der Rückkopplung essenziell. Dieser Vorgang wird als haptisches Rendering [3] bezeichnet und wurde im vorliegenden Fall unter Verwendung der OpenHaptics™ Library (SensAble Technologies, Inc., Woburn, MA, USA) realisiert.

Ausgangspunkt für das haptische Rendering waren histologische Schnittpräparate der Leber, die mit einer auf einem BX41 Lichtmikroskop befestigten Olympus Camedia C-3030 Zoom Digitalkamera (beides Olympus Optical Co Europa GmbH, Hamburg) digitalisiert, segmentiert und anschließend mittels der prototypischen C++ Software make2Dhaptic in taktile Informationen überführt werden. Die Gradienten der Farb- und Texturinformationen werden dabei primär als 3D-Informationen interpretiert und durch Triangulierung in ein 3D-Mesh für das taktile Relief überführt. Auf Basis der Segmentierungsinformationen kann ergänzend ein Materialkoeffizient definiert werden, der eine modulierte Kollisionsbehandlung ermöglicht (Tensegrity [4], [5], [6], [7]). Die derart generierte Szene ermöglicht hochgradig sehbehinderten Probanden mittels des Haptic Device, histologische Schnittpräparate zu ertasten (Abbildung 1 [Abb. 1]).

Neben der Bereitstellung einer optionalen Tensegrity wird mit der Segmentierung ein zweiter wesentlicher Aspekt verfolgt. Visuelle Daten, wie auch die hier vorliegenden histologischen Schnittbilder, sind in ihrer Gesamtheit vielfach zu kompliziert. Speziell in einer für hochgradig Sehbehinderte didaktisch korrekten (E-) Lernumgebung ist es notwendig, die Granularität auf ein geeignetes Maß zu reduzieren bzw. sie selektiv einstellen zu können. Beispielsweise könnten nur die Konturen einzelner Zellen innerhalb der taktilen Szene repräsentiert werden.

Ergebnisse

Im Anschluss an die Überführung der virtuellen Schnitte in taktile Informationen stehen unterschiedliche Szenarien bereit. Neben der Basisfunktionalität, die Graustufengradienten als 3D-Relief bereitzustellen, können auch einzelne Farbkanäle separiert präsentiert werden. Die Granularität (Auflösung) der 3D-Szene ist parametrisierbar, um den unterschiedlichen taktilen Fähigkeiten der sehbehinderten Anwender gerecht zu werden. Durch eine Zoomfunktionalität ist die Region of Interest frei wählbar. Wird bei dieser Gradienten-basierten Repräsentierung der virtuelle Schnitt in seiner gesamten Komplexität und nur auf Basis der Farb- und Textureigenschaften analysiert, erlauben die Segmentierungsinformationen eine Zuweisung spezifischer Materialeigenschaften (Tensegrity) und selektiver „Betrachtungsweisen“. Neben einzelnen Objekten (anatomische Primitive) können auch Hierarchien tastbar gemacht werden - anatomische Objekte (Beispiel: Cytoplasma, Zellkern, Nucleus) werden konform zu ihrer Hierarchieebene durchdrungen. Navigierte in den bisher genannten Modi der Sehbehinderte durch die Szene, kann die Aktivität auch invertiert werden und das Haptic Device führt den Sehbehinderten aktiv um ein Objekt herum. Hierdurch kann das Vorstellungsvermögen für einzelne Objekte verbessert werden, da die Konzentration entfällt, das Objekt in der Szene nicht zu „verlieren“.

Diskussion

Der vorbeschriebene prototypisch realisierte Ansatz wurde von blinden und hochgradig sehbehinderten Probanden als viel versprechend betrachtet. Diese Einschätzung wird systematisch an größeren Kollektiven von Sehbehinderten zu verifizieren sein. In einem Feldversuch wird dieser Ansatz derzeit blinden und hochgradig sehbehinderten Schülern der Carl-Strehl Schule (Deutsche Blindenstudienanstalt e.V.) in Marburg zur Testung überlassen. Zudem erlauben virtuelle Schnitte eine Dimensionserhöhung durch Hinzufügen der Tensegrity, wodurch ein für Blinde und hochgradig Sehbehinderte positiver Informationsgewinn gegeben ist, der Sehenden vielfach (aufgrund ihrer eingeschränkten taktilen Fähigkeiten) verschlossen bleibt. Sollte sich dabei die Nützlichkeit von make2Dhaptic bestätigen, wird ein breiter Einsatz dieser Lösung angestrebt, der die Möglichkeiten des E-Learning für Sehbehinderte und Blinde bereichern wird. In diesem Zusammenhang ist angedacht, auditive Informationen ergänzend bereitzustellen.

Literatur

[1]

Liese W. Moderne elektronische Hilfsmittel im naturwissenschaftlichen Unterricht blinder und sehbehinderter Schüler. Verein zur Förderung der Blindenbildung e.V. Bleekstr. 26, 30559 Hannover-Kirchrode; Kongressbericht: XXX Kongress für Sehgeschädigtenpädagogik in Baar/Zug/Schweiz, 1988: 191-9.

[2]

Srinivasan MA: Haptic Interfaces. In: Durlach N, Mavor AS, Hrsg. Virtual Reality: Scientific and Technical Challenges. Nat Acad Press 1995; 161-87.

[3]

Salisbury JK, Brock D, Massie T, Swarup N, Zilles C. Haptic Rendering: Programming touch interaction with virtual objects. Proceedings of the ACM Symposium on Interactive 3D Graphics, Monterey, CA, USA, 1995.

[4]

Galli C, Guizzardi S, Passeri G, Macaluso GM, Scandroglio R. Life on the wire: on tensegrity and force balance in cells. Acta Biomed Ateneo Parmense 2005; 76: 5-12.

[5]

Ingber DE. Tensegrity I. Cell structure and hierarchical systems biology. J Cell Sci 2005; 116: 1157-73.

[6]

Ingber DE. Tensegrity II. How structural networks influence cellular information processing networks. J Cell Sci 2003; 116: 1397-408.

[7]

Ingber DE. Cellular tensegrity: defining new rules of biological design that govern the cytoskeleton. J Cell Sci 1993; 104: 613-27.


Literatur

1.
Liese W. Moderne elektronische Hilfsmittel im naturwissenschaftlichen Unterricht blinder und sehbehinderter Schüler. Verein zur Förderung der Blindenbildung e.V. Bleekstr. 26, 30559 Hannover-Kirchrode; Kongressbericht: XXX Kongress für Sehgeschädigtenpädagogik in Baar/Zug/Schweiz, 1988: 191-9.
2.
Srinivasan MA: Haptic Interfaces. In: Durlach N, Mavor AS, Hrsg. Virtual Reality: Scientific and Technical Challenges. Nat Acad Press 1995; 161-87.
3.
Salisbury JK, Brock D, Massie T, Swarup N, Zilles C. Haptic Rendering: Programming touch interaction with virtual objects. Proceedings of the ACM Symposium on Interactive 3D Graphics, Monterey, CA, USA, 1995.
4.
Galli C, Guizzardi S, Passeri G, Macaluso GM, Scandroglio R. Life on the wire: on tensegrity and force balance in cells. Acta Biomed Ateneo Parmense 2005; 76: 5-12.
5.
Ingber DE. Tensegrity I. Cell structure and hierarchical systems biology. J Cell Sci 2005; 116: 1157-73.
6.
Ingber DE. Tensegrity II. How structural networks influence cellular information processing networks. J Cell Sci 2003; 116: 1397-408.
7.
Ingber DE. Cellular tensegrity: defining new rules of biological design that govern the cytoskeleton. J Cell Sci 1993; 104: 613-27.