gms | German Medical Science

122. Kongress der Deutschen Gesellschaft für Chirurgie

Deutsche Gesellschaft für Chirurgie

05. bis 08.04.2005, München

Erweiterte 3-D-Visualisierung in der minimal-invasiven Chirurgie

Meeting Abstract

  • corresponding author S. Krüger - Chirurgische Klinik mit Poliklinik der Friedrich-Alexander-Universität Erlangen-Nürnberg, Erlangen, Deutschland
  • F. Vogt - Lehrstuhl für Mustererkennung der Friedrich-Alexander-Universität Erlangen-Nürnberg, Erlangen, Deutschland
  • M. Winter - Lehrstuhl für Graphische Datenverarbeitung der Friedrich-Alexander-Universität Erlangen-Nürnberg, Erlangen, Deutschland
  • H. Niemann - Lehrstuhl für Mustererkennung der Friedrich-Alexander-Universität Erlangen-Nürnberg, Erlangen, Deutschland
  • W. Hohenberger - Chirurgische Klinik mit Poliklinik der Friedrich-Alexander-Universität Erlangen-Nürnberg, Erlangen, Deutschland
  • CH. Schick - Chirurgische Klinik mit Poliklinik der Friedrich-Alexander-Universität Erlangen-Nürnberg, Erlangen, Deutschland

Deutsche Gesellschaft für Chirurgie. 122. Kongress der Deutschen Gesellschaft für Chirurgie. München, 05.-08.04.2005. Düsseldorf, Köln: German Medical Science; 2005. Doc05dgch2573

The electronic version of this article is the complete one and can be found online at: http://www.egms.de/en/meetings/dgch2005/05dgch153.shtml

Published: June 15, 2005

© 2005 Krüger et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution License (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.en). You are free: to Share – to copy, distribute and transmit the work, provided the original author and source are credited.


Outline

Text

Einleitung

Trotz der bekannten Vorteile der minimal-invasiven Chirurgie (MIC) für die Patienten behindern die eingeschränkte zweidimensionale Darstellung, reduzierte Tiefenwahrnehmung und die Sichtfeldeinschränkung einen noch umfassenderen Einsatz. Ziel der Forschung ist es, diese Einschränkungen bei videoendoskopischen Eingriffen rechnergestützt zu reduzieren. Eine solche Rechnerunterstützung bei MIC-Operationen bietet die Möglichkeit, das Operationsgebiet dreidimensional darzustellen. Voraussetzung für die Präzision der Darstellung räumlicher Bilder ist die genaue Kenntnis der Kameraposition und der Lagebeziehung der Kamera zum betrachteten Objekt.

Material und Methoden

Ein konventionelles Videoendoskopiesystem wurde um die entsprechende Hardware zur Positionsbestimmung (kameraführender Roboterarm AESOP und optisches Trackingsystem smARTtrack2) erweitert. Optisches Tracking bietet derzeit die größtmögliche Genauigkeit zur Positionsbestimmung eines bewegten Objektes. Aus den 2-D Bildern des Endoskops wurde ein 3-D Modell des Operationsgebietes erzeugt; ein sog. Lichtfeld. Für die Erstellung eines Lichtfeldes wurde das Endoskop über die Szene bewegt und der Videobilddatenstrom digitalisiert gespeichert. Die räumliche Zuordnung der Kameraposition wurde entweder durch Auslesen der Positionssensordaten des kameraführenden Roboterarms oder durch das optische Tracking erreicht. Die ursprüngliche Tiefenwahrnehmung wurde durch die dreidimensionale Betrachtung des Lichtfeldes auf einem 3-D Monitor wiederhergestellt. Die Bereitstellung einer erweiterten Realität (Augmented Reality) wurde durch Registrierung der 3-D Bildinformation mit CT/MR Daten erreicht. Die registrierten Daten konnten sowohl in das 2-D Live-Bild als auch in das 3-D-Lichtfeld eingeblendet werden. Die Positionsbestimmung per Roboterarm und mittels optischem Tracking wurden hinsichtlich ihrer Darstellungsgüte verglichen. Das optische Trackingsystem wurde zusätzlich bezüglich seiner Rekonstruktionstreue getestet.

Ergebnisse

Alle Versuche wurden unter OP-realistischen Bedingungen [Abb. 1] durchgeführt. Die Positions- und Orientierungsgenauigkeit des optischen Trackingsystems ergab mittlere Rotationsfehler des Gesamtsystems von 0,2° (1%) bei einem Translationsfehler von 1,4 mm (4,5%). Beim Roboterarm war die Genauigkeit mit mittleren Abweichungen von bis zu 5° pro Achse für die Rotation und 5 mm für die Translation (p< 0,01) deutlich schlechter. Für das präzisere optische Tracking wurde im Laborversuch die Oberfläche einer Kugel mit bekanntem Radius rekonstruiert. Die Abweichung betrug 1 mm (5%), wobei die Form der Kugel sehr genau rekonstruiert wurde (mittlerer Fehler 0,003 mm). Die Erstellung eines Lichtfeldes aus 250 Bildern dauerte dabei mit einem Pentium 4 PC sechs Minuten. Live-Bild, Lichtfelddarstellung und erweiterte Realität wurden auf jeweils getrennten Monitoren dargestellt.

Schlussfolgerung

Die vorgestellten Verfahren erlauben die schnelle Berechnung eines 3-D Modells des Operationsgebietes in Form eines Lichtfeldes bei MIC-Operationen. Durch Registrierung mit CT-Daten kann eine erweiterte Realität zur Verfügung gestellt werden. Auf Grund kürzerer Rechenzeiten wird der intraoperative Einsatz in Zukunft möglich sein. Verglichen mit dem Roboterarm wurde bei optischem Tracking eine fünfmal höhere Genauigkeit erreicht. Der Bildeindruck der 3-D Rekonstruktion wurde unter optischem Tracking naturgetreuer. Der Nutzen für den Operateur ergibt sich durch eine bessere Übersicht und einen möglichen Tiefenblick auf wichtige aber nicht im Bild sichtbare anatomische Strukturen.