gms | German Medical Science

Herbsttagung der Klinik für Hals-Nasen-Ohrenheilkunde, Kopf- und Halschirurgie Regensburg mit wissenschaftlicher Unterstützung der ADANO 2011

Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen der Deutschen Gesellschaft für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie (ADANO)

29.09. - 30.09.2011, Regensburg

Untersuchung der audio-visuellen Integration von Cochlea Implantat Nutzern? Kombination sprachaudiometrischer Tests mit einem virtuellen Kopfmodell

Meeting Abstract

  • author Hartmut Meister - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln
  • Stefan Schreitmüller - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln
  • Verena Pyschny - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln; Klinik und Poliklinik für Hals-, Nasen-, Ohrenheilkunde der Universität zu Köln
  • Ruth Lang-Roth - Klinik und Poliklinik für Hals-, Nasen-, Ohrenheilkunde der Universität zu Köln
  • Martin Walger - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln; Klinik und Poliklinik für Hals-, Nasen-, Ohrenheilkunde der Universität zu Köln
  • Sascha Fagel - CNRS / GIPSA-lab Grenoble, Frankreich

Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen der Deutschen Gesellschaft für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie. Herbsttagung der Klinik für Hals-Nasen-Ohrenheilkunde, Kopf- und Halschirurgie Regensburg mit wissenschaftlicher Unterstützung der ADANO 2011. Regensburg, 29.-30.09.2011. Düsseldorf: German Medical Science GMS Publishing House; 2011. Doc11adano27

doi: 10.3205/11adano27, urn:nbn:de:0183-11adano274

Veröffentlicht: 21. September 2011

© 2011 Meister et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Gliederung

Text

Hintergrund: Das Sprachverstehen von Personen mit Hörschädigungen basiert neben auditiven Leistungen auf den Fähigkeiten visuelle Merkmale zu nutzen. Während es etablierte Verfahren zur sprachaudiometrischen Diagnostik gibt, stehen keine Methoden zur Erfassung der Auswertung von Sprechbewegungen zur Verfügung.

Methoden: Auf der Basis eines validierten virtuellen Kopfmodells („MASSY“, [1]) sollen die Sprechbewegungen für sprachaudiometrische Materialien simuliert werden. Exemplarisch wurde eine Testliste des Oldenburger Satztests für die Modellierung herangezogen und für Messungen im auditiven, visuellen und kombiniert audio-visuellen Modus verwendet. Pilotmessungen wurden mit normalhörenden Personen und CI-Nutzern durchgeführt.

Ergebnisse: Alle Probanden profitierten nach einer gewissen Lernphase von den über das Kopfmodell visualisierten Sprechbewegungen. Dabei zeigten die CI-Nutzer eine größere Fähigkeit zur Auswertung der visuellen Merkmale und einen deutlicheren Gewinn in der Kombination beider Modalitäten, was im Einklang zu Literaturdaten (z.B. [2]) steht.

Schlussfolgerungen: Die Pilotstudie weist auf die grundsätzliche Eignung des virtuellen Kopfmodells zur Untersuchung der audio-visuellen Integration bei CI-Nutzern hin. Damit ergibt sich die Möglichkeit, etablierte sprachaudiologische Verfahren um die visuelle Komponente zu erweitern.


Literatur

1.
Fagel S, Clemens C. An Articulation Model for Audiovisual Speech Synthesis - Determination, Adjustment, Evaluation. Speech Communication. 2004;44:141-154.
2.
Desai S, Stickney G, Zeng FG. Auditory-visual speech perception in normal-hearing and cochlear-implant listeners. J Acoust Soc Am. 2008 Jan;123(1):428-40.