gms | German Medical Science

Herbsttagung der Klinik für Hals-Nasen-Ohrenheilkunde, Kopf- und Halschirurgie Regensburg mit wissenschaftlicher Unterstützung der ADANO 2011

Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen der Deutschen Gesellschaft für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie (ADANO)

29.09. - 30.09.2011, Regensburg

Untersuchung der audio-visuellen Integration von Cochlea Implantat Nutzern? Kombination sprachaudiometrischer Tests mit einem virtuellen Kopfmodell

Meeting Abstract

  • author Hartmut Meister - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln
  • Stefan Schreitmüller - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln
  • Verena Pyschny - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln; Klinik und Poliklinik für Hals-, Nasen-, Ohrenheilkunde der Universität zu Köln
  • Ruth Lang-Roth - Klinik und Poliklinik für Hals-, Nasen-, Ohrenheilkunde der Universität zu Köln
  • Martin Walger - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Universität zu Köln; Klinik und Poliklinik für Hals-, Nasen-, Ohrenheilkunde der Universität zu Köln
  • Sascha Fagel - CNRS / GIPSA-lab Grenoble, Frankreich

Arbeitsgemeinschaft Deutschsprachiger Audiologen und Neurootologen der Deutschen Gesellschaft für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie. Herbsttagung der Klinik für Hals-Nasen-Ohrenheilkunde, Kopf- und Halschirurgie Regensburg mit wissenschaftlicher Unterstützung der ADANO 2011. Regensburg, 29.-30.09.2011. Düsseldorf: German Medical Science GMS Publishing House; 2011. Doc11adano27

doi: 10.3205/11adano27, urn:nbn:de:0183-11adano274

Published: September 21, 2011

© 2011 Meister et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution License (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.en). You are free: to Share – to copy, distribute and transmit the work, provided the original author and source are credited.


Outline

Text

Hintergrund: Das Sprachverstehen von Personen mit Hörschädigungen basiert neben auditiven Leistungen auf den Fähigkeiten visuelle Merkmale zu nutzen. Während es etablierte Verfahren zur sprachaudiometrischen Diagnostik gibt, stehen keine Methoden zur Erfassung der Auswertung von Sprechbewegungen zur Verfügung.

Methoden: Auf der Basis eines validierten virtuellen Kopfmodells („MASSY“, [1]) sollen die Sprechbewegungen für sprachaudiometrische Materialien simuliert werden. Exemplarisch wurde eine Testliste des Oldenburger Satztests für die Modellierung herangezogen und für Messungen im auditiven, visuellen und kombiniert audio-visuellen Modus verwendet. Pilotmessungen wurden mit normalhörenden Personen und CI-Nutzern durchgeführt.

Ergebnisse: Alle Probanden profitierten nach einer gewissen Lernphase von den über das Kopfmodell visualisierten Sprechbewegungen. Dabei zeigten die CI-Nutzer eine größere Fähigkeit zur Auswertung der visuellen Merkmale und einen deutlicheren Gewinn in der Kombination beider Modalitäten, was im Einklang zu Literaturdaten (z.B. [2]) steht.

Schlussfolgerungen: Die Pilotstudie weist auf die grundsätzliche Eignung des virtuellen Kopfmodells zur Untersuchung der audio-visuellen Integration bei CI-Nutzern hin. Damit ergibt sich die Möglichkeit, etablierte sprachaudiologische Verfahren um die visuelle Komponente zu erweitern.


Literatur

1.
Fagel S, Clemens C. An Articulation Model for Audiovisual Speech Synthesis - Determination, Adjustment, Evaluation. Speech Communication. 2004;44:141-154.
2.
Desai S, Stickney G, Zeng FG. Auditory-visual speech perception in normal-hearing and cochlear-implant listeners. J Acoust Soc Am. 2008 Jan;123(1):428-40.