gms | German Medical Science

24. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

14.09. - 17.09.2022, Erfurt

Entwicklung einer audiovisuellen virtuellen Realität zur Untersuchung der Hörleistung von CI-Nutzern

Meeting Abstract

Suche in Medline nach

  • presenting/speaker Aydin Yesildag - Goethe-Universität Frankfurt, Universitätsklinikum, KHNO/Schwerpunkt Audiologische Akustik, Frankfurt am Main, DE
  • Uwe Baumann - Goethe-Universität Frankfurt, Universitätsklinikum, KHNO/Schwerpunkt Audiologische Akustik, Frankfurt am Main, DE
  • Tobias Weißgerber - Goethe-Universität Frankfurt, Universitätsklinikum, KHNO/Schwerpunkt Audiologische Akustik, Frankfurt am Main, DE

Deutsche Gesellschaft für Audiologie e.V.. 24. Jahrestagung der Deutschen Gesellschaft für Audiologie. Erfurt, 14.-17.09.2022. Düsseldorf: German Medical Science GMS Publishing House; 2022. Doc033

doi: 10.3205/22dga033, urn:nbn:de:0183-22dga0336

Veröffentlicht: 12. September 2022

© 2022 Yesildag et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Untersuchungen zur Hörleistung von Cochlea-Implantat (CI) Nutzern sind in klinischen Bedingungen bisher nur bedingt alltagsnah. Um die Untersuchungsbedingungen an reale Alltagsituationen anzunähern, bietet sich die Methode der Reproduktion von alltäglichen Hörsituationen mit audiovisuellen Raumsimulationsverfahren an. In diesem Beitrag wird eine audiovisuelle virtuelle Realität vorgestellt. Weiterhin wurde der Einfluss von Lippenbildern auf das Sprachverstehen im Störgeräusch untersucht.

Ein bereits bestehendes akustisches Raumsimulationssystem wurde zu einer audiovisuellen virtuellen Realität (VR) weiterentwickelt. Das VR-System besteht aus mehreren vernetzten Computersystemen, einem Multikanal-Lautsprechersystem und einem Head-Mounted-Display mit Echtzeit-Headtracking. In der VR wurde ein Klassenraum mit animierten Avataren implementiert. An den Avataren können einzelne Gesichtspunkte angesteuert und damit Lippenbewegungen erzeugt werden. Der Einfluss von visueller Mundbildpräsentation auf das Sprachverstehen im Störgeräusch wurde bei 16 Normalhörenden (NH) und 17 CI-Nutzern mit dem Oldenburger Satztest mit einem festen Signal-Rausch-Abstand von -4 dB SNR bei NH und 0 dB SNR bei CI-Nutzern untersucht. Die Plausibilität der virtuellen Realität wurde mit einem Fragebogen erfasst.

Bei Darbietung von animierten Mundbildern zeigte sich eine mittlere Verbesserung im Sprachverstehen um 18,5 Prozentpunkte bei Normalhörenden und 7,5 Prozentpunkte bei CI-Nutzern. Im Fragebogen gaben beide Gruppen eine mittlere Wahrnehmung der räumlichen Präsenz mit einem Mittelwert von 3,6 (Normalhörende) und 3,0 (CI-Nutzer) an. Die allgemeine Präsenz wurde mit einem Durchschnittswert von 3,4 (Normalhörende) und 3,1 (CI-Nutzer) als mittel bewertet. Der erlebte Realismus war in der NH-Gruppe mit 2,6 eher schlecht und bei den CI-Nutzern mit 4,2 eher gut.

Es wurde eine VR-Umgebung entwickelt, die von Nutzern als plausibel beurteilt wurde. In beiden Probandengruppen wurde ein positiver Effekt des Lippenlesens auf das Sprachverstehen gezeigt. Dieser war jedoch geringer ausgeprägt als es teilweise in anderen Arbeiten berichtet wurde. Für weitere Untersuchungen in einer Folgestudie wurde ein virtuelles Modell des Frankfurter Hauptbahnhofs erstellt.