gms | German Medical Science

24. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

14.09. - 17.09.2022, Erfurt

Einfluss von automatischen Szenenklassifizierungssystemen in Hörsystemen auf die Sprachwahrnehmung in realen Situationen

Meeting Abstract

  • presenting/speaker Andreas Büchner - Medizinische Hochschule Hannover, Hannover, DE
  • Michael Bardt - Medizinische Hochschule Hannover, Hannover, DE
  • Sven Kliesch - Medizinische Hochschule Hannover, Hannover, DE
  • Martina Brendel - Advanced Bionics GmbH, Hannover, DE
  • Thomas Lenarz - Medizinische Hochschule Hannover, Hannover, DE

Deutsche Gesellschaft für Audiologie e.V.. 24. Jahrestagung der Deutschen Gesellschaft für Audiologie. Erfurt, 14.-17.09.2022. Düsseldorf: German Medical Science GMS Publishing House; 2022. Doc035

doi: 10.3205/22dga035, urn:nbn:de:0183-22dga0353

Veröffentlicht: 12. September 2022

© 2022 Büchner et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Einleitung: Automatische Szenenklassifizierungssysteme, die Richtmikrofone und Algorithmen zur Rauschunterdrückung kombinieren, bekommen einen wachsenden Stellenwert bei der täglichen Anwendung von Hörsystemen. Diese Systeme werden seit geraumer Zeit ebenfalls in CI-Soundprozessoren implementiert, um CI-Trägern auf Wunsch die Entscheidung abzunehmen das optimale Programm zu wählen, wenn sie sich in eine neue Hörsituation begeben. Die Fokussierung auf eine bestimmte Richtung, die Hervorhebung von Sprache, die z.B. von der Seite oder von hinten kommt, sowie die automatische Anpassung an Sprach- oder Störsignale können die Hörfähigkeit im Alltag von CI- und HA-Trägern verbessern.

Material und Methode: Das Sprachverstehen wurde bei einer Gruppe von 20 Studienteilnehmern, bilateral und bimodal, mit dem Matrixtest OlSa sowohl in Ruhe als auch im Störgeräusch gemessen, wobei Automatikprogramme und omnidirektionale Mikrofone des neuen Soundprozessors Naída CI M (Marvel) und der vorherigen Prozessorgeneration Naída CI Q jeweils in Kombination mit der zugehörigen HA-Generation verglichen wurden. Getestet wurden der Szenenklassifikator AutoSense OS und der Algorithmus Sprache in 360°, welcher die Hörrichtung der Mikrofone auf hereinkommende Sprachsignale auf eine der 4 Hauptrichtungen in der Horizontalebene ausrichtet. Beide Algorithmen wurden in einem 8 kanaligen Lautsprecherkreis getestet. Bei AutoSense OS kam das Sprachsignal von 0° und Geräusch aus allen 8 Richtungen, während bei Sprache in 360° das Sprachsignal randomisiert aus 0°, 90°, 180°, oder 270° präsentiert wurde.

Ergebnisse: Während die omnidirektionalen Mikrofoneinstellungen bei beiden Soundprozessorgenerationen zu vergleichbaren Ergebnissen führten, verbesserte die Automatik des neuen Prozessors die Sprachwahrnehmung um bis zu 5 dB im Störgeräusch, während die Signalverarbeitung des Naida Q nur eine Verbesserung des SNR von etwa 2 dB zeigte. Sprache in 360° verbesserte das Sprachverstehen um mehr als 20% im Vergleich zur omnidirektionalen Situation bzw. zur manuellen Richtungsauswahl durch den Nutzer.

Zusammenfassung: Szenenklassifizierungssysteme in CI-Soundprozessoren sowie in Kombination mit Hörgeräten ermöglichen eine deutlich bessere Sprachwahrnehmung und eine unkomplizierte Handhabung in schwierigen Hörsituationen.