Artikel
Einfluss von automatischen Szenenklassifizierungssystemen in Hörsystemen auf die Sprachwahrnehmung in realen Situationen
Suche in Medline nach
Autoren
Veröffentlicht: | 12. September 2022 |
---|
Gliederung
Text
Einleitung: Automatische Szenenklassifizierungssysteme, die Richtmikrofone und Algorithmen zur Rauschunterdrückung kombinieren, bekommen einen wachsenden Stellenwert bei der täglichen Anwendung von Hörsystemen. Diese Systeme werden seit geraumer Zeit ebenfalls in CI-Soundprozessoren implementiert, um CI-Trägern auf Wunsch die Entscheidung abzunehmen das optimale Programm zu wählen, wenn sie sich in eine neue Hörsituation begeben. Die Fokussierung auf eine bestimmte Richtung, die Hervorhebung von Sprache, die z.B. von der Seite oder von hinten kommt, sowie die automatische Anpassung an Sprach- oder Störsignale können die Hörfähigkeit im Alltag von CI- und HA-Trägern verbessern.
Material und Methode: Das Sprachverstehen wurde bei einer Gruppe von 20 Studienteilnehmern, bilateral und bimodal, mit dem Matrixtest OlSa sowohl in Ruhe als auch im Störgeräusch gemessen, wobei Automatikprogramme und omnidirektionale Mikrofone des neuen Soundprozessors Naída CI M (Marvel) und der vorherigen Prozessorgeneration Naída CI Q jeweils in Kombination mit der zugehörigen HA-Generation verglichen wurden. Getestet wurden der Szenenklassifikator AutoSense OS und der Algorithmus Sprache in 360°, welcher die Hörrichtung der Mikrofone auf hereinkommende Sprachsignale auf eine der 4 Hauptrichtungen in der Horizontalebene ausrichtet. Beide Algorithmen wurden in einem 8 kanaligen Lautsprecherkreis getestet. Bei AutoSense OS kam das Sprachsignal von 0° und Geräusch aus allen 8 Richtungen, während bei Sprache in 360° das Sprachsignal randomisiert aus 0°, 90°, 180°, oder 270° präsentiert wurde.
Ergebnisse: Während die omnidirektionalen Mikrofoneinstellungen bei beiden Soundprozessorgenerationen zu vergleichbaren Ergebnissen führten, verbesserte die Automatik des neuen Prozessors die Sprachwahrnehmung um bis zu 5 dB im Störgeräusch, während die Signalverarbeitung des Naida Q nur eine Verbesserung des SNR von etwa 2 dB zeigte. Sprache in 360° verbesserte das Sprachverstehen um mehr als 20% im Vergleich zur omnidirektionalen Situation bzw. zur manuellen Richtungsauswahl durch den Nutzer.
Zusammenfassung: Szenenklassifizierungssysteme in CI-Soundprozessoren sowie in Kombination mit Hörgeräten ermöglichen eine deutlich bessere Sprachwahrnehmung und eine unkomplizierte Handhabung in schwierigen Hörsituationen.