Article
DNN-Training
Search Medline for
Authors
Published: | March 5, 2024 |
---|
Outline
Text
Seit 2004 gibt es Hörsysteme mit Künstliche Intelligenz (KI) [1], 2023 ist die neunte Generation entwickelt. Anfangs wurde nur die Erkennung und Hervorhebung von einzelnen Sprechern unterstützt, heute können die Geräte mehr: Diverse Stimmen, aus unterschiedlichen Richtungen und Entfernungen aus Lärm hervorheben und in eine Balance zu lokalisierbaren Geräuschen bringen, Rückkopplung und andere störende Geräusche unterdrücken, Windgeräusche deutlich reduzieren [2]. Plötzliche Geräusche, wie Türen knallen oder Tastaturklappern, werden von den Hörsystemen erkannt und beseitigt [3]. Seit 2012 werden sogenannte Tiefe Neuronale Netzwerke, (englisch Deep Neural Network, DNN) in der Forschung eingesetzt, die lernen können [4]. Der Prozess des Trainierens wird im Beitrag beschrieben. Vor dem Lernprozess wurden verschiedene Algorithmen zur Separierung von Sprache und auditorischen Objekten entwickelt (u. A. [5]). Diese wurde in hunderte verschiedene DNN-Versionen integriert, die wiederum in Notebook-basierten Testgeräten von „Expert Listenern“ (erfahrene, normalhörende Hörsystemnutzer) beurteilt wurden. Ca. 30 DNN-Versionen kamen in eine engere Auswahl, die in Prototyp-Hörsystemen von „Expert Usern“ (erfahrene, schwerhörige Hörsystemnutzer) beurteilt wurden. Die Prototypen beinhalteten schon weitere Features wie Rückkopplungs- oder Impulsschall-Unterdrückung. Zur Validierung wurden „Expert Robots“ eingesetzt; Kunstköpfe, die über eine automatisierte Messtechnik die Erkennung von verschiedenen Stimmen aus Klangwelten immer wieder neu überprüfen. Am Ende wurden 3 Versionen, als „echte Geräte“, mit Expert Usern in umfangreichen Feldstudien gegeneinander getestet, 2020 wurden die ersten DNN-Geräte auf den Markt gebracht. Ein möglichst natürlicher Klang wurde mit ca. 12 Millionen Klangszenen trainiert, die Nutzer beschreiben den Klang auch so. 2023 wurde die zweite DNN-Geräte Generation vorgestellt, die patentierte Verbesserungen beinhalten. In wissenschaftlichen Studien konnte der Vorteil der DNN-Technik im Vergleich zu anderen aktuellen hochwertigen Hörsystemen nachgewiesen werden [6].
Literatur
- 1.
- Warncke H. Künstliche Intelligenz – was ist das überhaupt. Hörakustik. 2005;7.
- 2.
- Zapata-Rodríguez V, Flocken H, Santurette S. Improving comfort and speech clarity in wind. Oticon RealTM, new competitive benchmark. Oticon Whitepaper. 2023. Verfügbar unter: https://wdh02.azureedge.net/-/media/oticon-us/main/download-center---myoticon---product-literature/real/pi/15500-0176---real-competitive-evidence-whitepaper.pdf?la=en&rev=3DCE&hash=87C26079AC8375A3E34DA82D7299BD94
- 3.
- Santurette S, Brændgaard M, Wang JW, Sun K. SuddenSound Stabilizer: Evidence and user benefits. Oticon Whitepaper. 2023. Verfügbar unter: https://wdh02.azureedge.net/-/media/oticon-us/main/download-center---myoticon---product-literature/real/pi/15555-0054---h1-2023---suddensound-stabilizer-whitepaper.pdf?la=en&rev=F919&hash=0BF88541B172FCC3935B4A0C6201A1DA
- 4.
- Brændgaard M. MoreSound Intelligence. Oticon tech paper. 2020.
- 5.
- Alickovic E, Bramsløw L, Hanif U, Rossing R, Naithani G, Virtanen T, Graversen C, Wendt D, Lunner T, Pontoppidan NH. The Effect of DNN-Based Voice Segregation on Selective Attention. Poster presented at International IEEE EMBS Conference on Neural Engineering 2019, San Francisco. 2019. Verfügbar unter: https://www.eriksholm.com/wp-content/uploads/2019_alickovic_the_effect_of_dnn-based_voice_segregation.pdf
- 6.
- Santurette S, Xia L, Ermert CA, Man BKL. Oticon MoreTM competitor benchmark Part 1 – Technical Evidence. Oticon Whitepaper. 2021. Verfügbar unter: https://wdh01.azureedge.net/-/media/oticon/main/pdf/master/whitepaper/72002-uk-wp-oticon-more-competitive-benchmark--part-1-technical-evidence.pdf?la=en&hash=96A22B6909ED48DA60F4F6670DB96359