gms | German Medical Science

26. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

06.03. - 08.03.2024, Aalen

DNN-Training

Meeting Abstract

Suche in Medline nach

  • presenting/speaker Horst Warncke - Oticon GmbH, Audiologie, Hamburg, Deutschland

Deutsche Gesellschaft für Audiologie e.V.. 26. Jahrestagung der Deutschen Gesellschaft für Audiologie. Aalen, 06.-08.03.2024. Düsseldorf: German Medical Science GMS Publishing House; 2024. Doc017

doi: 10.3205/24dga017, urn:nbn:de:0183-24dga0175

Veröffentlicht: 5. März 2024

© 2024 Warncke.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Seit 2004 gibt es Hörsysteme mit Künstliche Intelligenz (KI) [1], 2023 ist die neunte Generation entwickelt. Anfangs wurde nur die Erkennung und Hervorhebung von einzelnen Sprechern unterstützt, heute können die Geräte mehr: Diverse Stimmen, aus unterschiedlichen Richtungen und Entfernungen aus Lärm hervorheben und in eine Balance zu lokalisierbaren Geräuschen bringen, Rückkopplung und andere störende Geräusche unterdrücken, Windgeräusche deutlich reduzieren [2]. Plötzliche Geräusche, wie Türen knallen oder Tastaturklappern, werden von den Hörsystemen erkannt und beseitigt [3]. Seit 2012 werden sogenannte Tiefe Neuronale Netzwerke, (englisch Deep Neural Network, DNN) in der Forschung eingesetzt, die lernen können [4]. Der Prozess des Trainierens wird im Beitrag beschrieben. Vor dem Lernprozess wurden verschiedene Algorithmen zur Separierung von Sprache und auditorischen Objekten entwickelt (u. A. [5]). Diese wurde in hunderte verschiedene DNN-Versionen integriert, die wiederum in Notebook-basierten Testgeräten von „Expert Listenern“ (erfahrene, normalhörende Hörsystemnutzer) beurteilt wurden. Ca. 30 DNN-Versionen kamen in eine engere Auswahl, die in Prototyp-Hörsystemen von „Expert Usern“ (erfahrene, schwerhörige Hörsystemnutzer) beurteilt wurden. Die Prototypen beinhalteten schon weitere Features wie Rückkopplungs- oder Impulsschall-Unterdrückung. Zur Validierung wurden „Expert Robots“ eingesetzt; Kunstköpfe, die über eine automatisierte Messtechnik die Erkennung von verschiedenen Stimmen aus Klangwelten immer wieder neu überprüfen. Am Ende wurden 3 Versionen, als „echte Geräte“, mit Expert Usern in umfangreichen Feldstudien gegeneinander getestet, 2020 wurden die ersten DNN-Geräte auf den Markt gebracht. Ein möglichst natürlicher Klang wurde mit ca. 12 Millionen Klangszenen trainiert, die Nutzer beschreiben den Klang auch so. 2023 wurde die zweite DNN-Geräte Generation vorgestellt, die patentierte Verbesserungen beinhalten. In wissenschaftlichen Studien konnte der Vorteil der DNN-Technik im Vergleich zu anderen aktuellen hochwertigen Hörsystemen nachgewiesen werden [6].


Literatur

1.
Warncke H. Künstliche Intelligenz – was ist das überhaupt. Hörakustik. 2005;7.
2.
Zapata-Rodríguez V, Flocken H, Santurette S. Improving comfort and speech clarity in wind. Oticon RealTM, new competitive benchmark. Oticon Whitepaper. 2023. Verfügbar unter: https://wdh02.azureedge.net/-/media/oticon-us/main/download-center---myoticon---product-literature/real/pi/15500-0176---real-competitive-evidence-whitepaper.pdf?la=en&rev=3DCE&hash=87C26079AC8375A3E34DA82D7299BD94 Externer Link
3.
Santurette S, Brændgaard M, Wang JW, Sun K. SuddenSound Stabilizer: Evidence and user benefits. Oticon Whitepaper. 2023. Verfügbar unter: https://wdh02.azureedge.net/-/media/oticon-us/main/download-center---myoticon---product-literature/real/pi/15555-0054---h1-2023---suddensound-stabilizer-whitepaper.pdf?la=en&rev=F919&hash=0BF88541B172FCC3935B4A0C6201A1DA Externer Link
4.
Brændgaard M. MoreSound Intelligence. Oticon tech paper. 2020.
5.
Alickovic E, Bramsløw L, Hanif U, Rossing R, Naithani G, Virtanen T, Graversen C, Wendt D, Lunner T, Pontoppidan NH. The Effect of DNN-Based Voice Segregation on Selective Attention. Poster presented at International IEEE EMBS Conference on Neural Engineering 2019, San Francisco. 2019. Verfügbar unter: https://www.eriksholm.com/wp-content/uploads/2019_alickovic_the_effect_of_dnn-based_voice_segregation.pdf Externer Link
6.
Santurette S, Xia L, Ermert CA, Man BKL. Oticon MoreTM competitor benchmark Part 1 – Technical Evidence. Oticon Whitepaper. 2021. Verfügbar unter: https://wdh01.azureedge.net/-/media/oticon/main/pdf/master/whitepaper/72002-uk-wp-oticon-more-competitive-benchmark--part-1-technical-evidence.pdf?la=en&hash=96A22B6909ED48DA60F4F6670DB96359 Externer Link