gms | German Medical Science

GMS Zeitschrift für Audiologie — Audiological Acoustics

Deutsche Gesellschaft für Audiologie (DGA)

ISSN 2628-9083

Vorteile des direkten akustischen Streamens beim Telefonieren bimodal versorgter Hörsystemnutzer

Originalarbeit

  • corresponding author Melanie A. Zokoll - Hörzentrum Oldenburg gGmbH, Oldenburg, Deutschland; Exzellenzcluster „Hearing4All“, Oldenburg, Deutschland
  • Markus Meis - Cochlear Deutschland GmbH & Co. KG, Hannover, Deutschland
  • Kirsten C. Wagener - Hörzentrum Oldenburg gGmbH, Oldenburg, Deutschland; Exzellenzcluster „Hearing4All“, Oldenburg, Deutschland
  • Silke Grober - Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universität Oldenburg, Oldenburg, Deutschland; Exzellenzcluster „Hearing4All“, Oldenburg, Deutschland
  • Andreas Radeloff - Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universität Oldenburg, Oldenburg, Deutschland; Exzellenzcluster „Hearing4All“, Oldenburg, Deutschland; Forschungszentrum Neurosensorik, Oldenburg, Deutschland
  • Horst Hessel - Cochlear Deutschland GmbH & Co. KG, Hannover, Deutschland

GMS Z Audiol (Audiol Acoust) 2023;5:Doc03

doi: 10.3205/zaud000029, urn:nbn:de:0183-zaud0000298

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zaud/2023-5/zaud000029.shtml

Veröffentlicht: 31. Januar 2023

© 2023 Zokoll et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

In der vorliegenden Studie wurde untersucht, ob das direkte bilaterale Streamen in Cochlea-Implantat (CI) und Hörgerät (HG) bimodalen Hörsystemnutzern einen Vorteil beim Telefonieren mit dem Smartphone im Vergleich zu bisher genutzten Verfahren bringt.

In zwei Labortests wurden 22 erfahrene CI-Träger (Durchschnittsalter 50,8±18,6 Jahre), die bimodal mit einem N7 Prozessor der Firma Cochlear sowie einem GN ReSound Hörgerät versorgt waren, mit ihrer eigenen bisher genutzten, meist unilateralen Telefonnutzung (Referenz-Kondition) sowie mit MFi-Technologie (Test-Kondition) getestet. In der Test-Kondition wurde direkt von einem Smartphone auf beide Hörsysteme gestreamt. Als wesentliche Messgrößen des Benefits wurden die Sprachverständlichkeit, die subjektiv empfundene Höranstrengung, jeweils im Störgeräusch, und subjektive Bewertungen (u.a. zu Klang, Gebrauchstauglichkeit über System Usability Scale, SUS) erfasst.

Die Ergebnisse ergaben eine tendenziell verbesserte Sprachverständlichkeit, sowie eine signifikant geringere Höranstrengung bei beidseitigem Streaming im Vergleich zur herkömmlichen Telefonnutzung in sowohl den Mess-, als auch den Fragebogendaten. Im Hinblick auf Gebrauchstauglichkeit führte das beidseitige Streaming, verglichen mit der Referenz, ebenfalls zu besseren Bewertungen.

Schlüsselwörter: Cochlea-Implantat, MFi, Streamen, Telefonieren mit CI


Einleitung

Das Telefonieren ist für Menschen mit starkem Hörverlust eine große Herausforderung. Zum einen fehlen visuelle Hinweise (Lippenbewegungen, Gestik, Mimik), die über Beobachtung der Sprecher gewonnen werden können, zum anderen sind die Stimmen oft unbekannt und somit schlechter verständlich als bekannte Stimmen [12], [18]. Zudem können die übertragenen Sprachsignale in ihrer Qualität beeinträchtigt sein. Bei analogen Telefonen sind sie z.B. in ihrer Bandbreite begrenzt (300–3.400 Hz). Zusätzlich stören, vor allem bei der Mobiltelefonie, nicht selten Nebengeräusche auf Seiten des Anrufers oder Angerufenen das Gespräch. In letzter Konsequenz verzichten viele Menschen mit zunehmendem Hörverlust ganz auf das Telefonieren oder telefonieren nur mit Hilfe anderer. Die Einschränkungen der Kommunikation kann die Lebensqualität erheblich beeinträchtigen und gerade auch bei Senioren, die allein leben, zur sozialen Isolation führen. Eine Cochlea-Implantation bei postlingual ertaubten Erwachsenen ist indiziert, „wenn mit Cochlea-Implantaten (CI) ein besseres Hören und Sprachverstehen als mit Hörgeräten (HG) absehbar zu erreichen sein wird“ [10]. Die ausreichende Wiederherstellung der Kommunikationsfähigkeit schließt dabei auch die Möglichkeit zu Telefonieren mit ein [24]. Letzteres ist laut Lenarz [24] erst mit einem (Einsilber-)Sprachverstehen von >50% bei einem Signalpegel von 65 dB möglich.

Studien haben gezeigt, dass CI-Nutzer nach ihrer Implantation dank der technologischen Weiterentwicklung der Systeme häufig wieder ein offenes Sprachverstehen einschließlich der Nutzung des Telefons erreichen [24] und auch wieder häufiger zum Telefonhörer oder Smartphone greifen [2]. Clinkard et al. [8] stellten fest, dass der Telefongebrauch unter CI-Patienten im Vergleich zu früheren Studien zunimmt. In einer Studie von Sousa et al. [32] wurde das Telefon-Sprachverstehen mit der Lebensqualität assoziiert. Patienten, die über eine erfolgreiche Nutzung des Telefons berichteten, zeigten im Durchschnitt höhere Punktzahlen in den psychologischen, sozialen und globalen Bereichen eines der genutzten Lebensqualitätsfragebögen (Nijmegen Cochlear Implant questionnaire, NCIQ-P). Granberg et al. [15] sehen in der erfolgreichen Nutzung von Telefonie eine wesentliche Voraussetzung zur Partizipationsfähigkeit gemäß der Internationalen Klassifikation der Funktionsfähigkeit, Behinderung und Gesundheit (ICF).

Es gibt verschiedene etablierte Möglichkeiten, mit CIs zu telefonieren. Ein seit Langem verwendetes Verfahren ist das Telefonieren mit einer Telefonspule. Weniger Technik-affine CI-Träger nutzen auch den Telefonlautsprecher, der dann meist auf das Mikrofon an einem der Audioprozessoren ausgerichtet ist. Eine modernere Möglichkeit ist das Telefonieren mit einem Bluetooth-Hilfsgerät, bei dem die Audiosignale vom Mobiltelefon mit Bluetooth zum Hilfsgerät und dann mit Bluetooth Low Energy (BLE) oder einer anderen 2.4 GHz-Funktechnologie weiter zum Signalprozessor übertragen werden (z.B. CochlearTM Wireless Telefonclip, MED-EL AudioLink).

Auch für Hörgeräte-Träger gibt es für das Telefonieren vergleichbare Möglichkeiten. Hierzu gehören zum Beispiel Bluetooth-Hilfsgeräte, die mit einem Bluetooth-fähigen Telefon verbunden werden und anschließend per Induktionsschleife/Antenne (um den Hals der Hörgeräteträger) das Signal auf die Hörsysteme übertragen (z.B. ComPilot von Phonak, uDirect 3 von Unitron oder Hansaton). Telefonclips (z.B. GNReSound Unite™ Telefonclip, Oticon ConnectClip) ermöglichen ein drahtloses Telefonieren, via Bluetooth-Übertragung zwischen Bluetooth-fähigem Smartphone und Telefonclip, sowie 2.4 GHz-Funktechnologie zwischen Telefonclip und Hörsystemen.

Neu hinzugekommen ist die Bluetooth-Übertragung ohne Bluetooth-Hilfsgerät, bei der die Audiosignale über Bluetooth Classic (z.B. bei Phonak, Advanced Bionics) oder BLE direkt in den Signalprozessor übertragen werden können. Letzteres funktioniert zum Beispiel für Apple-Geräte (Apple Bluetooth Low Energy, ABLE) wie das iPhone, oder neuere Android Mobiltelefone.

Das (direkte) Streaming des Telefonsignals kann das Telefonieren für CI-Träger im Vergleich zu Telefonspulen- oder akustischer Kopplungskonfiguration verbessern [25], [38]. Dies wurde auch für Hörgeräteträger gezeigt [30]. Die Geräusche in der Umgebung des Hörsystemträgers (aufgenommen über die Hörsystemmikrofone) werden beim Streaming meist in einem geringen Verhältnis mit dem gestreamten Signal gemischt. Picou und Ricketts [30] hatten die Mikrofone der Hörgeräte für die Streaming-Kondition sogar ausgeschaltet, um Umgebungsgeräusche auszuschließen, die den Vorteil der Streaming-Technik korrumpieren könnten (e.g., [29]). Der Default bei CI-Nutzern ist ein Mischungsverhältnis zwischen Streaming-Signal und akustischem Input, das den CI-Trägern erlaubt, auch weiterhin mitzubekommen, was um sie herum passiert (z.B. Verhältnis 2:1 [36]).

Bimodale Patienten, die ein CI und kontralateral ein HG nutzen, stehen beim Telefonieren vor sehr ähnlichen, zum Teil noch größeren Problemen, da hier zwei unterschiedliche, unter Umständen nicht kompatible Systeme gleichzeitig verwendet werden. In den letzten Jahren bildeten sich Kooperationen zwischen CI- und HG-Herstellern, wodurch sich die Möglichkeiten der Interaktionen beider Systeme verbesserten.

Am Hörzentrum Oldenburg wurde in Zusammenarbeit mit der Universitäts-HNO-Klinik Oldenburg untersucht, inwiefern bilaterales Streamen bimodal versorgten Patienten im Vergleich zu Standard-Methoden des Telefonierens (Referenz) in Bezug auf den audiologischen Nutzen (Sprachverständlichkeit und Höranstrengung), Klangqualität, und Benutzerfreundlichkeit eine Verbesserung bringt. Hierbei wurde ein besonderes Augenmerk auf den Einfluss der Kopplung und der (unterschiedlichen) Wege von Telefonsignal und Umgebungsgeräuschen gelegt. Für die Streaming-Bedingung wurden zwei Streaming-fähige Hörsysteme, der Nucleus® 7 Soundprozessor von Cochlear, sowie das LiNX 3D von GN ReSound verwendet, die bimodal versorgten Patienten ein bilaterales Streamen ins CI und HG ermöglichen.


Material und Methoden

Teilnehmer

Die Teilnehmenden wurden an der Universitätsklinik für Hals-Nasen-Ohren-Heilkunde Oldenburg rekrutiert. Insgesamt nahmen 22 Erwachsene (Durchschnittsalter 50,8±18,6 Jahre, 9 weiblich, 13 männlich) an dieser Studie teil. Alle Teilnehmenden waren bimodal versorgt, d.h. sie waren mit Cochlea-Implantat auf der einen und mit Hörgerät auf der gegenüberliegenden Seite versorgt. Eine Person trug ihr Hörgerät nicht regelmäßig. Vor Eintritt in die Studie verwendeten die Teilnehmenden überwiegend den Cochlear Nucleus® 6 Sound Prozessor (N=16), einige den Nucleus® 5 (N=5), oder Nucleus® 7 (N=1). In der Studie bekamen die Teilnehmenden ausnahmslos den Cochlear Nucleus® 7 Sound Prozessor. Weitere Einschlusskriterien waren eine CI-Nutzungsdauer von mindestens zwei Jahren, Deutsch als Muttersprache, fehlende kognitive Einschränkungen und ein Sprachverstehen in Ruhe von über 50% für den Oldenburger Satztest bei 65 dB SPL (OLSA, [34]). Das letztgenannte Kriterium wurde für den Schwerpunkt Telefonieren angelehnt an Lenarz [24] gewählt.

Prozedur und Aufbau

Ein detaillierter Messplan ist in Abbildung 1 [Abb. 1] zu sehen. Die Studie wurde in zwei Terminen (T1 und T2) organisiert. Außer einem zur Verfügung gestellten Test-Smartphone (Apple iPhone 7) wurde am ersten Termin (T1, Referenz) das Telefonieren nur mit dem Equipment untersucht, welches die Teilnehmenden normalerweise im Alltag nutzen. Obwohl die Hörsysteme grundsätzlich auch mit Android-Smartphones genutzt werden können, wurde hier angesichts einer besseren Kontrolle über den Einfluss des Smartphones auf die Messungen nur ein System verwendet. Die Teilnehmenden füllten Fragebögen zu ihren Hörsystemen und dem entsprechenden Zubehör (Q1) sowie zur Referenztelefonie aus (Q2, siehe auch Abbildung 1 [Abb. 1]). Basierend auf dieser Erhebung des momentanen Status der Telefonie der Teilnehmenden wurde die Referenz individuell festgelegt. Am zweiten Untersuchungstermin (T2, Streaming) wurden die Teilnehmenden mit den Studien-Hörsystemen, GN ReSound LiNX 3D LT962-DRW oder LT988-DW und Cochlear N7-Prozessor getestet. Hierzu wurden diese Studiengeräte zunächst individuell angepasst. Anschließend koppelten die Teilnehmenden ihre Geräte mit dem Test-Smartphone, mit dem anschließend telefoniert wurde.

In beiden Terminen wurden die Teilnehmenden vom Versuchsleiter (VL) angerufen und stellten den Schallpegel des Smartphones so ein, dass ein angenehmer Lautheitseindruck entstand. Dann bewerteten sie die Einstellung des Telefongesprächs mit dem Versuchsleiter unter Laborbedingungen im Hinblick auf die Akzeptanz (Q3, z.B. Sprachverständlichkeit, Höranstrengung, Klangqualität und Lautheit).

Beim zweiten Termin erfolgte zunächst eine Eingewöhnungsphase, die einen Spaziergang mit Telefongesprächen außerhalb des Labors beinhaltete. Die Hörsituationen umfassten eine ruhige Situation im Garten des Hörzentrums Oldenburg, eine belebte Straßenkreuzung und ein Restaurant. Gesprächspartner war entweder der Versuchsleiter, ein Mitarbeiter des Hörzentrums Oldenburg oder jemand aus dem Umfeld der teilnehmenden Person. Im Anschluss mussten die Teilnehmenden Fragebögen zur Benutzerfreundlichkeit (System Usability Scale, SUS [7]; Q5), auch im Vergleich zur Referenz (Q6; SUS_comp) beantworten. Die System Usability Scale ist ein generisches Verfahren zur Bewertung der Gebrauchstauglichkeit mit 10 Items von 0 bis 4, und einer Multiplikation der teilweise invertierten Werte mit dem Faktor 2.5, so dass eine Range von 0 bis 100 Punkten resultiert. Dieser so ermittelte Summenwert kann dann mit anderen Studien in Beziehung gesetzt werden.

Dann absolvierten die Teilnehmenden in beiden Terminen in einem ruhigen Innenraum eine Telefonhöraufgabe, in der eine weibliche Stimme einen Text aus „Nils Holgersson“ vorlas (Hörbuch-Kondition). Nachdem die Teilnehmenden Gelegenheit hatten, die Lautstärke des Test-Smartphones erneut anzupassen, hörten sie sich diesen Monolog an und bewerteten die Telefonie mit dieser Sprecherin (Q4, analog zu Q3). Dann folgten bei gleicher Smartphone-Lautstärkeeinstellung audiologische Tests zu Sprachverstehen und Höranstrengung in randomisierter Reihenfolge. Telefon-Sprachverständlichkeitsschwellen (SVS) im Störgeräusch wurden in einem schallgedämpften Raum mit der weiblichen Version des Oldenburger Satztests (OLSAf, [1], [35]) im offenen Antwortformat gemessen. Das Sprachsignal wurde dabei über das Test-Smartphone präsentiert. Hierzu wurde das Test-Smartphone von einem Telefon (Siemens OpenStage 15) angerufen, das an einen PC angeschlossen war, auf dem die Oldenburger Messprogramme (Hörzentrum gGmbH, Oldenburg) verwendet wurden. Das Störgeräusch (Olnoisef, [35]) wurde über einen Lautsprecher (Mackie HR824) aus 0° in einem Abstand von 1,3 m dargeboten. Der Störschall wurde somit nur empfänger- und nicht senderseitig dargeboten. Mögliche Effekte der senderseitigen Übertragungsstrecke auf das Signal und den Signal-Rausch-Abstand wurden nicht untersucht. Das Sprachsignal des OLSAf hatte den gleichen RMS-Pegel und auch die gleiche Sprecherin, wie das Nils Holgersson-Hörspiel, mit dem der Pegel des Test-Smartphones auf einen individuell angenehmen Pegel eingestellt wurde (siehe oben). Das der Testperson direkt dargebotene Störgeräusch wurde auf 65 dB SPL kalibriert. Weil der absolute Darbietungspegel des gestreamten Sprachsignals von jeder Testperson einmal individuell eingestellt wurde und keine Kenntnis über diesen absoluten Darbietungspegel via CI und somit auch nicht über den aus CI und HG kombinierten Darbietungspegel des gestreamten Sprachsignals vorliegt, wird im Folgenden die Bezeichnung i-SNR (individueller SNR) verwendet für den Signal-Rausch-Abstand vom individuell eingestellten Sprachdarbietungspegel zum direkt dargebotenen Störgeräusch. Ein i-SNR von 0 dB bedeutet dabei, dass das in ruhiger Umgebung als angenehm laut eingestellte Sprachsignal in dem direkt dargebotenen Störgeräusch (Darbietungspegel 65 dB SPL) dargeboten wird. Zusätzlich zu dem für den OLSA empfohlenen anfänglichen Training von zwei Testlisten mit je 20 Sätzen und um abschätzen zu können, ob die von den Teilnehmenden in den beiden Terminen gewählten Sprachpegel äquivalent sind, wurde vor der Prüfung im Störlärm die Sprachverständlichkeitsschwelle in Ruhe ermittelt (eine Testliste, Verfahren A1 nach [6]). Anschließend erfolgte die eigentliche SVS-Messung im Störgeräusch mit einer Testliste und zusätzlich einer erweiterten Liste mit 30 Sätzen. Mit der längeren Testliste wurde zusätzlich zur Sprachverständlichkeitsschwelle auch die Steigung der Sprachverständlichkeitskurve ermittelt (Verfahren A2 nach [6]).

Um die Bewertungen der Höranstrengung für das Telefonieren zu erhalten, wurde im gleichen Versuchs-Setup die Methode der adaptiven kategorialen Höranstrengungsskalierung (ACALES, [22]) mit Sprach- und Störgeräuschsignalen des OLSAf verwendet. Das Messverfahren ACALES ermöglicht es die mentale ‚Hörlast‘ oder den Höraufwand zu messen, den eine Person aufwenden muss, um Sprache im Störgeräusch zu verstehen. Es enthält eine kurze Trainingsphase und die anschließende Testliste bei unterschiedlichen Signal-Rausch-Abständen (die einzelnen Sätze werden hierbei jeweils dreimal präsentiert, während die Eingabe bereits nach der ersten Präsentation erfolgen kann). Die Aufgabe der Teilnehmenden ist es, die jeweils präsentierten Sätze bezüglich ihrer Höranstrengung anhand einer 13-stufigen, kategorialen Bewertungsskala mit sieben beschrifteten Kategorien von „mühelos“ bis „extrem anstrengend“ (effort scale categorical units, ESCU, von 1–13) mit einer zusätzlichen Kategorie „nur Störgeräusch“, zu bewerten. Die entsprechende Frage lautete „Wie anstrengend ist es für Sie, dem Sprecher zu folgen?”. Die Antwort erfolgt hierbei über einen Touchscreen. Das Verfahren ist adaptiv im Sinne einer automatischen individuellen Berechnung der zu testenden SNR-Variationen, die durch die Veränderung des Sprachpegels erzeugt wird. Das Ergebnis der Messung ist eine individuelle Höranstrengungsfunktion, die den SNR-Bereich für „mühelos“ bis „extrem anstrengend“ umfasst (für mehr Details zu dem Verfahren siehe [22]).

Hörgeräte- und CI-Programmierung

Im ersten Termin wurden die Hörsysteme mit den von den Patienten im Alltag genutzten Programmen und Einstellungen verwendet. Die technische Funktionalität der Systeme wurde vor der Versuchsdurchführung durch die Versuchsleiter geprüft. Für die Programmierung der beiden Geräte zu Beginn des zweiten Termins wurden Standardprozeduren für die Anpassung verwendet. Die Hörgeräte von GN ReSound LiNX 3D LT962-DRW und LT988-DW wurden mit nur einem Programm (P1) angepasst. Dieses entsprach einem üblichen Alltagsprogramm (All-Around). Die Anpassung folgte den von der Software von GN ReSound (ReSound SmartFit) vorgegebenen Vorschlägen mit den Eingangsparametern Audiogramm, und routinierte/r Hörgeräteträger/In (an WDRC-Systeme gewöhnt). Es erfolgte die Erstanpassung und gegebenenfalls eine Anhebung oder Absenkung der Gesamtverstärkung. Eine weitere Feinanpassung wurde nicht durchgeführt. Die Auswahl der Hörgeräte erfolgte nach Hörverlust auf dem Hörgeräte-versorgten Ohr der Teilnehmenden. Die Ankopplung wurde ebenfalls daran angepasst und folgte dabei den Empfehlungen der Anpass-Software. Durch eine klinische Ingenieurin wurde die zuletzt mit dem eigenen CI-Prozessor verwendete MAP (personalisierte Stimulationsparameter) mit Hilfe der dazugehörigen Anpasssoftware von Cochlear (Nucleus® Custom Sound Fitting Software) auf den Nucleus® 7 Testprozessor übertragen. Für das Streaming wurde die Default-Einstellung genutzt. In dieser werden die gestreamten Signale vom Smartphone mit den Signalen der Mikrofone am Sprachprozessor in einem Mischungsverhältnis von 2:1 dargeboten.

Datenanalyse und Statistik

Das ACALES-Verfahren passt automatisch eine Funktion mit zwei Steigungen an die individuellen Höranstrengungs-Bewertungen (effort scale categorical units, ESCUs) an, ohne die Bewertungskategorie „nur Störgeräusch“ zu verwenden, wobei eine der Steigungen den Verlauf zwischen 1 und 7 ESU und die zweite den Verlauf zwischen 7 bis 13 ESCU beschreibt. Der Kreuzungspunkt zwischen den Kategorien 5 und 9 ESU wird dabei geglättet (Details [22]). Die zugrundeliegenden SNR und dazugehörigen ESCUs können ausgelesen werden. Die mittleren Funktionen für die Höranstrengung wurde abgeleitet, indem dieselbe Funktion mit zwei Steigungen an alle individuell gemessenen Höranstrengungsbewertungen für die beiden Telefonie-Bedingungen angepasst wurde.

Für den Vergleich der Fragebogenantworten für Referenz und Streaming-Bedingung wurde ein nichtparametrischer statistischer Test, der Wilcoxon-Vorzeichen-Rang-Test, herangezogen. Die audiologischen Daten wurden, nach vorheriger Verifikation der Normalverteilung (Shapiro-Wilk-Test, p>0.05), mithilfe parametrischer Tests (gepaarter T-Test (einseitig), bzw. zweifaktorielle repeated measures (RM) ANOVA mit Bonferroni-Korrektur für Mehrfachvergleiche) auf signifikante Unterschiede hin analysiert. Beim ACALES-Verfahren wurden die sieben benannten (d.h. beschrifteten) Bewertungskategorien von ESCU 1 „mühelos“ bis ESCU 13 „extrem anstrengend“ ausgewertet (ESCU 1, 3, 5, 7, 9, 11 und 13) und auf signifikante Unterschiede zwischen den Konditionen hin analysiert.


Ergebnisse

Ein Teilnehmer absolvierte T1 (Referenz), aber nicht T2 (Streaming), ein weiterer wurde als Ausreißer identifiziert (SVSStreaming>2 SD über dem Mittelwert) und zeigte inkonsistente Daten zwischen T1 und T2, bzw. zwischen Fragebogenbewertungen und OLSA- sowie ACALES-Ergebnissen in T2. Dies wies auf eine fehlerhafte Einstellung am Wandler innerhalb der Messkette für die adaptiven Messungen hin. Beide Teilnehmer wurden aus der weiteren Datenanalyse ausgeschlossen. Die im Folgenden gezeigten Ergebnisse beruhen auf einer Datenbasis von 20 Personen. Zwischen T1 und T2 lagen im Mittel (±SD) 43,6±40,9 Tage.

Fragebogendaten

Referenz-Telefonie (Q2)

Aus dem Fragebogen Q2 ging hervor, dass 75% der Teilnehmenden im Alltag Festnetztelefone benutzen und nur 25% Mobiltelefone. In Bezug auf das Ohr bzw. die Seite, mit der sie telefonieren, berichteten die Teilnehmenden in 65% der Fälle, dass sie die Hörgerät-Seite und in 35% die CI-Seite benutzen. Keiner der Teilnehmenden verwendet regelmäßig Bluetooth-Verbindungen und Streaming oder die Telefonspule zum Telefonieren, daher kam diese Art der Telefonie nicht in der Referenz vor. In den meisten Fällen wird lediglich das Telefon auf die Mikrofone des Hörsystems oder auf die Ohrmuschel gelegt (13). Andere benutzen den Lautsprecher des Telefons/Smartphones (3) oder nehmen das Hörsystem (Hörgerät) ab und telefonieren konventionell mit dem Hörer des Telefons auf der Ohrmuschel (4). Die Teilnehmenden telefonieren im Durchschnitt einmal pro Tag (Median zwischen 1 und 2–3 Anrufe pro Tag).

Akzeptanz (Q3 und Q4)
Lautstärke des Smartphones

Die Teilnehmenden stellten den Pegel des Smartphones in der Anfangsphase jedes Telefongesprächs (mit Versuchsleiter, VL, bzw. Hörbuch-Sprecherin, HB) auf eine für sie individuell angenehme Lautheit ein. Der resultierende Pegel des Smartphones nach der Anpassung unterschied sich signifikant zwischen der Referenz- und der Streaming-Bedingung (Wilcoxon-Test, ZVL=–3,733, N=20, ZHB=–3,638, beide p<0,001, N=19). Die Smartphone-Lautstärke war in beiden Bedingungen für direktes Streaming signifikant niedriger als für die Referenzbedingung (Median bei 10,5/16 (Gespräch mit Versuchsleiter) bzw. 12/16 (Hörbuch) der Skala im Vergleich zur Vollskala (Referenz), siehe auch Abschnitt Audiologische Daten).

Lautheit

Nach der subjektiven Lautstärke befragt, bewerteten die Teilnehmenden die Lautheit beim Telefonieren mit dem Versuchsleiter, bzw. Hören des Hörbuchs im Medianwert als ausreichend: Dies war zu erwarten, da sie die Lautstärke anfangs individuell auf angenehm laut eingestellt hatten. Zwei der Teilnehmenden erreichten allerdings auch bei Vollskala des Smartphones nur eine niedrige Lautheit (sehr leise bzw. zu leise). Bei einer Person traf dieses auf beide Termine zu. Bei der anderen war dies erst nach dem Wechsel auf die Studiengeräte der Fall. Hier hatte das Studien-Hörgerät den Hörverlust nicht ausgleichen können und auch auf CI-Seite konnte aufgrund beginnender Gesichtsnerv-Stimulation der Pegel nicht weiter erhöht werden. In Bezug auf die eigene Stimme beim Telefonat mit dem Versuchsleiter wurde die Lautstärke beim direkten Streamen im Medianwert als niedriger (ZVL=–2,124, p<0,05, N=20) empfunden. Beim Hören des Hörbuchs über Telefon wurde die Lautstärke der eigenen Stimme nicht abgefragt.

Klang der Stimme

Der Klang der eigenen Stimme sowie derjenigen von Versuchsleiter/In und Hörbuch-Sprecherin wurden von den Teilnehmenden in beiden Messkonditionen im Median als jeweils ähnlich angenehm empfunden. Bei einem direkten Vergleich des Stimmklangs von Versuchsleiter bzw. Hörspiel-Sprecherin anhand von Kontrastpaaren zeigte sich aber ein signifikanter Unterschied in Bezug auf die Deutlichkeit (Kontrastpaar „deutlich – undeutlich“) und Nähe (Kontrastpaar „entfernt – nah“) zwischen den beiden Konditionen. Die Stimmen während des Streamings wurden als deutlicher und näher empfunden als bei der Referenz (Deutlichkeit: ZVL=–2,195, ZHB=–2,273, Nähe: ZVL=–3,218, ZHB=–3,213, alle p<0,05, N=19). Für das Hörspiel wurde in der Streaming-Kondition tendenziell der Klang zusätzlich auch als angenehmer (ZHB=–1,874, p=0,061, N=19) und voluminöser (ZHB=–1,941, p=0,052, N=19) empfunden. Die Person, die nach dem Wechsel auf die Testgeräte kein ausreichendes Sprachverstehen erreichte, konnte diese Bewertung nicht vornehmen.

Zufriedenheit mit den Hörsystemen

Die Teilnehmenden zeigten eine größere Gesamtzufriedenheit mit Streaming verglichen mit der Referenz ohne Streaming. Der Unterschied betrug für das Telefongespräch und das Hörbuch jeweils eine Skaleneinheit. In beiden Situationen wurde die Referenzbedingung mit Median=4 bewertet und die Streaming-Bedingung mit Median=5. Dieser Unterschied war jeweils signifikant (ZVL=–2,380, N=20, ZHB=–2,073, N=19, beide p<0,05, Abbildung 2A [Abb. 2]).

Sprachverständlichkeit

Die subjektive Sprachverständlichkeit beim Telefonieren in der relativ ruhigen Labor-Kondition war bei direktem Streaming sowohl beim Dialog mit Versuchsleiter als auch beim Hören des Hörbuchs geringfügig besser als die Referenz und änderte sich im Medianwert um einen Punkt auf der Skala (von 6, „sehr viel“, auf 7, „alles“, für das Telefonat mit dem Versuchsleiter, bzw. von 5, „viel“, auf 6, „sehr viel“, für das Hörbuch). Der Unterschied war aber nicht signifikant. Zwei der Teilnehmenden hatten kein Sprachverstehen beim Telefonieren, wobei dies in einem Fall erst nach Wechsel auf die Studiengeräte eintrat (s.o.).

Höranstrengung

Die subjektive Höranstrengung in Ruhe wurde ebenfalls für die beiden Telefonkonditionen bewertet. Die Medianwerte für die Höranstrengung sanken bei direktem Streaming im Vergleich zur Referenzbedingung um etwa 2,0 bis 2,5 Punkte auf der Skala, hin zu weniger Anstrengung (Abbildung 2B [Abb. 2]). Für das Hörspiel war dieser Unterschied signifikant (ZHB=–2,549, p<0,05, N=19).

Audiologische Daten
Sprachverständlichkeit

Die Sprachverständlichkeit wurde mit dem OLSAf [1], [35] getestet, indem dessen Sprachsignal über das Smartphone als Telefonat präsentiert wurde. Die Lautstärke des Smartphones wurde im Vorfeld mit Hilfe des Hörbuchs auf eine angenehme Lautstärke eingestellt und lag im Median bei 16 Balken (Vollausschlag) auf dem Smartphone für die Referenz- und 12 Balken für die Streaming-Bedingung. Dieser Unterschied war signifikant (siehe Abschnitt Lautstärke des Smartphones). Die Schwellenwerte für Sprachverständlichkeit in Ruhe für die Referenz- und die Streaming-Bedingung waren jedoch ähnlich mit Mittelwerten von 52,3±5,6 dB und 51,0±2,7 dB für die Referenz- bzw. die Streaming-Bedingung (N=18). Die Smartphone-Lautstärkeanpassung scheint daher zu vergleichbaren Sprachpräsentationspegeln für die beiden Bedingungen geführt zu haben.

Die Sprachverständlichkeit im Störgeräusch wurde ebenfalls mit dem OLSAf getestet. Zur Prüfung der SVS im Störgeräusch wurde die Sprache über das Smartphone und das Störgeräusch über einen Lautsprecher von vorne mit einer Intensität von 65 dB SPL präsentiert. Es wurden nur Messungen herangezogen, die sinnvoll konvergiert sind. Für jeweils 17 Teilnehmende konnten so SVS für Referenz und Streaming ermittelt werden. Für das Telefonieren im Störgeräusch führt die Streaming-Kondition zu einer signifikant besseren Sprachverständlichkeit als die Referenz-Kondition (gepaarter T-Test, T(16)=2,284, p<0,05, N=17; SVS-Messungen mit gleichzeitiger Ermittlung der Schwelle). In Abbildung 3A [Abb. 3] werden die mittleren SVS im Störgeräusch für die Messungen mit gleichzeitiger Abschätzung der Steigung dargestellt. Diese lagen bei –1,7±7,5 dB und –5,7±6,0 dB i-SNR für die Referenz- bzw. Streaming-Bedingung. Die mittlere Differenz betrug 4,0±7,3 dB i-SNR. Allerdings profitierten nicht alle Teilnehmenden von der Streaming-Kondition. Bei sechs der 17 Teilnehmenden wurde entweder nur wenig Veränderung oder eine Verschlechterung der SVS in der Streaming-Kondition beobachtet. Zudem zeigte sich, dass die Streaming-Kondition zusätzlich zu signifikant steileren Steigungen der Sprachverständlichkeitskurven führt (gepaarter T-Test, T(16)=–2,961, p<0,01, N=17). In Abbildung 3B [Abb. 3] sind die mittlere Sprachverständlichkeitsfunktionen für die Referenz- und Streaming-Bedingung abgebildet, die aus den Schwellenmessungen mit gleichzeitiger Steigungsermittlung durch Anpassung einer logistischen Funktion an die mittleren Werte für Sprachverständlichkeitsschwelle (SVS) und Steigung an der Schwelle (s50) erhalten wurden. Diese hat die Form

Gleichung 1

Die mittlere Steigung lag bei 7,5±3,2 %/dB und 11,4±5,5 %/dB für die Referenz bzw. Streaming-Bedingung. Das Minimum lag bei 2,0 bzw. 3,0 %/dB, das Maximum bei 12,0 bzw. 22,0 %/dB für die Referenz bzw. Streaming-Bedingung. Die ermittelten Steigungen waren teilweise sehr flach und die entsprechenden SVS somit in ihrer Reliabilität eingeschränkt. Schließt man Teilnehmende mit flachen Sprachverständlichkeitsfunktionen (Steigung von <5 %/dB) aus der Analyse aus, ergab sich für die verbliebenen zwölf Teilnehmenden eine mittlere SVS im Störgeräusch von –4,0±6,8 dB i-SNR und –7,8±4,4 dB i-SNR für die Referenz- bzw. Streaming-Bedingung, wobei dieser Unterschied aber knapp nicht mehr signifikant war (T(11)=1,633, p=0,066, N=12). Individuell betrachtet, befanden sich in dieser Untergruppe proportional mehr Teilnehmende (5/12), deren SVS sich in der Streaming-Kondition unverändert, bzw. verschlechtert zeigte. Die signifikante Zunahme in der Steilheit der Sprachverständlichkeitskurven für die Streaming- im Vergleich zur Referenzbedingung wurde aber auch für diese Untergruppe gefunden (T(11)=–2,835, p<0,01, N=12) und betrug im Mittel 3,6 %/dB.

Adaptive Kategoriale Höranstrengungsskalierung

Zusätzlich zur Frage nach der Höranstrengung innerhalb der Fragebögen und um Höranstrengungsbewertungen (ESCUs) als Funktion des SNR zu erhalten, führten die Teilnehmenden ACALES [22] durch. Wie beim OLSAf im Störlärm wurde die Sprache über das Smartphone und der Störlärm über Lautsprecher von vorne mit einem Pegel von 65 dB SPL präsentiert. Der Sprachpegel war ebenfalls identisch mit dem für den OLSAf (d.h. angepasst auf eine angenehme Lautstärke beim Hören des Hörbuchs, s.o.).

Vollständige ACALES-Daten wurden für 10 von 20 Teilnehmenden erhalten. ACALES war für die meisten Teilnehmenden sehr anstrengend, insbesondere in der Referenzbedingung, und wurde teilweise abgebrochen, weil die maximalen i-SNR bei zu hoher ESCU erreicht wurden (d.h. ACALES verzichtet in solchen Fällen auf eine weitere Erhöhung des i-SNR). Die i-SNRs für die verschiedenen Bewertungskategorien (ESCUs) unterschieden sich signifikant (two-way RM-ANOVA, FESCU(6,54)=78,976, p<0,001). Die resultierenden gemittelten ACALES-Daten zeigten im Vergleich zur Referenz eine signifikante Abnahme der Höranstrengungen mit Streaming (FT(1,54)=6,068, p<0,05, siehe Abbildung 4 [Abb. 4]). Abbildung 4 [Abb. 4] ist zu entnehmen, dass besonders im alltagsrelevanten positiven SNR Bereich die Streaming Bedingung einen großen Benefit zeigte, der bei ESCU 3 im Mittel ca. 6 dB i-SNR lag. D.h. der Umgebungslärm in der Streaming-Bedingung kann im Mittel 6 dB lauter sein im Vergleich zur Situation ohne Streaming, um zu einer Höranstrengung ‘sehr wenig anstrengend’ zu führen.

Allerdings zeigten sich bei ACALES starke individuelle Unterschiede. Bei einigen Teilnehmenden erfolgte keine Abnahme der Höranstrengung beim Streaming, sondern eher kein oder sogar ein gegenteiliger Effekt. Bezogen auf ESCU 7 (mittelgradig anstrengend) zeigten 7/10 eine Verbesserung von ≥4 dB i-SNR, 1/10 keine Verbesserung und 2/10 eine Verschlechterung von bis zu 7 dB i-SNR. Bei ESCU 1 (mühelos) zeigten dieselben 7/10 eine Verbesserung von ≥5 dB i-SNR, die Person ohne Verbesserung bei ESCU 7 zeigte eine leichte Verbesserung von knapp 1 dB i-SNR und die verbleibenden 2/10 wiederum eine Verschlechterung von bis zu 7 dB i-SNR.

Benutzerfreundlichkeit
System Usability Scale (SUS, Q5)

Die System Usability Scale nach Brooke [7] wurde von den Teilnehmenden bewertet, um einen Eindruck von der Benutzerfreundlichkeit des Telefonierens mit Streaming zu erhalten. U.a. wird abgefragt, ob die Teilnehmenden das neue System häufig benutzen würden oder ob sie es als umständlich empfinden. Einzelbewertungen wurden verwendet, um eine mittlere SUS-Gesamtpunktzahl zu erhalten. Diese betrug 85,3 Punkte, was auf eine als ‚exzellent‘ zu klassifizierende Benutzerfreundlichkeit der Smartphone-Telefonie mit direktem Streaming gemäß Bangor et al. [5] hindeutet.

Benutzerfreundlichkeit im Vergleich zur Referenz (SUS_comp, Q6)

Um einen Zugang zur Benutzerfreundlichkeit des Streamens beim Telefonieren im Vergleich zur Referenztelefonie zu erhalten, wurde ein Fragebogen verwendet, in dem beide hinsichtlich der Komplexität des Systems, der Einfachheit der Bedienung, der Benutzbarkeit ohne professionelle Hilfe, der Zusammenstellung der Systemfunktionen sowie der Intuitivität der Benutzung verglichen werden. Hierbei handelt es sich um ähnliche Aspekte der Benutzerfreundlichkeit wie im vorherigen Fragebogen Q5 abgefragt wurden. Die resultierenden Bewertungen von 19 der 20 Teilnehmenden sind in Abbildung 5 [Abb. 5] dargestellt. Eine Person konnte das Streamen mit den Hörsystemen nicht bewerten, nachdem sie nach dem Wechsel auf die Testgeräte kein ausreichendes Sprachverstehen erreichen konnte. In Bezug auf alle Aspekte bevorzugen die Teilnehmenden hinsichtlich der Benutzerfreundlichkeit das direkte Streamen gegenüber der Referenz.


Diskussion

Referenzkondition

Der Fragebogen zur Referenz-Telefonie in der vorliegenden Studie ergab, dass 75% der Teilnehmenden vorwiegend über Festnetztelefone und nur 25% mit dem Mobiltelefon telefonieren. Generell scheint für CI-Träger das Telefonieren mit dem Mobiltelefon herausfordernder zu sein als das Telefonieren mit einem Festnetztelefon. In einer Fragebogenstudie von Anderson et al. [2] fühlten sich 71% der CI-Träger in der Lage zu einem gewissen Maße mit Festnetztelefon zu telefonieren und nur 54% mit Mobiltelefonen (Mehrfachantworten). Laut der Studie von Anderson et al. [2] war das Sprechen über vertraute Themen mit Familienmitgliedern die einfachste Kondition und auch das Erkennen von Stimmen einfacher über das Festnetz. Obwohl sie in Ihrem Alltag nur wenig bis gar nicht über Mobiltelefon telefonieren, waren die meisten Teilnehmenden der vorliegenden Studie zumindest in einer ruhigen Situation gut in der Lage, ein Gespräch über das Mobiltelefon zu führen (Medianwert von mindestens 5 (viel) auf der Bewertungsskala von nichts (1) bis alles (7) bzgl. des Sprachverstehens).

Die Referenzkondition bestand aus sehr heterogenen, individuellen Lösungen, so dass die Differenzwerte Referenz/Streaming Kondition stärker streuen als es bei einer laborinduzierten Referenzbedingung zu erwarten gewesen wäre. Die Referenzkondition wurde bewusst divers gewählt, da dadurch dem Aspekt der ökologischen Validität Rechnung getragen werden konnte. Anekdotisch wird immer wieder berichtet, dass hochgradig bis an Taubheit grenzende hörgeschädigte Personen teilweise sehr fantasievolle ‚work arounds‘ zur Telefonie im Alltag benutzen, weil oftmals keine einfach zu bedienenden Telefonsysteme für den Nutzer zu Verfügung stehen. Die Daten zeigen insgesamt, dass die hier im Test eingesetzte MFi-Technologie offenbar zu einer deutlichen Verbesserung geführt hat und dass somit zu erwarten ist, mit dieser oder einer vergleichbaren Technologie die mühsamen ‚work arounds‘ vermeiden zu können.

Klangqualität

Die Klangqualität wurde in beiden Bedingungen als ähnlich gut wahrgenommen. Mithilfe von Kontrastpaaren stellte sich allerdings heraus, dass die Stimmen der Gesprächspartner für das direkte Streaming als deutlicher und näher als für die Referenz empfunden wurden. Letzteres mag vielleicht daran liegen, dass die Referenztelefonie überwiegend nur über das Mikrofon eines der Hörsysteme erfolgte, während die Streaming-Telefonie in jedem Fall auf beide Hörsysteme erfolgt. Die Verwendung beider Ohren kann möglicherweise den Klang der Stimmen in eine zentralere und damit nähere Wahrnehmung verlagern. Balfour und Hawkins [4] untersuchten das Hören monaural und bilateral versorgter Hörgeräteträger mit symmetrischem mildem oder moderatem Hörverlust anhand von Klangqualitätsdimensionen (Helligkeit, Klarheit, Volumen, Lautheit, Nähe, Gesamteindruck, Sanftheit und Räumlichkeit). Ihre Ergebnisse zeigten eine deutliche bilaterale Präferenz für alle acht Klangqualitätsdimensionen unabhängig von der Hörumgebung. Die bilateralen Präferenzen waren am stärksten für den Gesamteindruck, die Fülle und die Räumlichkeit. In einer Studie mit bimodal versorgten Probanden [9] wurde ebenfalls die präsentierte bimodale Hörsituation als voluminöser, weniger blechern und weniger unangenehm empfunden als CI allein. Unterschiede in der Bewertung zwischen Referenz- und Streaming-Kondition für einige der Kontrastpaare in der vorliegenden Studie können also durchaus auf eine unterschiedliche Wahrnehmung durch die in der Referenz zumeist unilaterale, bzw. in der Streaming-Kondition bilaterale Signalpräsentation zurückzuführen sein.

Benutzerfreundlichkeit

Die Benutzerfreundlichkeit für die Streaming-Bedingung ist besser als die Referenz und wird als ‚exzellent‘ bewertet. Dies ist bemerkenswert, da die meisten Teilnehmenden bisher noch nie Streaming bzw. Bluetooth im Zusammenhang mit Telefonieren verwendet haben. Einzig die „Benutzerfreundlichkeit ohne professionelle Hilfe“ wurde etwas schlechter bewertet, das heißt nicht, alle Probanden würden sich zutrauen, das System ohne Hilfe zu verwenden. Eine mögliche Ursache hierfür ist die Unsicherheit einiger der Teilnehmenden im Umgang mit Smartphones z.B. in Anbetracht dessen, dass zunächst das Smartphone und die Hörsysteme gekoppelt werden müssen. Generell lässt dieses Ergebnis hoffen, dass das Streamen beim Telefonieren mit einer entsprechenden Einweisung durch klinische Audiologen eine gute Akzeptanz bei den bimodalen Patienten erreichen kann.

Sprachverständlichkeit

Die bekannten Schwierigkeiten bei Studien mit bimodaler Versorgung, dass der Darbietungspegel auf der CI-Seite nicht akustisch gemessen werden kann, führte in der vorliegenden Studie dazu, dass der Sprachpräsentationspegel am bzw. im Ohr sowohl für die Referenz- als auch die Streaming-Kondition unbekannt ist. Pegel-Angaben für das Sprachsignal sind daher nicht absolut (siehe Definition von i-SNR unter Prozedur und Aufbau) und müssen mit Vorsicht interpretiert werden. Durch die Anpassung des Sprachpräsentationspegel für beide Konditionen wurden die Signale aber zumindest in der Relation zueinander gleich laut (auf eine angenehme Lautstärke) eingestellt, so dass auch SNR-Werte in Relation zueinander interpretierbar wurden. Generell scheint die Lautheitskategorie „Angenehm“ recht robust und weist in Studien nur eine geringe intraindividuelle Streuung auf [16].

Durch das Streamen der Sprachsignale in beide Hörsysteme konnte das subjektive Sprachverstehen in der ruhigen Laborsituation nur leicht gesteigert werden, da die Lautstärke des Smartphones im Vorfeld durch die Teilnehmenden angepasst (heruntergeregelt) wurde. Mögliche Effekte durch eine bessere Ankopplung beim Streaming wurden so ausgeglichen. Wäre diese Anpassung nicht vorgenommen worden, wäre der Unterschied in der subjektiven Sprachverständlichkeit voraussichtlich deutlicher gewesen. Die Sprachverständlichkeitstests zeigten allerdings, dass für ein Telefonat in störgeräuschbehafteter Situation eine Verbesserung des Sprachverstehens hervorgerufen wird. Die Sprachverständlichkeitsschwelle in Ruhe ist wesentlich durch die absolute Lautstärke der Sprachsignale beeinflusst, während Schwellen im Störgeräusch durch den Signal-Rausch-Abstand beeinflusst werden und über einen großen Bereich relativ unabhängig von der absoluten Lautstärke sind, solange die Signale gut gehört werden können [33]. Der Signal-Rausch-Abstand kann geändert werden, indem entweder das Sprachsignal oder das Störgeräusch in der Lautstärke verändert wird. Obwohl die Lautstärke der Smartphones unterschiedlich gewählt wurde, deuten die vorangegangenen adaptiven Sprachverständlichkeitsschwellen in Ruhe für die beiden Bedingungen (d.h. Referenz und Streaming) ähnliche, da in beiden Konditionen angenehme, Sprachpräsentationspegel an. Es kann daher trotz der individuellen Einstellung des Präsentationspegels der Sprache durch die Teilnehmenden anhand der Hörbuch-Präsentation davon ausgegangen werden, dass die besseren Sprachverständlichkeitsschwellen in Störgeräusch nicht durch einen wesentlich höheren Sprachpräsentationspegel zustande kamen. Vielmehr zeigt sich hier der Einfluss des Streamings auf das Störgeräusch. Ein externes Störgeräusch kann bei Telefonaten mit gestreamten Sprachsignalen besser abgeschwächt und/oder auch ausgeblendet werden. Der N6-Prozessor, den die meisten der Teilnehmenden beim Referenztermin trugen, hat ähnliche Signalvorverarbeitungen wie der N7-Prozessor, welche in erster Linie das Sprachverstehen im Störgeräusch verbessern sollen [36]. Warren et al. [36] zeigten, dass das Standard-Sprachverstehen in Ruhe und Störgeräusch (d.h. bei Präsentation von Sprache und ggf. Störgeräusch über Lautsprecher) für beide Signalprozessoren nicht signifikant voneinander abweicht, während das direkte Streaming der Signale auch dort eine Verbesserung im Vergleich zu der akustischen Telefonie ermöglichte.

Die Ergebnisse der vorliegenden Studie stehen im Einklang mit Ergebnissen von Marcrum et al. [25], in deren Arbeit Streaming die Satzerkennung signifikant verbessert und die Hörschwierigkeiten im Vergleich zu Telefonspulen- oder akustischen Kopplungskonfigurationen reduzierte. Die Ergebnisse einer Studie von Wolfe et al. [38] weisen ebenfalls darauf hin, dass die Verwendung von drahtloser Hörhilfetechnologie die Spracherkennung (hier Worte) über das Mobiltelefon in Ruhe und im Lärm im Vergleich zur Leistung bei der akustischen Mobiltelefonie einer Gruppe erwachsener CI-Träger verbessert. Sie schrieben die Verbesserung der Sprachverständlichkeit im Störgeräusch unter anderem einem verbesserten Signal-Rausch-Verhältnis durch Abschwächung des akustisch über die Mikrofone der Soundprozessoren übertragenen und durch das Störgeräusch beeinflussten Signale zu, sowie dem im Vergleich zur akustischen Übertragung vermutlich robusteren Signal beim Streaming. Dies gilt auch für die vorliegende Studie, in der die Default-Einstellung für das Streaming genutzt wurde. In dieser wurden die gestreamten Signale vom Smartphone mit den Signalen der Mikrofone am Sprachprozessor in einem Mischungsverhältnis von 2:1 dargeboten. Als Konsequenz des angepassten Sprachpräsentationspegels führte dies nur zu einem um 6 dB abgeschwächten Störgeräuschpegel in der Streaming-Kondition. Der Klang der gestreamten Hörspielstimme wurde im Median als deutlicher bewertet, was auf eine Reduktion von Verzerrungen (durch Umgehung der Smartphone-Lautsprecher) hindeutet.

Einen weiteren Beitrag kann auch die bilaterale Präsentation der Signale in der bimodalen Streaming-Kondition geleistet haben. In der Referenzkondition der vorliegenden Studie wurde vorwiegend einohrig telefoniert (das Smartphone wurde an eines der beiden Ohren bzw. Sprachprozessoren gehalten). Monaurale versus binaurale SVS im Störgeräusch können sich bei Satztests wie dem OLSA bei Normalhörenden um etwa 2 dB SNR zugunsten der binauralen Situation unterscheiden (nicht publizierte Daten). Beim Vergleich von uni- versus bilateral versorgten CI-Nutzern fanden Laback et al. [23] eine kleine, aber nicht signifikante Verbesserung von ca. 0,5 dB mit dem OLSA (S0N0-Bedingung). Auch andere Studien deuten darauf hin, dass sich das Sprachverstehen im Störgeräusch mit bilateraler Präsentation, bzw. Versorgung verbessert im Vergleich zur unilateralen Präsentation [3], [13], [14], [26]. Bei der bimodalen Versorgung wird dabei mit zwei verschiedenen Modalitäten gehört, die bis zu einem gewissen Grad komplementäre Informationen liefern – zum Beispiel im Frequenzbereich. Dem entspricht, dass der Klang der Hörspielstimme in dieser Studie in der Streaming-Kondition als tendenziell angenehmer und voluminöser empfunden als in der Referenzkondition. Hoppe et al. [19] fanden abhängig vom zugrunde liegenden Hörverlust auf der Hörgeräte-Seite eine zwischen 0.8 und 1.8 dB verbesserte SVS für Patienten in der bimodalen Kondition bezogen auf das versorgte bessere Ohr.

Dennoch scheint es auch gegenteilige Effekte zu geben (d.h. das monaurale Ergebnis ist besser als das binaurale Ergebnis), die sogenannte binaurale Interferenz [21]. Ausgehend vom Mischungsverhältnis von Umgebung (Störgeräusch) und gestreamten Sprachsignal wäre eine Verbesserung der SVS um theoretisch mindestens 6 dB möglich, beträgt aber in der vorliegenden Studie im Mittel nur ca. 4 dB. Dass die Verbesserung im Signal-Rauschverhältnis bei einer bimodalen Versorgung nicht unbedingt linear im mittleren Sprachverstehen zu finden ist, könnte zum Teil Effekten zuzuschreiben sein, die mit der binauralen Integration der Informationen beider Modalitäten interferiert, zumal in der vorliegenden Studie die beiden unterschiedlichen Hörsysteme bei der Anpassung auch nicht weiter (aufeinander) feinangepasst wurden. Neben den Unterschieden im Frequenzbereich können zum Beispiel Unterschiede in den Verarbeitungslatenzen zwischen den beiden Seiten (bis zu 9 ms [39]) nicht ausgeschlossen werden. Auch hatten die Teilnehmenden nur wenig Zeit, sich an die neuen Systeme zu akklimatisieren. In etwa 40% der Fälle mag dies dazu geführt haben, dass vor allem Teilnehmende mit steilen Sprachverständlichkeitskurven und relativ guten SVS für die Referenzkondition, nicht von der binauralen Situation profitierten, sondern sich im Gegenteil verschlechterten.

Wie bereits Dietz et al. [11] betonten, besteht die Tendenz, den Hörnutzen auf Basis der Veränderung des SVS-Wertes zu unterschätzen, wenn nicht auch Aussagen über die Steigung der Sprachverständlichkeitskurve gemacht werden können. Um die Verbesserung der Probanden zu interpretieren, ist es daher hilfreich, zusätzlich die Steigung der Sprachverständlichkeitskurve zu verwenden. Verschiedene Studien mit CI-Trägern beobachteten eine Tendenz zu flacheren Sprachverständlichkeitskurven bei Patienten mit höheren SVS [28], [17], [11]. Laut Dietz et al. [11] sollte dies mitbeachtet werden, wenn es um eine klinische Verbesserung der Patienten in Ihrer Sprachkompetenz geht. Bei den vorliegenden SVS-Messungen mit gleichzeitiger Abschätzung der Steigung zeigte sich, dass die Streaming-Kondition auch zu signifikant steileren Steigungen der Sprachverständlichkeitskurven führte. In diesem adaptiven Verfahren wird parallel einmal auf 20% und einmal auf 80%-Sprachverstehen konvergiert [6]. Der Schwellenwert für 80%-Verständlichkeit wird bei einem niedrigeren SNR erreicht, als in der Referenzkondition, während die 20%-Schwelle sich etwas weniger verbessert, dadurch „kippt“ die Funktion und wird steiler. Zusätzlich gibt dies einen Hinweis darauf, dass die Streuung in der Sprachverständlichkeit zwischen den verschiedenen Teilnehmenden im Bereich des guten Sprachverstehens geringer wird durch die Möglichkeit, auf beide Ohren zu streamen. Sie werden also durch die Streaming-Technologie ähnlicher in ihrer Kommunikationsfähigkeit über das Mobiltelefon.

Entgegen der Schlussfolgerung von Hey und Kollegen [17] konnten wir nicht beobachten, dass eine geringe SVS systematisch dazu führt, dass adaptive Messungen nicht gut konvergieren, zumindest nicht nach den verwendeten Verfahren. SVS, die im Bereich einer flachen Steigungen erhalten werden, weisen aber eine geringere Test-Retest-Reliabilität auf als SVS, die im Bereich einer steilen Steigung erhalten werden [17] und müssen daher kritisch gesehen werden. In unserer Studie sah man nach Ausschluss von Teilnehmenden mit flachen Sprachverständlichkeitsfunktionen noch immer eine im Mittel um ca. 4 dB verbesserte Sprachverständlichkeit mit Streaming, allerdings war dieser Unterschied knapp nicht mehr signifikant.

Höranstrengung

Es konnte in dieser Studie gezeigt werden, dass sich sowohl bei den subjektiven Bewertungen über den Fragebogen als auch bei dem adaptiven Verfahren ACALES statistisch nachweisbare Verbesserungen durch die Streaming-Technologie ergeben. Bei den Fragebogenverfahren waren diese Effekte etwas schwächer, da anzunehmen ist, dass dieses Verfahren weniger sensitiv ist, da über längere Zeiträume gemittelt werden muss (retrospektiver oder kumulativer Bias) und die Bedingungen weniger variiert werden konnten. Das adaptive Verfahren ACALES zeigte somit größere Unterschiede. Diese finden sich vor allem im Bereich positiver i-SNRs. Mit abnehmendem i-SNR nimmt der Unterschied zwischen Referenz und Streaming ab, was auch einer reduzierten Hörbarkeit des (Telefon-)Sprachsignals zugeschrieben werden kann.

Bei der Entwicklung der ACALES Messmethode [22] wurden Nutzer befragt, was Sie genau unter Höranstrengung verstehen. Im Gegensatz zu physiologischen und kognitiven Verfahren, bei denen die zugrunde liegenden Prozesse eher impliziter Natur sind, haben die Nutzer beschrieben, dass es sich bei der Bewertung unterschiedlicher SNR-Bedingungen um das Wegdrängen oder Ausblenden von irrelevanter Information handelt, somit weniger ein Perzept, sondern eine später erfolgte bewusste, explizite Bewertung des mentalen Aufwandes. Treten solche auditiv vermittelten Anstrengungen gehäuft auf, ist das Resultat Erschöpfung (engl. ‚Fatigue‘), vergl. McGarrigle et al. [27]. Die hier gezeigten Ergebnisse zeigen, dass der mentale Aufwand durch die Streaming-Technologie deutlich verringert werden konnte und dies insbesondere im alltagsrelevanten Bereich eines positiven SNR. Diese Unterschiede waren nicht nur rein statistisch gefasste Signifikanzgrößen: Bei 0 dB i-SNR wurde die Höranstrengung im Mittel um drei Skalenpunkten von ‚deutlich anstrengend‘ in der Referenzkondition bis ‚wenig/mittelgradig anstrengend‘ in der Streaming Kondition reduziert, so dass nutzerseitig auch von einer klinischen Relevanz auszugehen ist. McGarrigle et al. [27] folgend kann vermutet werden, dass sich akute, anstrengende Telefonsituationen über den (Berufs-) Alltag kumulativ zu einer Erschöpfungsreaktion manifestieren können und dass die hier eingesetzte MFi Technologie zu einer reduzierten Ermüdung führen kann. Die diesbezügliche wissenschaftliche Evidenz ist aber noch unbefriedigend [31] und bedarf weiterer Forschungsanstrengungen.

Eine Studie von Winneke et al. [37] zeigte, dass die Ergebnisse eines statisch durchgeführten ACALES Verfahrens, die eine reduzierte Höranstrengung für eine der untersuchten Mikrofon-Direktionalitäten von Hörgeräten aufzeigten, mit einer reduzierten alpha-Band-Aktivität von EEG-Messungen (9–12 Hz) für dieselbe Mikrofon-Direktionalität einhergingen. Auch in dieser Studie ist zu vermuten, dass die subjektiv erfasste Höranstrengung mit physiologischen Korrelaten einhergeht und durch das häufige Nutzen einer Streaming-Technologie ggf. Nacheffekte wie Ermüdung (Fatigue) durch die physiologische Beanspruchung und Adaptation des Hörsystems bei der Reizverarbeitung reduziert werden können. Ermüdungsbedingte Beeinträchtigungen können zum Beispiel die kognitiven Verarbeitungsfähigkeiten (z. B. Aufmerksamkeit, Verarbeitungsgeschwindigkeit, Gedächtnis) betreffen [20]. In zukünftigen Studien sollten auch physiologische Messungen, z.B. bei Personen, die im beruflichen Alltag viel telefonieren, parallel durchgeführt werden, um die Evidenzlage mentaler Belastungen und deren Nacheffekte im Sinne einer Gegensteuerung durch Mobilisieren von kognitiven Ressourcen zu erhärten

Besonders der Aspekt der Gebrauchstauglichkeit ist aus einer gesundheitspolitischen Perspektive heraus bedeutsam. Gemäß der ICF-Taxonomie und den Überlegungen von Granberg et al. [15] ist die Herstellung der Funktionsfähigkeit hinsichtlich der Partizipation, wie bei Konversationen mit einer oder mehreren Personen, wesentlich bei der Versorgung mit Hörhilfen und deren Zubehör, wie es bei der MFi-Technologie realisiert wird. Bei der ICF-Taxonomie ist die Partizipation, hier Konversation mit einer Person, eine wesentliche Ergebnisgröße und wird durch sogenannte Kontextfaktoren moderiert. Ein Kontextfaktor ist die Versorgung mit Hörhilfen und Zubehör, und wenn diese Technologien einfach zu bedienen sind, die Barrieren also gering sind, steigt die Nutzungsbereitschaft wodurch die Teilhabeprozesse ggf. erst ermöglicht oder wahrscheinlicher werden. Für den beruflichen Kontext, das mittlere Alter dieser Stichprobe lag bei ca. 50 Jahren, ist nicht nur eine erfolgreiche Teilhabe wesentlich, sondern auch die Vermeidung von psychischen Gefährdungen, die mittlerweile auch regulatorisch in Deutschland mehr Beachtung finden („Gefährdungsbeurteilung psychischer Belastungen“).


Schlussfolgerungen

Direktes beidseitiges Streamen kann bimodal versorgten Personen eine relevante Hilfe bei dem Telefonieren mit einem Smartphone sein. Dies zeigt sich vor allem im Hinblick auf Sprachverständlichkeit im Störgeräusch und Höranstrengung, während die Klangqualität sich nicht verschlechtert im Vergleich zu bislang genutzten Alternativen der Studienpopulation. Die Benutzerfreundlichkeit des Telefonierens mit direktem (bilateralem) Streamen wird als hoch eingeschätzt und scheint besser zu sein als die meisten von bimodal versorgten Hörsystemnutzern bislang benutzten Alternativen.

Das Streamen der Signale hilft bimodal versorgten Personen beim Telefonieren mit dem Smartphone und hat das Potenzial, die Partizipationsfähigkeit des Patienten im privaten und beruflichen Umfeld zu erhöhen. Durch die Reduktion von mentalen Belastungen und Nacheffekten bei gleichzeitiger Verbesserung der Kommunikationsfähigkeit ist davon auszugehen, dass die hier geprüfte Technologie in kommunikationsintensiven Berufen gesundheitsökonomisch auch für die Kostenträger und Unternehmen relevant ist.


Anmerkungen

Interessenkonflikte

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.

Die Autoren Hessel H und Meis M sind Mitarbeiter bei Cochlear Deutschland GmbH & Co.KG., Meis M erst seit 08/2022.

Finanzierung

Diese Arbeit wurde durch finanzielle Mittel der Cochlear Deutschland GmbH & Co. KG. ermöglicht.

Danksagung

Vielen Dank an die Patienten und das Team der Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus, Carl von Ossietzky Universität Oldenburg!

Gender-Hinweis

In diesem Beitrag wird aus Gründen der besseren Lesbarkeit das generische Maskulinum verwendet. Weibliche und anderweitige Geschlechteridentitäten sind dabei jedoch ausdrücklich mitgemeint.


Literatur

1.
Ahrlich M. Optimierung und Evaluation des Oldenburger Satztests mit weiblicher Sprecherin und Untersuchung des Effekts des Sprechers auf die Sprachverständlichkeit [Bachelorarbeit]. Oldenburg: Carl von Ossietzky Universität Oldenburg; 2013.
2.
Anderson I, Baumgartner WD, Böheim K, Nahler A, Arnoldner C, Arnolder C, D’Haese P. Telephone use: what benefit do cochlear implant users receive? Int J Audiol. 2006 Aug;45(8):446-53. DOI: 10.1080/14992020600690969 Externer Link
3.
Asp F, Mäki-Torkko E, Karltorp E, Harder H, Hergils L, Eskilsson G, Stenfelt S. Bilateral versus unilateral cochlear implants in children: speech recognition, sound localization, and parental reports. Int J Audiol. 2012 Nov;51(11):817-32. DOI: 10.3109/14992027.2012.705898 Externer Link
4.
Balfour PB, Hawkins DB. A comparison of sound quality judgments for monaural and binaural hearing aid processed stimuli. Ear Hear. 1992 Oct;13(5):331-9. DOI: 10.1097/00003446-199210000-00010 Externer Link
5.
Bangor A, Kortum P, Miller J. Determining What Individual SUS Scores Mean: Adding an Adjective Rating Scale. J Usability Stud. 2009;4:114-23.
6.
Brand T, Kollmeier B. Efficient adaptive procedures for threshold and concurrent slope estimates for psychophysics and speech intelligibility tests. J Acoust Soc Am. 2002 Jun;111(6):2801-10. DOI: 10.1121/1.1479152 Externer Link
7.
Brooke J. SUS – a quick and dirty usability scale. In: Jordan PW, Thomas B, Weerdmeester BA, McClelland AL, Hrsg. Usability Evaluation in Industry. London: Taylor and Francis; 1996.
8.
Clinkard D, Shipp D, Friesen LM, Stewart S, Ostroff J, Chen JM, Nedzelski JM, Lin VY. Telephone use and the factors influencing it among cochlear implant patients. Cochlear Implants Int. 2011 Aug;12(3):140-6. DOI: 10.1179/146701011X12998393351321 Externer Link
9.
Devocht EMJ, Janssen AML, Chalupper J, Stokroos RJ, George ELJ. The Benefits of Bimodal Aiding on Extended Dimensions of Speech Perception: Intelligibility, Listening Effort, and Sound Quality. Trends Hear. 2017 Jan-Dec;21. DOI: 10.1177/2331216517727900 Externer Link
10.
DGHNO. Weißbuch – Cochlea-Implantat (CI)-Versorgung Empfehlungen. 2018.
11.
Dietz A, Buschermöhle M, Sivonen V, Willberg T, Aarnisalo AA, Lenarz T, Kollmeier B. Characteristics and international comparability of the Finnish matrix sentence test in cochlear implant recipients. Int J Audiol. 2015;54 Suppl 2:80-7. DOI: 10.3109/14992027.2015.1070309 Externer Link
12.
Domingo Y, Holmes E, Johnsrude IS. The benefit to speech intelligibility of hearing a familiar voice. J Exp Psychol Appl. 2020 Jun;26(2):236-47. DOI: 10.1037/xap0000247 Externer Link
13.
Feuerstein JF. Monaural versus binaural hearing: ease of listening, word recognition, and attentional effort. Ear Hear. 1992 Apr;13(2):80-6.
14.
Freyaldenhoven MC, Plyler PN, Thelin JW, Burchfield SB. Acceptance of noise with monaural and binaural amplification. J Am Acad Audiol. 2006 Oct;17(9):659-66. DOI: 10.3766/jaaa.17.9.5 Externer Link
15.
Granberg S, Möller K, Skagerstrand A, Möller C, Danermark B. The ICF Core Sets for hearing loss: researcher perspective, Part II: Linking outcome measures to the International Classification of Functioning, Disability and Health (ICF). Int J Audiol. 2014 Feb;53(2):77-87. DOI: 10.3109/14992027.2013.858279 Externer Link
16.
Hawley ML, Sherlock LP, Formby C. Intra- and Intersubject Variability in Audiometric Measures and Loudness Judgments in Older Listeners with Normal Hearing. Semin Hear. 2017 Feb;38(1):3-25. DOI: 10.1055/s-0037-1598063 Externer Link
17.
Hey M, Hocke T, Hedderich J, Müller-Deile J. Investigation of a matrix sentence test in noise: reproducibility and discrimination function in cochlear implant patients. Int J Audiol. 2014;53(12):895–902. DOI: 10.3109/14992027.2014.938368 Externer Link
18.
Holmes E, Domingo Y, Johnsrude IS. Familiar Voices Are More Intelligible, Even if They Are Not Recognized as Familiar. Psychol Sci. 2018 10;29(10):1575-83. DOI: 10.1177/0956797618779083 Externer Link
19.
Hoppe U, Hocke T, Digeser F. Bimodal benefit for cochlear implant listeners with different grades of hearing loss in the opposite ear. Acta Otolaryngol. 2018 Aug;138(8):713-21. DOI: 10.1080/00016489.2018.1444281 Externer Link
20.
Hornsby BW, Naylor G, Bess FH. A Taxonomy of Fatigue Concepts and Their Relation to Hearing Loss. Ear Hear. 2016 Jul-Aug;37 Suppl 1:136S-44S. DOI: 10.1097/AUD.0000000000000289 Externer Link
21.
Jerger J, Silman S, Silverman C, Emmer M. Binaural Interference: Quo Vadis? J Am Acad Audiol. 2017 Apr;28(4):266-70. DOI: 10.3766/jaaa.28.4.1 Externer Link
22.
Krueger M, Schulte M, Brand T, Holube I. Development of an adaptive scaling method for subjective listening effort. J Acoust Soc Am. 2017 06;141(6):4680. DOI: 10.1121/1.4986938 Externer Link
23.
Laback B, Pok SM, Schmid K, Deutsch WA, Baumgartner WD. Efficiency of binaural cues in a bilateral cochlear implant listener. 2002. Available from: http://www.sea-acustica.es/index.php?id=301 Externer Link
24.
Lenarz T. Cochlear implant - state of the art. GMS Curr Top Otorhinolaryngol Head Neck Surg. 2018 Feb 19;16:Doc04. DOI: 10.3205/cto000143 Externer Link
25.
Marcrum SC, Picou EM, Steffens T. Avoiding disconnection: An evaluation of telephone options for cochlear implant users. Int J Audiol. 2017 03;56(3):186-93. DOI: 10.1080/14992027.2016.1247502 Externer Link
26.
McArdle RA, Killion M, Mennite MA, Chisolm TH. Are two ears not better than one? J Am Acad Audiol. 2012 Mar;23(3):171-81. DOI: 10.3766/jaaa.23.3.4 Externer Link
27.
McGarrigle R, Munro KJ, Dawes P, Stewart AJ, Moore DR, Barry JG, Amitay S. Listening effort and fatigue: what exactly are we measuring? A British Society of Audiology Cognition in Hearing Special Interest Group 'white paper'. Int J Audiol. 2014 Jul;53(7):433-40. DOI: 10.3109/14992027.2014.890296 Externer Link
28.
Müller-Deile J. Sprachverständlichkeitsuntersuchungen bei Kochleaimplantatpatienten [Speech intelligibility tests in cochlear implant patients]. HNO. 2009 Jun;57(6):580-92. DOI: 10.1007/s00106-009-1930-3 Externer Link
29.
Picou EM, Ricketts TA. Comparison of wireless and acoustic hearing aid-based telephone listening strategies. Ear Hear. 2011 Mar-Apr;32(2):209-20. DOI: 10.1097/AUD.0b013e3181f53737 Externer Link
30.
Picou EM, Ricketts TA. Efficacy of hearing-aid based telephone strategies for listeners with moderate-to-severe hearing loss. J Am Acad Audiol. 2013 Jan;24(1):59-70. DOI: 10.3766/jaaa.24.1.7 Externer Link
31.
Schulte M, Heeren J, Mirkovic B, Meis M, Latzel M. Helfen Hörgeräte die Hörermüdung zu reduzieren? In: Deutsche Gesellschaft für Audiologie e.V., Hrsg. 23. Jahrestagung der Deutschen Gesellschaft für Audiologie. Köln, 03.-04.09.2020. Düsseldorf: German Medical Science GMS Publishing House; 2020. Doc147. DOI: 10.3205/20dga147 Externer Link
32.
Sousa AF, Couto MIV, Martinho-Carvalho AC. Quality of life and cochlear implant: results in adults with postlingual hearing loss. Braz J Otorhinolaryngol. 2018 Jul - Aug;84(4):494-9. DOI: 10.1016/j.bjorl.2017.06.005 Externer Link
33.
Wagener KC. Factors influencing sentence intelligibility in noise [Dissertation]. Oldenburg: Carl von Ossietzky Universität Oldenburg, bis-Verlag; 2004
34.
Wagener KC, Brand T, Kollmeier B. Entwicklung und Evaluation eines Satztests für die deutsche Sprache III: Evaluation des Oldenburger Satztests. Z Audiol. 1999;38(3):86-95.
35.
Wagener KC, Hochmuth S, Ahrlich M, Zokoll MA, Kollmeier K. Der weibliche Oldenburger Satztest. In: Deutsche Gesellschaft für Audiologie e. V., Hrsg. Abstracts der 17. Jahrestagung der Deutschen Gesellschaft für Audiologie [CD-Rom]; 2014. ISBN: 978-3-939296-06-5
36.
Warren CD, Nel E, Boyd PJ. Controlled comparative clinical trial of hearing benefit outcomes for users of the Cochlear™ Nucleus® 7 Sound Processor with mobile connectivity, Cochlear Implants International. Cochlear Implants Int. 2019 05;20(3):116-26. DOI: 10.1080/14670100.2019.1572984 Externer Link
37.
Winneke AH, Schulte M, Vormann M, Latzel M. Effect of Directional Microphone Technology in Hearing Aids on Neural Correlates of Listening and Memory Effort: An Electroencephalographic Study. Trends Hear. 2020 Jan-Dec;24. DOI: 10.1177/2331216520948410 Externer Link
38.
Wolfe J, Morais Duke M, Schafer E, Cire G, Menapace C, O’Neill L. Evaluation of a wireless audio streaming accessory to improve mobile telephone performance of cochlear implant users. Int J Audiol. 2016;55(2):75-82. DOI: 10.3109/14992027.2015.1095359 Externer Link
39.
Zirn S, Angermeier J, Arndt S, Aschendorff A, Wesarg T. Reducing the Device Delay Mismatch Can Improve Sound Localization in Bimodal Cochlear Implant/Hearing-Aid Users. Trends Hear. 2019 Jan-Dec;23. DOI: 10.1177/2331216519843876 Externer Link