gms | German Medical Science

GMS Zeitschrift für Audiologie — Audiological Acoustics

Deutsche Gesellschaft für Audiologie (DGA)

ISSN 2628-9083

Sprachtests im Online-Experiment am Beispiel des Oldenburger Satztests

Originalarbeit

  • corresponding author Anne Schlüter - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
  • Elisabeth-Sophie Baumann - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
  • Fatma Ben Ghorbal - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
  • Nele Hauenschild - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
  • Alina Kleinow - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
  • Vanessa Mazur - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
  • Julia Thomas - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
  • Inga Holube - Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland

GMS Z Audiol (Audiol Acoust) 2024;6:Doc05

doi: 10.3205/zaud000040, urn:nbn:de:0183-zaud0000401

Dieses ist die deutsche Version des Artikels.
Die englische Version finden Sie unter: http://www.egms.de/en/journals/zaud/2024-6/zaud000040.shtml

Veröffentlicht: 16. April 2024

© 2024 Schlüter et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Während der COVID-19-Pandemie waren audiologische Untersuchungen im Labor nur unter sehr strengen Hygienemaßnahmen bzw. gar nicht möglich. Um dieses Hindernis zu umgehen, wurde ein Online-Experiment mit dem synthetischen Sprachmaterial des Oldenburger Satztests (OLSA) implementiert. Dadurch sollte geprüft werden, ob online mit synthetischer Sprache vergleichbare Ergebnisse erzielt werden wie in einem vorhergehenden Experiment im Labor. Mithilfe der Plattform Gorilla (https://gorilla.sc/) wurde ein Online-Experiment erstellt und durch einen Link über verschiedene Kommunikationskanäle (z. B. in Social Media) weitergegeben. Aufgerufen wurde dieser Link 182 Mal, was zu 81 vollständigen Datensätzen führte. Die ermittelten Sprachverständlichkeitsschwellen von 69 Probanden sind vergleichbar mit den Ergebnissen aus der Laborsituation. Allerdings wichen die Steigungen der Diskriminationsfunktionen signifikant voneinander ab. Grundsätzlich konnte gezeigt werden, dass der synthetische OLSA auch als Online-Experiment durchführbar ist. Hürden im Vergleich zur Labormessung zeigten sich jedoch bei Rekrutierung und Motivation der Probanden.

Schlüsselwörter: OLSA, Online-Experiment, SRT, synthetische Sprache


1 Einleitung

In wissenschaftlichen Studien werden die meisten audiologischen Messungen, wie z. B. Sprachverständlichkeitsmessungen, in Laboren oder dafür vorgesehenen akustisch optimierten Räumen durchgeführt, die mit den dafür notwendigen Messapparaturen und -aufbauten ausgestattet sind. Während der COVID-19-Pandemie und den daraus folgenden Hygiene- und Schutzmaßnahmen waren Messungen im Labor nur schwierig bis gar nicht umsetzbar [1]. Um dennoch Untersuchungen realisieren zu können, bieten Messungen, die zuhause online durchgeführt werden, eine mögliche Alternative. Daraus ergeben sich die Fragen, ob bestimmte audiologische Untersuchungen wie ein Sprachtest auch online umgesetzt und so auch zuhause durchgeführt werden können und ob die Ergebnisse vergleichbar mit Labormessungen sind.

Nach Sauter et al. [2] sind für die Entwicklung einer Online-Studie folgende Schritte notwendig: a) das Programmieren des Experimentes z. B. zur Nutzung mit einem Browser, b) das Aufbauen eines geeigneten Testumfeldes z. B. mithilfe eines Online-Hosts auf einem Server und c) das Rekrutieren der Probanden. Für die grundsätzliche Umsetzung von Online-Verhaltens-Experimenten im Browser stellt Gorilla (https://gorilla.sc/) eine Online-Plattform zur Verfügung [3]. Sie ermöglicht die Umsetzung eigener Experimente über einfache graphische Benutzeroberflächen oder die Erstellung von JavaScript-Code. Dazu stellt Gorilla einen cloudbasierten Server und das Servermanagement bereit, die auch den Anforderungen der Datenschutz-Grundverordnung entsprechen [4]. So ist z. B. die grundsätzliche Funktionalität einer audiologischen Messung, die Darbietung und Veränderung von Audiosignalen sowie die Aufnahme der Reaktion des Probanden auf diese Signal über einen Browser möglich. Die Experimente können potentiellen Probanden über z. B. einen Link zugänglich gemacht werden oder die Probanden werden über Rekrutierungs-Portale wie z. B. Prolific oder MTurk (für eine Übersicht siehe [2], [5]) kontaktiert. Nach Abschluss der Experimente kann über eine Datenbank auf die erhobenen Daten zugegriffen, diese heruntergeladen und weiter ausgewertet werden.

Verschiedene Aspekte schränken die Auswahl des Sprachtests und seine Programmierung für ein Online-Experiment ein. Prinzipiell fehlen Einflussmöglichkeiten auf das Messequipment, wie z. B. der verwendete Kopfhörer und die Soundkarte. Über einen Antiphasentest [6] kann zwar die grundsätzliche Nutzung von Kopfhörern sichergestellt werden, aber eine exakte Kalibrierung des Messaufbaus ist nicht möglich. Deshalb können im Online-Experiment nur die Hörbarkeit sichergestellt und relative Änderungen der Pegel als Ergebnisse ermittelt werden. Der Einfluss möglicher Hintergrundgeräusche kann nur minimiert werden, indem die Signale deutlich überschwellig dargeboten werden. Für einen Online-Sprachtest eignet sich unter den genannten Aspekten deshalb ein Test im Störgeräusch, mit dem eine Sprachverständlichkeitsschwelle (engl. Speech Recognition Threshold, SRT) ermittelt wird. Diese beschreibt den Signal-Rausch-Abstand (engl. Signal-to-Noise Ratio, SNR), bei dem 50% der Sprache verstanden wird. Außerdem ist es in einem Online-Test einfacher, geschlossene Antwortmöglichkeiten, also eine Auswahl aller Antwortmöglichkeiten, anzubieten, als ein freies Antworten zu ermöglichen. Die Antworteingabe im geschlossenen Test kann direkt in Verständlichkeits-Werte umgewandelt und im Verlauf der Messung weiter z. B. für eine adaptive Steuerung genutzt werden. Alternativen für eine offene Durchführung wie Audioaufnahmen oder Texteingaben müssten im laufenden Online-Experiment erst durch Sprach- oder Texterkenner als richtig oder falsch interpretiert werden, um sie dann in Verständlichkeitswerte zu überführen. Bei der Interpretation können Fehler entstehen, da Nachfragen durch den Untersucher wie im Labor nicht möglich sind. Um eine geschlossene Umsetzung für ein Online-Experiment zu ermöglichen, ist ein deutlich begrenztes Sprachmaterial notwendig. Gleichzeitig muss beachtet werden, dass das begrenzte Sprachmaterial selbst nicht erlernbar bzw. der Lerneffekt kontrollierbar ist.

Ein Sprachtest, der diese Kriterien erfüllt, ist der Oldenburger Satztest (OLSA, [7], [8], [9]). Seine Sätze besitzen eine einheitliche syntaktische Struktur: Name Verb Zahl Adjektiv Objekt. Je zehn Wörter stehen in jeder Wortgruppe zur Verfügung, die unterschiedlich miteinander kombiniert werden können. Dabei entstehen Sätze, die grammatikalisch richtig sind, aber nicht immer einen Sinn ergeben (z. B. „Peter kauft zehn nasse Sessel.“). Das dazugehörige Rauschen wurde durch zufällige Überlagerung des Sprachmaterials erzeugt und besitzt dadurch das gleiche Langezeitspektrum wie die Sprache. Den Probanden werden die OLSA-Sätze im Rauschen vorgespielt und ihre Aufgabe ist es, die verstandenen Wörter zu wiederholen oder sie in der Eingabemaske auszuwählen. In Abhängigkeit von den verstandenen Wörtern wird der SNR adaptiv verändert, um den SRT zu ermitteln. Aufgrund des begrenzten Sprachmaterials ist der OLSA als geschlossener Test durchführbar und das Antwortverhalten der Probanden lässt sich wortgenau dokumentieren. Aufgrund der geringen Anzahl der Wörter pro Wortgruppe kann ein Lerneffekt auftreten [7], [8]. Deshalb muss vor der Messung das Sprachmaterial mit zwei Listen geübt werden [10].

Für die originale Version des OLSA wurden die Sätze von einem männlichen Sprecher eingesprochen [7], [8], [9]. Als weitere Variante wurde das Sprachmaterial mit einer weiblichen Sprecherin aufgenommen [11], [12]. Von Nuesse et al. [13] wurde das Sprachmaterial mit einem Text-to-Speech-System mit einer weiblichen Stimme synthetisiert und mit den Aufnahmen der natürlichen weiblichen Sprecherin im Labor verglichen. An diesen Messungen nahmen 48 Probanden (mittleres Alter: 21,8 Jahre) teil. Sie waren normalhörend, sprachen Deutsch als Muttersprache und ihnen war der OLSA unbekannt. Nuesse et al. [13] zeigten, dass bei Messungen mit der synthetisch erzeugten Sprecherin ein ähnliches Sprachverstehen wie mit der natürlichen Sprecherin erzielt wird. Das synthetisierte Sprachmaterial steht für Forschungszwecke frei zur Verfügung [14]. Deshalb wurde es für das Online-Experiment verwendet.

Bei der Rekrutierung und Durchführung von Online-Studien zeigen sich Vor- und Nachteile. Reips [15] beschreibt die Möglichkeit, eine größere Anzahl an Probanden in kürzerer Zeit zu rekrutieren. Die Stichprobe zeigt i. d. R. eine größere Diversität und ist damit der Allgemeinbevölkerung ähnlicher als Probanden, die für Labormessungen rekrutiert wurden. Diese Diversität zeigt sich auch im verwendeten Messequipment. Da die Probanden die Messungen selbständig durchführen, sind die Messungen kostengünstig und frei von Fehlern, die vom Untersucher erzeugt werden könnten. Durch den fehlenden persönlichen Kontakt bleibt aber auch die Beobachtung der Probanden hinsichtlich ihrer Motivation und ihres Antwortverhaltens aus. Mehrfachteilnahmen oder die Teilnahme von Bots sind möglich. Hinzu kommt, dass die Teilnahmebereitschaft und Konzentration von Probanden bei Online-Studien mit steigender Studiendauer sinkt (z. B. [16], [2]). Eine Studienlänge von über 30 min ist zwar durchführbar, kann aber durchaus demotivierend wirken [2]. Grundsätzlich muss mit größeren Abbrecherquoten als bei Labor-Studien gerechnet werden [15].

Um also die grundsätzliche Frage, ob Sprachtests online zuhause eingesetzt werden können, zu beantworten, wurde ein Online-Experiment mit dem OLSA über die Plattform Gorilla erstellt und durchgeführt. Aspekte, die die Randbedingungen des Experimentes beschreiben, wie z. B. Teilnehmerzahlen, Abbrecherquoten und Durchführungsdauern, werden dargestellt. Basierend auf der Hypothese, dass keine Unterschiede vorliegen, wurden die ermittelten SRT-Werte und Steigungen im Online-Experiment mit denjenigen verglichen, die von Nuesse et al. [13] im Labor erhoben wurden.


2 Methode

2.1 Messumgebung und -equipment

Die Probanden konnten über einen von Gorilla bereitgestellten Link das Online-Experiment jederzeit an jedem Ort mit einem Tablet oder Computer (Laptop und Desktop), der einen Internetzugriff erlaubte, aufrufen. Gorilla bietet verschiedene Möglichkeiten, die Rahmenbedingungen eines Experimentes einzuschränken. So kann z. B. das Medium ausgewählt werden, über das ein Online-Experiment vom Probanden durchgeführt werden kann. Tablets oder Computer wurden für dieses Experiment zugelassen. Mobiltelefone wurden ausgeschlossen, da angenommen wurde, dass sie häufiger als Computer oder Tablets in schnell veränderlichen Situationen eingesetzt werden. So sollte eine stabile und reliable Messumgebung gefördert werden. Browsertyp, Standort und Verbindungsgeschwindigkeit wurden nicht eingeschränkt. Außerdem wurden die Probanden gebeten, das Experiment nicht über Lautsprecher durchzuführen, sondern Kopfhörer zu tragen. Dies sollte ebenfalls die Stabilität und Reliabilität der Messsituation unterstützen.

2.2 Erstellung des Online-Experimentes

2.2.1 Aufbau des Experimentes

Online-Experimente auf der Plattform Gorilla [5] sind modular aufgebaut. Verschiedene Elemente wie sogenannte Questionnaires und Tasks werden separat für die Ausführung durch die Probanden erzeugt. Die Bestandteile der Questionnaires eignen sich zum Beispiel, um Formulare zu konstruieren oder auch Skalen und andere Arten von Fragebögen einzubinden. Tasks werden im Task Builder für die Probanden erstellt. So können verschiedene graphische Oberflächen kreiert werden, in denen die Aufgaben für Probanden integriert sind. Ebenso werden darin die Darstellungsreihenfolge der graphischen Oberflächen über das Spreadsheet und die Ergebnisstruktur definiert, sowie Stimuli (z. B. Abbildungen, Audiodateien oder Videos) bereitgestellt.

Der generelle Ablauf des hier verwendeten Experimentes ist in Abbildung 1 [Abb. 1] dargestellt. Gestartet wurde das Experiment mit einem Questionnaire, der auf seiner ersten Seite die Probanden begrüßte sowie über den Ablauf und die grundsätzlichen Anforderungen informierte. Zusätzlich wurde auf die ungefähre Messdauer von 30 min hingewiesen und die Verwendung eines Kopfhörers empfohlen sowie auf eine detaillierte Probandeninformation verlinkt. Auf weiteren Seiten wurden Kontaktinformationen eingeblendet, das Einverständnis zur Freiwilligkeit und Anonymität eingeholt, über den Datenschutz informiert und die Einwilligung zur Teilnahme erbeten. Um die Ergebnisse zu pseudonymisieren, folgte ein Task, mit dem ein persönliches Codewort erstellt wurde.

Im weiteren Verlauf des Experimentes wurden die Probanden aufgefordert, einen Anamnesefragebogen auszufüllen. Hier wurden allgemeine Daten wie das Alter, das Geschlecht, die Muttersprache und Angaben bezüglich des allgemeinen Gesundheitszustandes, einem möglichen Hörproblem sowie die Bekanntheit des OLSA mit weiblicher Sprecherin erfasst. Nach dem Gesundheitszustand wurde gefragt, um eine nachträgliche Auswahl der Daten vornehmen zu können und evtl. erkrankte Probanden, bei denen eine Beeinflussung des Messergebnisses aufgrund einer Erkrankung unklar ist, auszuschließen. Nach dem weiblichen OLSA wurde explizit gefragt, um ebenfalls eine nachträgliche Auswahl der Daten vornehmen zu können und gleichzeitig nicht zu viele Datensätze aufgrund der generellen Kenntnis der Probanden über den OLSA auszuschließen. Gaben die Probanden an, ein Hörproblem festgestellt zu haben, so wurden sie zu einem weiteren Fragebogen geleitet. Dieser erfragte eine Seitenungleichheit des Gehörs (Frage: Hören Sie mit beiden Ohren gleich gut?, Antwortmöglichkeiten: Ja, Nein, Weiß nicht) und den Grad des Hörverlustes (Frage: Bitte beschreiben Sie den Grad Ihres Hörverlustes (auf dem besseren Ohr); Antwortmöglichkeiten: sehr schwach, schwach, mittel, stark, sehr stark). An der Studie durften nur Personen teilnehmen, die zwischen 18 und 30 Jahre waren, als Muttersprache Deutsch und keinen oder einen sehr schwachen Hörverlust hatten. Entsprachen die Angaben nicht den festgelegten Einschlusskriterien der Studie, bekamen die Probanden eine Information zu ihrem Ausschluss angezeigt und das Experiment wurde automatisch beendet. Andernfalls konnten sie das Experiment fortsetzen.

Dann folgte ein Task zur Einstellung einer angenehmen Lautstärke der Stimuli (Sprache und Rauschen). Die Einstellung der Lautstärke erfolgte über den Hauptlautstärkesteller für die Audioausgabe des eigenen Computers bzw. Tablets. Zuerst sollte die Hauptlautstärke auf 0 gestellt und anschließend der Pegel des präsentierten Rauschens mit dem Hauptlautstärkesteller auf eine angenehme Lautstärke justiert werden. Im Weiteren sollte diese Einstellung mit einem präsentierten Sprachsignal vom Probanden nachjustiert werden, wenn die Sprache nicht verstanden wurde, und abschließend bestätigt werden. Diese Einstellung des Hauptlautstärkestellers des jeweiligen Endgerätes (Tablet oder Computer) war Grundlage für das weitere Experiment und konnte durch Gorilla nicht ausgelesen bzw. nicht in Gorilla verändert werden. Eine Übersteuerung der Signale im Online-Experiment war nicht zu erwarten, da Probanden mit einem normalen Gehör untersucht wurden und in Gorilla der Pegel angenehmer Lautheit lediglich durch die Veränderungen des SNR im OLSA angepasst wurde.

Nach der Einstellung der Lautstärke folgte ein Task, der die Nutzung von Kopfhörern mit Hilfe eines in Gorilla vorliegenden Antiphasentests [6] überprüfte. Hierzu wurden drei reine Töne in Stereo dargeboten, wovon ein Ton eine 180°-Phasenverschiebung auf einem Kanal aufweist. Die Probanden hatten die Aufgabe, den leisesten Ton auszuwählen. Diese Aufgabe sollte aufgrund der Phasenauslöschung bei Verwendung von Lautsprechern schwierig sein. Woods et al. [6] zeigten, dass Probanden zuverlässig nach der Nutzung von Kopfhörern und Lautsprechern unterschieden werden konnten. Nach der Durchführung des Antiphasentests wurde das Experiment für Probanden beendet, die keinen Kopfhörer nutzten. Beim letzten Schritt des Experimentes handelte es sich um den Task, der den OLSA beinhaltete (siehe Abschnitt 2.1.3).

In Gorilla wurde die Bearbeitungszeit für dieses Online-Experiment auf 2 h limitiert und nach dieser Zeit wurde es automatisch beendet. Diese Einschränkung war notwendig, um die Datenerfassung abschließen zu können und begonnene Experimente, die aber nicht fortgeführt wurden, abzubrechen. Nach Abschluss jedes Tasks und jedes Questionnaires wurden die dazugehörigen Daten automatisch von Gorilla in Tabellen gespeichert. Allerdings konnten nur für durch die Probanden komplett abgeschlossene Experimente die Messdaten abgerufen werden. Für jedes vollständig durchgeführte Experiment musste ein Betrag an Gorilla bezahlt werden [5].

2.2.2 OLSA in Gorilla

Für die Messung des OLSA in Gorilla wurde das Sprachmaterial genutzt, das mit einer synthetisch erzeugten weiblichen Stimme generiert wurde [13]. Zusätzlich wurde das dazugehörige Rauschen verwendet. Jeweils 30 Sätze bildeten eine Liste. Insgesamt wurden 45 Listen als mp3-Dateien (Bitrate bei der Umwandlung von wav- in mp3-Format mit maximal möglicher Qualität von 320 kbits/s, Konvertierung durchgeführt mit der Webseite: https://online-audio-converter.com/de/) in Gorilla implementiert. Diese entsprechen den Listen aus Nuesse et al. [13]. Die Probanden hatten die Aufgabe, die verstandenen Wörter aus einer Antwortmatrix (10x5), die auf dem Bildschirm dargestellt war, auszuwählen. Während der Messung wurde ein fester Sprachpegel dargeboten und der Rauschpegel wurde abhängig von der Antwort des Probanden adaptiv angepasst. Der Sprachpegel wurde konstant gehalten, da dieser zuvor durch den Probanden in der Einstellung des Darbietungspegels so gewählt wurde, dass die Sprache verständlich war. Die adaptive Anpassung wird auch im originalen OLSA [7], [8], [11] angewendet und wurde von Brand und Kollmeier [17] beschrieben. Der SNR des ersten Satzes einer Liste betrug immer 0 dB. Die Probanden führten den OLSA dreimal nacheinander durch. Bei den ersten beiden Listen handelte es sich um Trainingslisten [7], [8], [9], [10].

In der Task Structure für den OLSA wurden vier Oberflächen erstellt. In der ersten Oberfläche wurde die Funktion Fullscreen eingebaut. Damit wurde automatisch der Bildschirm des Nutzers zu Beginn im Vollbildmodus angezeigt. Dadurch sollte die Konzentration der Probanden auf den Sprachtest erleichtert werden. Ein Textfenster mit einer ausführlichen Einweisung zum OLSA folgte. Diese beinhaltete das Ziel der Messung, den genauen Ablauf, eine Beschreibung der Stimuli, die Dauer und Anzahl der Sätze bzw. Satzlisten sowie die genaue Aufgabe des Probanden. Außerdem wurde darauf hingewiesen, dass der Sprachtest bewusst unter schwierigen Bedingungen stattfindet und dass Pausen jederzeit möglich sind.

Nach dem Starten der Messung folgte eine Oberfläche, in der der Start einer Satzliste bzw. die Ankündigung des nächsten Messdurchgangs eingebettet waren. Beim Betätigen des Buttons „Nächste Messung“ wurde die Antwort-Oberfläche aktiviert. Sie zeigte zunächst für die Zeit der Satzpräsentation einen weißen Bildschirm, damit die Aufmerksamkeit des Probanden auf das Verstehen des Satzes gerichtet wurde und die Darstellung der Antwortmatrix und eines Fortschrittsbalkens von diesem nicht ablenkt. Erst nach der Satzpräsentation wurde die Antwortmatrix für die Eingabe der verstandenen Satzteile eingeblendet und ein Fortschrittsbalken dargestellt. Diese Oberfläche ist mit einem Spreadsheet verknüpft, das die Darstellung der Antwortoptionen ermöglicht und auch die Reihenfolge und Häufigkeit der zuvor erstellen Oberflächen aufgreift. Das Spreadsheet wurde auch dafür genutzt, die Ergebnisstruktur für jeden Probanden festzulegen. Es wurden u. a. die SNR-Werte sowie die Anzahl der richtig verstandenen Wörter pro Satz in die Tabelle mit aufgenommen. Der nächste Satz wurde dann mit dem Button „Weiter“ gestartet. Den Probanden wurde keine Rückmeldung zum Verständnis der Wörter gegeben. Die letzte Oberfläche des OLSA beinhaltete ein Kommentarfeld für die Personen, die am Experiment teilgenommen haben, und die Kontaktinformationen der Studienleiterinnen.

Der OLSA-Task wurde mithilfe des Skript-Editors in JavaScript bzw. HTML so erweitert, dass die OLSA-Stimuli abgespielt werden konnten. Dabei wurde berücksichtigt, dass die Listen und die Sätze innerhalb einer Liste randomisiert wiedergegeben wurden. Zusätzlich wurde der Abgleich der Probandeneingabe mit dem jeweils dargebotenen OLSA-Satz und die genutzte Pegelsteuerung des adaptiv angepassten Rauschpegels nach Brand und Kollmeier [17] implementiert.

Nach Abschluss der Messphase wurden alle auf der Gorilla-Plattform gespeicherten Ergebnisse von jedem Probanden, der die Messungen abgeschlossen hatte, von den Studienleiterinnen heruntergeladen. Für den OLSA lagen damit die Anzahl der richtig verstandenen Wörter sowie die dazugehörigen SNR-Werte für jeden dargebotenen Satz vor. Zur Schätzung der SRT- und Steigungswerte für jede dargebotene Testliste wurde eine Matlab-Implementierung der Maximum-Likelihood-Schätzung nach Brand und Kollmeier [17] genutzt, die auch im originalen OLSA verwendet wird. Für die Auswertung wurden, wie im originalen OLSA üblich, die Ergebnisse der dritten und damit letzten Messung verwendet, da für diese der Trainingseffekt als vernachlässigbar angesehen wird [10].

2.3 Studie

2.3.1 Teilnahmeoptionen

Die Teilnahme an der Studie erfolgte über den von Gorilla bereitgestellten Link. Da die Probanden zwischen 18 und 30 Jahren alt sein sollten, um den Probanden von Nuesse et al. [13] zu ähneln, wurde der Link überwiegend an Universitäten und Hochschulen verteilt.

2.3.2 Teilnahme

In einem Zeitraum vom 25.05.2021 bis 13.06.2021 wurde der Link insgesamt 182 Mal aufgerufen. 81 Mal wurde das Experiment bis zum Ende durchgeführt und 101 Mal abgebrochen. Davon erfolgten 89 Abbrüche aufgrund der Überschreitung des Zeitlimits von 2 Stunden. Das Zeitlimit wurde überschritten beim Lesen der allgemeinen Teilnahmeinformationen und der Einverständniserklärungen (N=48), bei der Erstellung des Codewortes (N=10), beim allgemeinen Anamnesefragebogen (N=1), beim Antiphasentest [6] zur Prüfung der Kopfhörernutzung (N=5), bei der Durchführung des OLSA (N=24) und nach Beendigung der OLSA-Messungen bei der Abschlussinformation (N=1). Zwölf weitere Ausschlüsse wurden erzeugt, da die Probanden die vorgegebenen Voraussetzungen (Alter, Muttersprache und Hörvermögen) nicht erfüllten.

2.3.3 Probanden

Die Altersspanne der 81 Probanden (47 weiblich, 33 männlich, 1 divers) lag zwischen 18 und 30 Jahren (Mittelwert: 23,7 Jahre). 91,0% der Probanden gaben an, keine Hörprobleme zu besitzen und 9,0% hatten sehr geringe Hörprobleme. 28,4% der Probanden beschrieben ihren allgemeinen Gesundheitszustand als „ausgezeichnet“, 54,3% als „sehr gut“ und 17,3% als „gut“.

Für den Vergleich der Ergebnisse wurden die Auswahlkriterien an die Kriterien von Nuesse et al. [13] angepasst. In diesen Vergleich wurden Ergebnisse von 69 Probanden (41 weiblich, 27 männlich, 1 divers) einbezogen, die angaben, den weiblichen OLSA nicht zu kennen. Diese Auswahl an Probanden war im Mittel 23,6 Jahre alt. 29,0% der Probanden beschrieben ihren allgemeinen Gesundheitszustand als „ausgezeichnet“, 53,6% als „sehr gut“ und 17,4% als „gut“. 89,9% der Probanden gaben an, keine Hörprobleme zu besitzen und 10,1% hatten sehr geringe Hörprobleme.

2.3.4 Statistische Analyse

Die statistische Analyse wurde mit Matlab von Mathworks (Version R2021a) durchgeführt und ein Signifikanzniveau von α=0,05 verwendet. Mit einem Shapiro-Wilk-Test wurden die SRT- und Steigungs-Werte auf Normalverteilung geprüft. Da die Daten nicht normalverteilt waren, wurden signifikante Unterschiede mit dem Mann-Whitney-U-Test untersucht. Um Unterschiede in den Verteilungen der Daten zu überprüfen, wurde ein F-Test angewendet.


3 Ergebnisse

3.1 Messdauer

Zur Auswertung der Messdauer wurden das Datum und die Uhrzeit des jeweils ersten und letzten Eintrags in den Ergebnistabellen der Probanden (N=81) genutzt (siehe Abbildung 2 [Abb. 2]). Dabei zeigte sich, dass die Probanden im Median 32 min für die Messungen benötigten. Die kürzeste Messung dauerte 20 min, die längste 63 min.

3.2 SRT und Steigung

Abbildung 3a [Abb. 3] zeigt die SRT-Werte für alle Probanden, für die Probanden, die den weiblichen OLSA nicht kannten, und die Probandenergebnisse von Nuesse et al. [13]. Der mediane SRT liegt jeweils bei –9,1, –8,9 und 8,7 dB SNR. Die SRT-Werte der Probanden, die keinen weiblichen OLSA kannten, und diejenigen von Nuesse et al. [13] zeigen im Median nur geringe Unterschiede (siehe Abbildung 3a [Abb. 3]). Der Mann-Whitney-U-Test ergab, dass die SRT-Werte nicht signifikant unterschiedlich sind (U=3732, p=0,060). Die Streuung der online erhobenen SRT-Werte ist jedoch größer als diejenige von Nuesse et al. [13]. Ein F-Test bestätigt die signifikant andere Verteilung der SRT-Werte (p=0,002; F(68,47)=2,450).

Abbildung 3b [Abb. 3] zeigt die Steigung der Diskriminationsfunktionen gemessen mit allen Probanden, mit denjenigen, denen der weibliche OLSA unbekannt war, und die Ergebnisse von Nuesse et al. [13]. Die Steigungen liegen bei 16,7, 17,6 und 13,2%-Punkte/dB. Die Steigungen der Probanden, die den weiblichen OLSA nicht kannten und derjenigen von Nuesse et al. [13] unterscheiden sich signifikant (U=4995, p<0,001). Auch die Streuung der online ermittelten Steigungen ist größer als bei Nuesse et al. [13]. Ein F-Test bestätigt ebenfalls die signifikant andere Verteilung der Steigungs-Werte (p<0,001; F(68,47)=41,329).


4 Diskussion

4.1 Rekrutierung

Zur Rekrutierung der Probanden wurde der Link über private Kontakte, WhatsApp-Gruppen, Email-Verteiler, ein digitales schwarzes Brett und Social Media veröffentlicht. Trotz dieser großen Reichweite der Bekanntmachung des Links scheint die Resonanz und Teilnahmebereitschaft von 182 Aufrufen des Links in einem Zeitraum von 20 Tagen eher gering. Andere Alternativen der Rekrutierung könnten eine höhere Teilnehmerzahl in kürzerer Zeit im Vergleich zur Verteilung des Links an Universitäten und Hochschulen ermöglichen. Angebote von Probandendatenbanken wie z. B. Prolific oder MTurk (für eine Übersicht siehe [2]) könnten dabei eine Hilfe sein, jedoch muss der relativ geringe Anteil deutscher Muttersprachler in diesen Datenbanken berücksichtigt werden. Sie können in Gorilla eingebunden werden, sind aber i. d. R. kostenpflichtig. Die Datenbanken bieten einen gezielteren Kontakt zu Probanden an, die nach Kriterien gefiltert werden können. Die Probanden werden über diese Plattformen für ihren Aufwand entschädigt. Eine Aufwandsentschädigung könnte zusätzlich die Teilnahmebereitschaft erhöhen. Jedoch ist diese unter den gegebenen Datenschutzbestimmungen und evtl. Vorgaben der öffentlichen Träger oft schwierig umsetzbar.

Wird diese Teilnahmebereitschaft mit einer Laborstudie verglichen, so zeigt sich jedoch, dass in relativ kurzer Zeit (20 Tage) viele nutzbare Ergebnisse (N=81) erfasst werden konnten. Im Vergleich zur Laborsituation wurden die Ergebnisse ermittelt, ohne dass ein Laborraum mit Mess-Equipment genutzt wurde und die Messungen von einem Untersucher begleitet wurden. Eine Online-Studie ist somit kostengünstiger und zeitsparender als eine Labormessung [2].

Der Link zur Teilnahme am Online-Experiment wurde überwiegend an Universitäten und Hochschulen verteilt, damit die Probanden denen von Nuesse et al. [13] ähnelten. Es ist also davon auszugehen, dass überwiegend Studierende an der Untersuchung teilnahmen. Im Vergleich zu einer Laborstudie, an der i. d. R. nur Probanden teilnehmen, für die der Untersuchungsort erreichbar ist, konnten aber Studierende einer Hochschule an verschiedenen Studienorten angesprochen werden. Dies zeigt, dass verschiedene Auswahl-Faktoren die Diversität der Probanden einschränken aber auch wieder vergrößern können.

4.2 Abbrecherquoten und Messdauer

Insgesamt nutzten 182 Personen den Teilnahmelink, was darauf hinweist, dass die Zielgruppe für die Studie grundsätzlich erreicht wurde. Bei Betrachtung der Anzahl der Linkaufrufe scheint die Abbrecherzahl (N=101) verhältnismäßig hoch. Jedoch ist nach Reips [15] auch mit einer hohen Abbrecherquote zu rechnen. Die meisten Abbrüche kamen nicht aufgrund der Ausschlusskriterien zustande (N=12), sondern durch das Überschreiten der maximalen Messzeit von zwei Stunden (N=89). D. h., die Probanden hatten die Studie begonnen, aber nicht beendet. Bei vielen der Probanden wird die Zeitüberschreitung bereits bei der Einführung in das Experiment (Probandeninformation, Einverständniserklärung, Codeworterstellung und Kurzfragebogen) erreicht (N=59). Während des Lesens der ersten Informationen fühlten sich Probanden vermutlich nicht weiter angesprochen und setzten die Teilnahme nicht fort. Ebenfalls möglich ist, dass die Probanden ihre aktuelle Lebenssituation unpassend für das Experiment fanden und deshalb die Messung zu einem späteren Zeitpunkt fortsetzen wollten. Grundsätzlich waren mehrfache Durchführungen bzw. Abbrüche der Studie durch die Probanden möglich. Dies konnte aber bei der Aufnahme der Teilnehmer- bzw. Abbruchanzahlen und der Aufnahme der Daten nicht berücksichtigt werden. Das bedeutet, nur die begonnenen und die abgeschlossenen Experimente wurden gezählt. Ob ein Proband ein Experiment abbrach und zu einem späteren Zeitpunkt vollständig durchführte, kann aus den erhobenen Daten nicht nachvollzogen werden.

Weitere Probanden zeigten im Laufe der wesentlichen Untersuchungen (Antiphasentest und OLSA) eine Überschreitung des Zeitlimits (N=29). Ein möglicher Grund dafür kann die lange Durchführungsdauer des Experimentes gewesen sein. Nur etwa die Hälfte der Probanden schloss das Experiment innerhalb der empfohlenen Dauer von 30 min ab [2]. Andere Probanden benötigten länger. Um Trainingseffekte zu vermeiden, sind beim OLSA immer zwei Trainingslisten pro Termin am Anfang notwendig. Erst die dritte Liste kann als Ergebnis gewertet werden [8], [10]. Diese sich wiederholende Durchführung und die damit verbundene Monotonie des Ablaufes kann ebenfalls Abbrüche verursacht haben. Generell zeigt sich, dass die Anwendung des OLSA innerhalb der empfohlenen Messdauer eher schwierig ist. Wenn verschiedene Messsituationen miteinander verglichen werden sollen, ist durch das Training des Testes schnell die empfohlene Dauer erreicht. Sprachtests wie z. B. der Göttinger Satztest [18] oder der Ziffern-Tripel-Test [19], bei denen kein Training notwendig ist, könnten dann sinnvolle Alternativen sein.

4.3 Umsetzung des OLSA in Gorilla

Gorilla gibt über den Task Builder eine einfache Oberfläche zur Gestaltung eines Online-Experimentes vor. Jedoch reichten diese Bausteine nicht immer aus, um die komplexe Funktionalität eines OLSA online zu erreichen. Sie mussten durch Programmierungen in JavaScript ergänzt werden. Dies war z. B. der Fall für das Einlesen der Probandenantworten sowie ihr Abgleich mit den jeweils korrekten Antworten. Ebenso musste die adaptive Pegelsteuerung in Gorilla programmiert werden. Die hier gewählte Umsetzung des OLSA speicherte als Ergebnis in Gorilla nur die Verständlichkeit und den dargebotenen SNR für jeden Satz. Eine Berechnung des SRT mithilfe der Maximum-Likelihood-Methode [17] erfolgte nach dem Download der Ergebnisse in Matlab. Eine direkte Bestimmung des SRT im Online-Experiment wäre zwar grundsätzlich möglich gewesen, jedoch wurde aufgrund des Aufwands darauf verzichtet. Somit konnte der SRT nicht im weiteren Verlauf eines Online-Experimentes als Referenz genutzt werden, um z. B. einen bestimmten SNR darzubieten oder eine Auswahl von Probanden vorzunehmen.

Darüber hinaus konnten die Audiodateien des Satzmaterials nicht als verlustfreie wav-Dateien in Gorilla hinterlegt werden, sondern mussten in ein mp3-Format konvertiert werden. Nach Brandenburg [20] nimmt das mp3-Format eine Datenreduktion auf Grundlage der Psychoakustik vor. Das bedeutet, dass vor allem Signalanteile reduziert werden, die nicht wahrnehmbar sind. Dabei ist die verwendete Bitrate entscheidend für die Audioqualität. Je höher diese ist, desto besser ist die Audioqualität. Brandenburg beschreibt für mp3, dass bei einer Bitrate von z. B. 128 kbit/s für ein Stereosignal bei 48 kHz eine effiziente Kompression erreicht ist, bei der die Audioqualität hoch und die Datengröße gering sind. Größere Bitraten führen im Vergleich dazu nur zu geringfügigen Verbesserungen der Audioqualität bei größeren Dateien. Da in dieser Studie eine Bitrate von 320 kbit/s verwendet wurde, sind keine Verständlichkeitsunterschiede zwischen den Datenformaten für die hier getesteten jungen Probanden mit normalem Gehör zu erwarten. Außerdem wurden die Signale mit einem zusätzlichen Rauschen dargeboten, dessen energetische Maskierung vermutlich ausschlaggebend für die Verständlichkeit der Sprache ist.

4.4 Durchführung des Online-Experimentes

Grundsätzliche Hürden eines Online-Experimentes zeigen sich auch bei dieser Studie. Das von den Probanden genutzte Equipment und dessen Einstellung bleibt unbekannt. Ebenso kann nicht die Richtigkeit der Antworten, das Verständnis für die Aufgabe, die Motivation und die Aufmerksamkeit der Probanden überprüft, beobachtet oder direkt beeinflusst werden und z. B. noch einmal nachgefragt, erklärt oder Pausen vorgeschlagen werden. Die Hörfähigkeiten können nur über einen Fragebogen eingeschätzt werden und nicht durch ein Tonaudiogramm in einer Hörkabine mit kalibriertem Equipment geprüft werden. An dieser Studie nahmen Probanden teil, die subjektiv normalhörend waren oder einen sehr schwachen Hörverlust angaben. Von v. Gablenz et al. [21] wurde bei einem Vergleich von subjektiven Bewertungen mit dem nach den Kriterien der World Health Organisation beurteilten Hörverlust festgestellt, dass junge Probanden ihre Hörprobleme eher überschätzten, während ältere Probanden ihre Probleme beim Hören eher unterschätzen. In dieser Studie und bei Nuesse et al. [13] nahmen junge Probanden teil. Bei Nuesse et al. [13] betrugen die Hörschwellen der Probanden bei maximal zwei Frequenzen 15 dB HL, was laut der World Health Organisation als normalhörend angesehen werden kann [22]. Die hier ermittelten SRT-Werte sind mit Nuesse et al. [13] vergleichbar. Nach Wagener und Brand [23] ändern sich die SRT-Werte im OLSA für Probanden mit normalem und beeinträchtigtem Gehör nicht, wenn sich der Präsentationspegel verändert. Personen mit einer Hörbeeinträchtigung zeigen bei unterschiedlichen Präsentationspegeln immer einen höheren (schlechteren) SRT-Wert als Normalhörende. Somit veranschaulichen die mit Nuesse et al. [13] vergleichbaren SRT-Werte dieser Studie, dass der Hörstatus für das Sprachverstehen der Probanden sehr ähnlich war. Die Selbstbewertung des Hörvermögens in dieser Studie scheinen die Probanden damit überwiegend zuverlässig vorgenommen zu haben.

4.5 SRT und Steigung

Der Vergleich der ermittelten Ergebnisse mit der Studie von Nuesse et al. [13] zeigt, dass der OLSA auch in einer Online-Studie zur Ermittlung des SRT genutzt werden kann. Die SRT-Werte beider Studien unterscheiden sich nur geringfügig und nicht signifikant voneinander. Die geringen medianen Unterschiede der SRT-Werte von 0,2 dB sind möglicherweise durch die Aufgabenstellung verursacht worden. Bei Nuesse et al. [13] wurde der OLSA als offene Variante durchgeführt. Im Gegensatz dazu sprachen die Probanden dieser Studie die verstandenen Wörter nicht laut nach, sondern nutzen eine geschlossene Antworteingabe und mussten die Wörter in einer Antwortmatrix auswählen. Holube et al. [24] stellten eine ähnliche Verbesserung der SRT-Werte um 0,2 dB beim Vergleich der geschlossenen und offenen Variante fest. Die geschlossene Variante ermöglicht den Probanden Rückschlüsse auf mögliche Antworten, die bei einer offenen Durchführung fehlen.

Außerdem unterschieden sich die Studien in der Art der Darbietung des Sprachmaterials. In Nuesse et al. [13] wurden drei feste SNR-Werte (–11,0, –8,5 und –6,0 dB SNR) dargeboten und anschließend eine Diskriminationsfunktion angepasst. Im Gegensatz dazu liegt den über Gorilla ermittelten Daten eine adaptive Steuerung des SNRs während jeder OLSA-Messung zu Grunde, sodass eine Änderung des SNR-Wertes bei jedem einzelnen Satz stattfand. Dies erfolgte nach der adaptiven Steuerung von Brand und Kollmeier [17]. Das adaptive Verfahren verwendete eine große Schrittweite zu Beginn einer Liste, um möglichst schnell SNR-Werte nahe des SRT darzubieten. Danach wurde die Schrittweite schnell verringert, um in geringer Entfernung um den SRT zu schwanken. Die so ermittelten Verständlichkeiten und SNR-Werte wurden dann in der Maximum-Likelihood-Methode [17] verwendet, um eine Diskriminationsfunktion sowie deren SRT und Steigung zu schätzen. Zeigen die Verständlichkeitswerte in Abhängigkeit vom SNR innerhalb einer Liste eine stetig steigende oder fallende Tendenz und schwanken sie nicht, wie es mit dem adaptiven Verfahren gewünscht ist, um den SRT, so kann es zu einer Über- oder Unterschätzung des SRT und der Steigung kommen. Dies kann auch in dieser Studie als Ursache für die hohe Streuung und die deutlichen Ausreißer gesehen werden. Vermutlich wurde die Aufmerksamkeit der Probanden zu einem frühen Zeitpunkt innerhalb einer Liste abgelenkt. Die resultierenden falschen Antworten führten zu einer schnellen Verringerung der Schrittweite, obwohl SNR-Werte nahe des SRT noch nicht erreicht wurden und die oben beschriebenen Verläufe entstanden. Wie bereits vermerkt, sind im Online-Experiment die Möglichkeiten der Ablenkung groß und schwer kontrollierbar und auch die Motivation des Probanden kann nicht überprüft werden.

Trotz der erhöhten Streuung der Daten und der vermuteten geringeren Aufmerksamkeit bzw. größeren Diversität der Probanden aber besonders der Teilnahmebedingungen (z. B. Kopfhörer, Soundkarten, Rechner, Browser, Messumgebung) ist es dennoch gelungen, vergleichbare SRT-Werte zu den im Labor gemessenen Werten zu erreichen. Die Diversität erhöht aber auch die Möglichkeit, die Ergebnisse auf realistischere Messsituationen im häuslichen Umfeld zu verallgemeinern.


5 Schlussfolgerungen

Grundsätzlich ist die Durchführung eines Sprachtests und die Ermittlung eines SRT in einer Online-Studie möglich. Berücksichtigt werden muss allerdings bei der Umsetzung des Experimentes, dass der Messaufbau und die Messumgebung unbekannt sind. Dies hat Folgen für die Auswahl des Tests, da nur relative Pegeländerungen als Ergebnisse aufgenommen werden können und die Messungen mit einem zusätzlichen Rauschen durchgeführt werden sollten, damit Hintergrundgeräusche überdeckt werden können. Grundsätzlich ist bei einer Online-Studie mit einer aufwändigeren Rekrutierung zu rechnen, da es zu höheren Abbrecherquoten kommt. Nichtsdestotrotz sind Online-Studien im Vergleich zu Labormessungen kostengünstiger und zeitsparender. Die Diversität der Probanden, des Equipments und der Messumgebung zeigt sich auch in der Varianz der Daten. Außerdem muss die Motivation der Probanden möglichst gleichbleibend sichergestellt werden, da sie nicht überprüft werden kann. Dies könnte durch kürzere Messdauern und abwechslungsreiche Aufgaben erreicht werden.


Anmerkungen

Interessenskonflikte

Die Autoren erklären, dass sie keine Interessenkonflikte im Zusammenhang mit diesem Artikel haben.

Funding

Diese Studie wurde im Rahmen der Hochschullehre an der Jade Hochschule in Oldenburg durchgeführt. Sie war Bestandteil des Moduls Projektpraktikum 2 im 6. Semester des Studiengangs Hörtechnik und Audiologie. Die Bezahlung der erhaltenen Datensätze an Gorilla wurde aus einem Fonds der Jade Hochschule für diese Praktika vorgenommen.

Danksagung

Wir danken den Probanden für die Teilnahme am Online-Experiment, sowie Theresa Nüsse und Bianka Wiercinski für die Bereitstellung der Daten aus der Veröffentlichung [13].

Hinweis

Aus Gründen der besseren Lesbarkeit wird im Text verallgemeinernd das generische Maskulinum verwendet. Diese Formulierungen umfassen gleichermaßen weibliche, männliche und diverse Personen; alle sind damit selbstverständlich gleichberechtigt angesprochen.

ORCID der Autorin

Anne Schlüter: 0009-0006-1062-2702


Literatur

1.
Bundesministerium für Gesundheit. Chronik zum Coronavirus SARS-CoV-2. Berlin: BMG; 2022 [updated 2022 May 18; cited 2022 May 18]. Available from: https://www.bundesgesundheitsministerium.de/coronavirus/chronik-coronavirus.html Externer Link
2.
Sauter M, Draschkow D, Mack W. Building, Hosting and Recruiting: A Brief Introduction to Running Behavioral Experiments Online. Brain Sci. 2020 Apr;10(4):. DOI: 10.3390/brainsci10040251 Externer Link
3.
Anwyl-Irvine AL, Massonnié J, Flitton A, Kirkham N, Evershed JK. Gorilla in our midst: An online behavioral experiment builder. Behav Res Methods. 2020 Feb;52(1):388-407. DOI: 10.3758/s13428-019-01237-x Externer Link
4.
Gorilla. Gorilla Experiment Builder: Gorilla Support, Due Diligence. 2023 [updated 2023 Feb 20; cited 2023 Feb 20]. Available from: https://support.gorilla.sc/support/due-diligence#overview Externer Link
5.
Gorilla. Gorilla Experiment Builder: Gorilla’s Support Documentation. 2022 [updated 2022 May 18; cited 2022 May 18]. Available from: https://support.gorilla.sc/support/ Externer Link
6.
Woods KJP, Siegel MH, Traer J, McDermott JH. Headphone screening to facilitate web-based auditory experiments. Atten Percept Psychophys. 2017 Oct;79(7):2064-72. DOI: 10.3758/s13414-017-1361-2 Externer Link
7.
Wagener K, Brand T, Kollmeier B. Entwicklung und Evaluation eines Satztests für die deutsche Sprache II: Optimierung des Oldenburger Satztests. Zeitschrift für Audiologie (Audiological Acoustics). 1999;38(2):44-56.
8.
Wagener K, Brand T, Kollmeier B. Entwicklung und Evaluation eines Satztests für die deutsche Sprache III: Evaluation des Oldenburger Satztests. Zeitschrift für Audiologie (Audiological Acoustics). 1999;38(3):86-95.
9.
Wagener K, Kühnel V, Kollmeier B. Entwicklung und Evaluation eines Satztests für die deutsche Sprache I: Design des Oldenburger Satztests. Zeitschrift für Audiologie (Audiological Acoustics). 1999;38(1):4-15.
10.
Schlueter A, Lemke U, Kollmeier B, Holube I. Normal and Time-Compressed Speech: How Does Learning Affect Speech Recognition Thresholds in Noise? Trends in Hearing. 2016;20(1). DOI: 10.1177/2331216516669889 Externer Link
11.
Wagener KC, Hochmuth S, Ahrlich M, Zokoll MA, Kollmeier B. Der weibliche Oldenburger Satztest. In: Deutsche Gesellschaft für Audiologie, ed. Abstracts der 17 Jahrestagung der Deutschen Gesellschaft für Audiologie; 2014. Abrufbar unter/Available from: https://www.dga-ev.com/fileadmin/daten/downloads/bisherige_Jahrestagung/dga2014_programm_final.pdf Externer Link
12.
Ahrlich M. Optimierung und Evaluation des Oldenburger Satztests mit weiblicher Sprecherin und Untersuchung des Effekts des Sprechers auf die Sprachverständlichkeit [Bachelorarbeit]. Oldenburg: Carl von Ossietzky Universität Oldenburg; 2013.
13.
Nuesse T, Wiercinski B, Brand T, Holube I. Measuring Speech Recognition With a Matrix Test Using Synthetic Speech. Trends in Hearing. 2019;23. DOI: 10.1177/2331216519862982 Externer Link
14.
Nuesse T, Wiercinski B, Holube I. Synthetic German matrix speech test material created with a text-to-speech system. Zenodo; 2021 [cited 2022 Jul 1]. DOI: 10.5281/zenodo.4501212 Externer Link
15.
Reips UD. The Web Experiment Method. In: Birnbaum MH, editor. Psychological experiments on the internet. San Diego: Academic Pr; 2000. p. 89-117. DOI: 10.1016/B978-012099980-4/50005-8 Externer Link
16.
Buhrmester M, Kwang T, Gosling SD. Amazon's Mechanical Turk: A New Source of Inexpensive, Yet High-Quality, Data? Perspect Psychol Sci. 2011 Jan;6(1):3-5. DOI: 10.1177/1745691610393980 Externer Link
17.
Brand T, Kollmeier B. Efficient adaptive procedures for threshold and concurrent slope estimates for psychophysics and speech intelligibility tests. J Acoust Soc Am. 2002 Jun;111(6):2801-10. DOI: 10.1121/1.1479152 Externer Link
18.
Kollmeier B, Wesselkamp M. Development and evaluation of a German sentence test for objective and subjective speech intelligibility assessment. J Acoust Soc Am. 1997 Oct;102(4):2412-21. DOI: 10.1121/1.419624 Externer Link
19.
Van den Borre E, Denys S, van Wieringen A, Wouters J. The digit triplet test: a scoping review. Int J Audiol. 2021 Dec;60(12):946-63. DOI: 10.1080/14992027.2021.1902579 Externer Link
20.
Brandenburg K. MP3 and AAC Explained. In: Audio Engineering Society, editor. Audio Engineering Society Conference: 17th International Conference: High-Quality Audio Coding; 1999.
21.
von Gablenz P, Otto-Sobotka F, Holube I. Adjusting Expectations: Hearing Abilities in a Population-Based Sample Using an SSQ Short Form. Trends Hear. 2018;22. DOI: 10.1177/2331216518784837 Externer Link
22.
World Health Organization. Deafness and hearing loss. 2022 [updated 2022 May 18; cited 2022 May 18]. Available from: https://www.who.int/news-room/fact-sheets/detail/deafness-and-hearing-loss Externer Link
23.
Wagener KC, Brand T. Sentence intelligibility in noise for listeners with normal hearing and hearing impairment: influence of measurement procedure and masking parameters. Int J Audiol. 2005 Mar;44(3):144-56. DOI: 10.1080/14992020500057517 Externer Link
24.
Holube I, Blab S, Fürsen K, Gürtler S, Taesler S. Einfluss des Maskierers und der Testmethode auf die Sprachverständlichkeit von jüngeren und älteren Normalhörenden. Zeitschrift für Audiologie (Audiological Acoustics). 2009;48(3):120-7.