gms | German Medical Science

25. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

01.03. - 03.03.2023, Köln

Emotionswahrnehmung sprachkodierter Sätze bei Nutzern von Cochlea-Implantaten

Meeting Abstract

  • presenting/speaker Koyutürk Ece - Otto-von-Guericke-Universität, Abteilung für Experimentelle Audiologie, Magdeburg, DE
  • Ingo Siegert - Otto-von-Guericke-Universität, Institut für Informations- und Kommunikationssysteme, Magdeburg, DE
  • Jesko Verhey - Otto-von-Guericke-Universität, Abteilung für Experimentelle Audiologie, Magdeburg, DE
  • Martin Böckmann-Barthel - Otto-von-Guericke-Universität, Abteilung für Experimentelle Audiologie, Magdeburg, DE

Deutsche Gesellschaft für Audiologie e.V.. 25. Jahrestagung der Deutschen Gesellschaft für Audiologie. Köln, 01.-03.03.2023. Düsseldorf: German Medical Science GMS Publishing House; 2023. Doc163

doi: 10.3205/23dga163, urn:nbn:de:0183-23dga1631

Veröffentlicht: 1. März 2023

© 2023 Ece et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Paraverbale Information übermittelt in gesprochener Sprache Bedeutung zusätzlich zu den geäußerten Wörtern und erlaubt die Unterscheidung von Frage- und Aussagesätzen, aber auch Emotionen. Diese werden durch die Parameter Erregung und Valenz charakterisiert und mit Signalparametern wie z.B. Grundfrequenzverläufen und Intensitäten assoziiert. Bestimmte Aspekte der paraverbalen Information werden bei datenreduzierender Sprachübertragung wie in digitaler Telefonie beeinträchtigt. Wird Schall über ein Cochlea-Implantat (CI) wahrgenommen, könnte diese Information durch die Signalverarbeitung im CI weiter reduziert werden. Daher wird in dieser laufenden Studie untersucht, ob bestimmte Emotionen von CI-Nutzern besser wahrgenommen werden als andere und welche besonders häufig verwechselt werden. Teilnehmer sind erfahrene CI-Nutzer und eine normalhörende Kontrollgruppe. Als Material dient der Berliner EMO-DB-Korpus, der von Schauspielern in sieben verschiedenen Emotionen eingesprochene Beispielsätze umfasst. Die Sätze sind inhaltlich neutral gehalten. Sie wurden im aktuellen Experiment unkomprimiert sowie mit einem von drei Codecs (SPEEX, AMRWB, MP3, siehe [1]) komprimiert im Freifeld über einen Lautsprecher dargeboten. Nach der Darbietung eines jeden Satzes sollten die Teilnehmer diesem eine Emotion zuordnen und angeben, wie sicher sie in ihrer Beurteilung waren (für das Verfahren siehe [2]). Im Ganzen kategorisierten die Teilnehmer der CI-Gruppe die Emotion deutlich weniger exakt als die Kontrollgruppe. Besonders häufig wurden die Emotionen Freude und Ärger sowie Langeweile und neutrale Emotion miteinander verwechselt. Das erste Emotionspaar enthält Emotionen mit einer hohen Erregung, das andere Paar Emotionen mit niedriger Erregung. Die Erregung spiegelt sich in den Verläufen der Grundfrequenz wider. Dagegen unterscheiden sich die verwechselten Emotionen stark in der Valenz. Die Daten zeigen somit, dass der Grad der Erregung auch mit dem CI erkannt wird, die Valenz jedoch weniger. Für beide Versuchspersonengruppen zeigt sich eine schlechte Erkennung der Emotion Ekel, was offenbar durch das Sprachmaterial bedingt ist. Die parallel aufgenommenen Antwortzeiten zeigen eine hohe Korrelation zur subjektiv geäußerten Sicherheit der Versuchsperson und stellen somit ein mögliches objektives Maß für die Sicherheit der Entscheidung dar. Ein Einfluss der verschiedenen Codecs zeigt sich bisher nicht.


Literatur

1.
Siegert I, Lotz AF, Duong L, Wendemuth A. Measuring the impact of audio compression on the spectral quality of speech data – Elektronische Sprachsignalverarbeitung. Leipzig, Germany: TUDpress; 2016. p. 229-36.
2.
Lotz AF, Siegert I, Maruschke M, Wendemuth A. Audio compression and its impact on emotion recognition in affective computing – Elektronische Sprachsignalverarbeitung. Tagungsband der 28. Konferenz, Saarbrücken, Germany. 2017. p. 1-8.