Zwei Studentinnen mit Mund-Nasen-Schutz unterhalten sich auf einer Steinbank am Campus einer UniversitÀt
Visueller Input unterstĂŒtzt das Hören. Daher erschwert der Mund-Nasen-Schutz die Kommunikation, gerade fĂŒr Menschen mit einer HörbeeintrĂ€chtigung. Wie genau Hör- und Sehsinn im Gehirn zusammenarbeiten, untersuchen Grundlagenforscher/innen in Salzburg. © Charlotte May/Pexels

Eine der wichtigsten Maßnahmen im Kampf gegen die Corona-Pandemie ist das Tragen eines Mund-Nasen-Schutzes oder einer FFP2-Maske. Es ist offensichtlich, dass durch dieses Verdecken des unteren Gesichtsbereichs aber auch die zwischenmenschliche Kommunikation schwieriger wird. Die Worte mĂŒssen sich erst den Weg durch die Stoffschicht bahnen und der Kontext der Mimik geht verloren. Die EinschrĂ€nkungen lassen sich fĂŒr die meisten Menschen mit deutlicher Sprache und gezielter Aufmerksamkeit ausgleichen. Doch fĂŒr Personen mit einer HörbeeintrĂ€chtigung, die nun ohne die Zusatzinformation der Lippenbewegung auskommen mĂŒssen, wirkt sich die Situation besonders nachteilig aus. Gerade unĂŒbersichtliche Kommunikationssituationen mit mehreren Sprecherinnen oder Sprechern sind fĂŒr sie nur noch schwer zu erfassen. 

Der Erforschung dieses sehr aktuellen Problemkreises widmen sich Nathan Weisz und Anne Hauswald vom Zentrum fĂŒr Neurokognitive Forschung der UniversitĂ€t Salzburg im Projekt „Einfluss von Mund-Nasen-Schutz auf SprachverstĂ€ndnis“, das vom Wissenschaftsfonds FWF mit einer „Akutförderung SARS-CoV-2“ ausgestattet wurde. „GehörgeschĂ€digte Menschen mĂŒssen in der Kommunikation mit MaskentrĂ€gern viel mehr Anstrengung aufbieten, um die fehlenden visuellen Informationen auszugleichen“, betont Weisz. Gemeinsam mit Hauswald und weiteren Kolleginnen und Kollegen möchte er herausfinden, wie sich die Verarbeitung des Hörsignals im Gehirn durch diese fehlende visuelle Information verĂ€ndert. Beispielsweise versucht man dabei, anhand von hochauflösenden Daten der schwachen, aber doch messbaren Magnetfelder, die bei der Signalverarbeitung im Gehirn entstehen, auf die eintreffenden Reize rĂŒckzuschließen.

Neue Wahrnehmung mit Cochlea-Implantat

Das Projekt baut auf einem Forschungsfeld auf, das Weisz und Hauswald auch in einem weiteren, bereits 2018 gestarteten FWF-Projekt vertiefen. Hier gehen sie unter anderem der Frage nach, wie gehörgeschÀdigte Menschen mit einem sogenannten Cochlea-Implantat ihre akustische WahrnehmungsfÀhigkeit wieder neu erlernen können. Das Implantat umgeht das nicht funktionierende Innenohr und gibt die Signale direkt an den Hörnerv weiter. Der Höreindruck, der auf diese Weise entsteht, unterscheidet sich aber grundsÀtzlich von jenem, den ein gesundes Ohr erzeugt. Manche Patientinnen und Patienten haben Probleme bei der Adaptierung an diese neuen Gegebenheiten, wÀhrend andere einen sehr schnellen Rehabilitationsprozess durchmachen und dann wieder problemlos ihren Alltag meistern können.

Auch hier steht die Frage im Zentrum, wie der visuelle Input in einer Kommunikationssituation das Hören unterstĂŒtzt. Hilft die Verarbeitung der visuellen Information dabei, die Signale aus dem Implantat besser einordnen zu lernen? Auf der Hand liegt, dass das Gesehene die Aufmerksamkeit, das gezielte Hinhören, lenkt. Doch die Zusammenarbeit der Sinne geht weit darĂŒber hinaus. „Die Mundbewegungen beim Lippenlesen werden im Gehirn in eine akustische ReprĂ€sentation ĂŒbersetzt“, erklĂ€rt Nathan Weisz und spricht dabei von einem „visuell-phonologischen Transformationsprozess“.

Die Untersuchungen bauen auf Studien auf, die Anne Hauswald bereits in ihrer frĂŒheren Position als Postdoc-Forscherin an der UniversitĂ€t Trient durchfĂŒhrte. „Ich konnte zeigen, dass die GehirnaktivitĂ€t im visuellen Kortex, die den Sehsinn des Menschen organisiert, auch akustischen Merkmalen wie LautstĂ€rkeverĂ€nderungen folgt“, fasst Hauswald zusammen. „Nun stellen wir die Frage, inwieweit derartige Prozesse gerade in schwierigen Hörsituationen relevant sind.“ Die Forschenden analysieren auch hier in verschiedenen Versuchsanordnungen kleinste VerĂ€nderungen der Magnetfelder im Gehirn mittels der Magnetoenzephalographie (MEG) – eines sehr empfindlichen Messsystems zur Aufzeichnung von Gehirnsignalen, das eng mit der Gehirnstromanalyse via Elektroenzephalographie (EEG) verwandt ist.

Blick in die Signalverarbeitung im Gehirn

In den Experimenten arbeiten die Forschenden mit Probandinnen und Probanden, die vor oder nach ihrem Spracherwerb eine SchĂ€digung des Gehörs erlitten. Sie bekommen beispielsweise Videos von Sprechenden vorgespielt, ohne dass der Videoton mitgeliefert wird. Die abgenommenen Gehirnsignale werden dann auch mit der – fĂŒr die Probandinnen und Probanden nicht hörbaren – Tonspur des Videos abgeglichen, um den Beitrag der visuellen Signalverarbeitung im Gehirn zum akustischen VerstĂ€ndnis besser verstehbar zu machen. Auch eine Messung mit rĂŒckwĂ€rts abgespulten Videos wird angefertigt, um einen Vergleich mit Input zu haben, der keinen kommunikativen Sinn ergibt. „Letztendlich soll sich zeigen, ob das Gehirn in diesem Setting auch bereits den akustischen Eigenschaften wie LautstĂ€rke- oder Tonhöhen-Änderungen folgt, obwohl diese nur visuell vermittelt werden können. Zudem wird interessant sein, ob das Tracking dieser Eigenschaften in den vorwĂ€rts abgespielten Videos stĂ€rker ausgeprĂ€gt ist als in rĂŒckwĂ€rts abgespielten“, erklĂ€rt Hauswald.

Die Ergebnisse dieses und Ă€hnlicher Experimente wollen Hauswald und Weisz schließlich auch mit Daten von Patientinnen und Patienten mit Cochlea-Implantat in Zusammenhang bringen. „Wir versuchen herauszufinden, ob eine Beziehung besteht zwischen den visuell-phonologischen Transformationsprozessen im Gehirn und der sehr unterschiedlichen FĂ€higkeit der Patientinnen und Patienten, ihre WahrnehmungsfĂ€higkeit an den kĂŒnstlichen Input des Implantats anzupassen“, erlĂ€utert Weisz. Auf diese Art könnte mehr ĂŒber jene Eigenschaften des Gehirns herausgefunden werden, die fĂŒr eine Rehabilitation nach einer GehörschĂ€digung relevant sind.


Zu den Personen

Nathan Weisz ist Professor fĂŒr Physiologische Psychologie an der UniversitĂ€t Salzburg. FrĂŒhere Stationen seiner Karriere sind die UniversitĂ€ten in EichstĂ€tt und Konstanz in Deutschland, das Institut national de la santĂ© et de la recherche mĂ©dicale in Lyon in Frankreich und die UniversitĂ€t Trient in Italien. Seine Forschungen konzentrieren sich auf die audiovisuelle Signalverarbeitung im Gehirn, unter anderem bei Erkrankungen wie Tinnitus oder Gehörverlust.

Anne Hauswald ist Senior Scientist an der UniversitĂ€t Salzburg. Sie hatte nach ihrem Psychologie-Studium an der UniversitĂ€t Konstanz in Deutschland eine Postdoc-Position an der UniversitĂ€t Trient in Italien inne, bevor sie nach Salzburg kam. Hauswalds Forschungsschwerpunkte liegen in der Frage, wie die visuelle Signalverarbeitung im Gehirn die akustische Wahrnehmung eines Menschen unterstĂŒtzt.


Publikationen

Suess, N., Hartmann, T., & Weisz, N.: Differential attention-dependent adjustment of frequency, power and phase in primary sensory and frontoparietal areas, 2020 (preprint)

Hauswald, A., Keitel, A., Chen, Y., Rösch, S., & Weisz, N.: Degradation levels of continuous speech affect neural speech tracking and alpha power differently, in: European Journal of Neuroscience, ejn.14912, 2020

Hauswald, A., Lithari, C., Collignon, O., Leonardelli, E., & Weisz, N.: A visual cortical network for deriving phonological information from intelligible lip movements, in: Current Biology, 28(9), 1453–1459, 2018