Aktuelle Neurologie 2005; 32 - P544
DOI: 10.1055/s-2005-919575

Funktionelle Konnektivität der Netzwerke für verbale und non-verbale emotionale Kommunikation: parallele oder hierarchische Informationsverarbeitung?

T Ethofer 1, S Anders 1, M Erb 1, W Grodd 1, S Wiethoff 1, C Herbert 1, J Kissler 1, D Wildgruber 1
  • 1Tübingen

Mittels fMRT sollten die neuronalen Korrelate der Verarbeitung verbaler und non-verbaler emotionaler Kommunikation, sowie deren funktionelle Konnektivität untersucht werden.

24 Rechtshändern wurden während eines fMRT-Experiments (Siemens Avanto, 1.5 T, TR=2.26s, 24 axiale Schichten) Adjektive akustisch präsentiert, die freudig, neutral oder zornig eingesprochen worden waren. Die Probanden sollten jeweils entweder die emotionale Valenz des Wortinhalts oder der Prosodie beurteilen. Zur Darstellung aufgabenspezifischer Aktivierungen wurden die entsprechenden BOLD-Antworten gegeneinander kontrastiert. Zur Untersuchung der Konnektivität der beteiligten Regionen wurde ein dynamisches Kausalmodell [1] mit paralleler Informationsverarbeitung mit einem rein hierarchischen Modell, einem Modell ohne Konnektivität und einem Modell mit vollständiger bidirektionaler Konnektivität mithilfe von Bayesstatistik [2] verglichen.

Die Beurteilung affektiver Sprachmelodie aktivierte den rechtsseitigen temporalen Kortex, sowie bilaterale frontale Areale, während bei Einschätzung des emotionalen Wortinhalts linkshemisphärische Regionen (Temporalpol, orbitofrontaler und superiorer frontaler Cortex) aktiviert wurden (Abb. 1). Für das Netzwerk zur Prosodieverarbeitung konnte gezeigt werden, dass ein Modell, in dem die Information vom Temporalcortex parallel an die beiden frontalen Areale weitergegeben wird (Modell 1), sowohl einem hierarchischen (Modell 2), als auch den Kontrollmodellen mit fehlender (Modell N) und vollständiger (Modell A) Konnektivität überlegen ist (p<0,05, Abb. 2). Für das Netzwerk, der an der Beurteilung emotionaler Wortinhlte beteiligten Regionen, zeigten sich keine signifikanten Unterschiede zwischen den entsprechenden Modellen.

Für die Beurteilung emotionaler Prosodie konnte eine Überlegenheit des Modells mit parallelem Informationsfluss vom rechten temporalen Kortex zu beiden Frontallappen gegenüber den Kontrollmodellen gezeigt werden. Die fehlende Differenzierbarkeit der für das semantische Netzwerk getesteten Modelle könnte durch den relativ großen Zeitabstand (ca. 2s) bei der Bildaquisition von superioren frontalem Cortex und Temporalpol bedingt sein.

[1] Friston et al., Neuroimage (2003)

[2] Penny et al., Neuroimage (2004)