Subscribe to RSS
DOI: 10.1055/s-2005-915380
Zerebrale Hemisphärenlateralität der Sprachlautwahrnehmung: Klinische und funktionell-bildgebende Befunde
Functional Neuroanatomy of Speech Sound Perception: Clinical and Imaging DataPublication History
Publication Date:
24 January 2006 (online)


Zusammenfassung
Die „core functions” sprachlicher Kommunikation, d. h. die Fähigkeit, phonologisch und syntaktisch wohlgeformte Sätze zu bilden und zu verstehen, sind zumindest bei rechtshändigen erwachsenen Menschen vorwiegend an die linke Hirnhälfte gebunden. Unter anderem dürften sich im Bereich der sprachdominanten Hemisphäre auch auditive Wortformen, d. h. die abstrakte Lautstruktur der Einträge des mentalen Lexikons, repräsentiert finden. Demgegenüber wird auf der Grundlage klinischer Daten eine weitgehend bilateral-symmetrische Verarbeitung der akustischen Korrelate der Konsonanten und Vokale einer Sprache (linguistische „information bearing elements”) im Bereich des Temporallappens angenommen. Dieses traditionelle neurolinguistische Modell beinhaltet somit eine strikte funktionell-neuroanatomische Trennung der zentral-auditiven und der linguistisch-kategorialen Ebene der Sprachlautwahrnehmung. Neuere klinische, psychoakustische und funktionell-bildgebende Befunde erfordern jedoch eine Erweiterung dieses Konzept in wenigstens zwei Hinsichten: (a) Schon auf der Ebene der auditiven Mismatch-Antworten, die als elektrophysiologisches Korrelat sensorischer Gedächtnisleistungen gelten, bilden sich phonetisch-linguistische Strukturen ab, und es zeigt sich ein Lateralitätseffekt der Verarbeitung von Sprachlauten und Silben („prälexikalische Inputrepräsentationen”) zugunsten der linken Hirnhälfte. (b) Neben der Hörrinde beider Hirnhälften und dem posterioren perisylviischen Kortex der sprachdominanten Hemisphäre scheinen unter bestimmten Bedingungen auch inferior-dorsolaterale Anteile des linken Frontalhirns und die rechte Kleinhirnhemisphäre an der Sprachlautwahrnehmung beteiligt zu sein und insbesondere Dauerparameter des akustischen Sprachsignals zu enkodieren. Psychoakustische und elektrophysiologische Befunde weisen auf eine effizientere „Auflösung” der Zeitstruktur sprachlicher und nichtsprachlicher auditiver Signale im Bereich der linken Hirnhälfte hin. Vor diesem Hintergrund dürften zumindest einige Lateralitätseffekte der Sprachlautwahrnehmung domänübergreifende (supramodulare) Operationen widerspiegeln. Im Verlauf der Evolution menschlicher Lautsprache könnte diese funktionelle Asymmetrie zentral-auditiver Verarbeitung über einen „Schneeballeffekt” zu Lateralitätseffekten kognitiver Komponenten der Sprachverarbeitung wie des Wortformlexikons geführt haben, die dann „top down” auch Seitunterschiede der Enkodierung zeit-unkritischer Parameter des akustischen Signals hervorrufen.
Abstract
Clinical and experimental data indicate that the „core functions” of speech communication, i. e., the ability to produce and to comprehend phonologically and syntactically well-formed sentences, are bound primarily to the left hemisphere of the brain, at least in right-handed adult individuals. Among others, the language-dominant perisylvian area seems predominantly to process and/or to store abstract representations of the sound structure of lexical items (auditory word forms). By contrast, the superior aspects of both temporal lobes have been assumed to subserve the encoding of the acoustic correlates of the consonant and vowel sounds of a language (linguistic „information bearing elements” of the speech signal). As a consequence, these findings suggest a strict functional-neuroanatomic separation of the central-auditory and the linguistic-categorical level of speech perception. More recent functional-imaging data call, however, for a revision of this concept in at least two regards: (a) Auditory mismatch-responses, considered an electrophysiological correlate of sensory memory operations, reflect phonetic-linguistic data structures and may display left-hemisphere laterality effects during the processing of speech sounds and syllables („prelexical input representations”). (b) Besides bilateral acoustic cortex and posterior parts of the language-dominant perisylvian area, inferior-dorsolateral regions of the left frontal lobe and superior aspects of the right cerebellar hemisphere may, under specific conditions, participate in the encoding of durational parameters of the acoustic speech signal. Psychoacoustic and electrophysiological data suggest the left hemisphere to be more efficient in resolving temporal aspects of complex speech and nonspeech auditory signals. At least some laterality effects of speech sound processing, thus, might reflect side-differences of general-auditory operations. As a consequence, these functional asymmetries of central-auditory processing might have given rise via a „snowball effect” to left-hemisphere lateralization of higher-order (cognitive) aspects of speech perception such as the phonological component of the mental lexicon.