178 24 12MB
German Pages 166 [168] Year 1998
Linguistische Arbeiten
384
Herausgegeben von Hans Altmann, Peter Blumenthal, Herbert E. Brekle, Gerhard Heibig, Hans Jürgen Heringer, Heinz Vater und Richard Wiese
Sabine Maria Graap
Aphasische Störungen der Schriftsprache im Erklärungsrahmen neurolinguistischer Modelle
Max Niemeyer Verlag Tübingen 1998
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Graap, Sabine Maria: Aphasische Störungen der Schriftsprache im Erklärungsrahmen neurolinguistischer Modelle / Sabine Maria Graap. - Tübingen : Niemeyer, 1998 (Linguistische Arbeiten ; 384) ISBN 3-484-30384-0
ISSN 0344-6727
© Max Niemeyer Verlag GmbH, Tübingen 1998 Das Werk einschließlich aller seiner Teile ist urhebeiTechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Printed in Germany. Gedruckt auf alterungsbeständigem Papier. Druck: Weihert-Druck GmbH, Darmstadt Buchbinder: Industriebuchbinderei Nädele, Nehren
Inhaltsverzeichnis
Vorwort
VII
1 Entwicklung neurolinguistischer Theorien 1.1 Vor- und Frühgeschichte neurolinguistischer Theoriebildung 1.2 Aufstieg und Niedergang konnektionistischer Modelle 1.3 Schriftsprachverarbeitung aus neurolinguistischer Sicht: Konnektionismus der zweiten Generation
1 1 5 16
2 Überblick über Grundannahmen und Methodik modellgestützter neurolinguistischer Forschung 2.1 Dissoziationen 2.2 Symptome und Syndrome 2.3 Einzelfalle und Gruppenstudien 2.4 Zusammenfassung
21 21 29 31 33
3 Oberflächendyslexie 3.1 Charakteristik der Störung 3.2 Neurolinguistische Interpretation der Störung 3.2.1 Die Standard-Version 3.2.2 Modifizierte Standardversion 3.2.3 Der Multiple-Levels-Ansatz 3.2.4 Das analogietheoretische Konzept 3.3 Zusammenfassung
34 35 51 52 58 62 66 72
4 Semantische Dyslexie 4.1 Charakteristik der Störung 4.2 Neurolinguistische Interpretationen des Störungsmusters 4.2.1 Die Standardversion 4.2.2 Modifizierte Standardversion 4.2.3 Der Multiple-Levels-Ansatz 4.2.4 Das analogietheoretische Konzept 4.3 Zusammenfassung
74 74 77 77 78 79 81 82
5 Tiefendyslexie 5.1 Charakteristik der Störung 5.2 Neurolinguistische Interpretationen der Störung 5.2.1 Standardversion nach Marshall/Newcombe 5.2.2 Standardversion nach Morton/Patterson 5.2.3 Tiefendyslexie als rechtshemisphärisches Lesen
83 83 88 88 89 99
VI 5.2.4 Das analogietheoretische Konzept 5.3 Zusammenfassung
102 103
6 Phonologische Dyslexie 6.1 Charakteristik der Störung 6.2 Neurolinguistische Interpretationen des Störungsmusters 6.2.1 Die Standardversion 6.2.2 Modifizierte Standardversion und Multiple-Levels-Ansatz 6.2.3 Analogietheoretisches Konzept 6.3 Zusammenfassung
104 104 108 108 109 112 113
7 Grenzen und Möglichkeiten neurolinguistischer Erforschung der Schriftsprache: Rück- und Ausblick 7.1 Überlegungen zum Stand der Forschung 7.2 Phonologisches Lesen im Rahmen eines PDP-Modells 7.2.1 Grundannahmen und Strukturprinzipien 7.2.2 Simulation von Aspekten dyslektischen Lesens 7.2.3 Einschätzung 7.3 Phonologisches Lesen im Rahmen eines DRC-Modells 7.3.1 Grundannahmen und Strukturprinzipien 7.3.2 Simulation von Aspekten dyslektischen Leseverhaltens 7.3.3 Einschätzung 7.4 Semantisches Lesen im Rahmen eines Attractor-Modells 7.4.1 Grundannahmen und Strukturprinzipien 7.4.2 Simulation von Aspekten dyslektischen Leseverhaltens 7.4.3 Einschätzung 7.5 Zusammenfassung und Ausblick
115 115 121 121 127 129 131 131 134 134 135 135 140 142 143
8 Literaturverzeichnis
145
Vorwort Beim Verfassen dieser Arbeit bin ich durch ein Stipendium der Graduiertenförderung Nordrhein-Westfalens (Nr. 60.0811) unterstützt worden. Mein besonderer Dank für viele konstruktive Gespräche gilt Prof. Dr. Gudula List. Susanne und Bernd Graap sowie Joana Louvros-Ankel haben sich bemüht, mich das Leben jenseits des Schreibtischs nicht vergessen zu lassen: ihnen danke ich für ihre Geduld, für Ausgleichssport und viele schöne Abende. Stefan Baus war - und bleibt hoffentlich - mein bester Leser: ihm widme ich Seite 72. Ohne die Hilfe von Frank Ulrich Sommerlade wäre diese Arbeit bis heute nicht formatiert.
1 Entwicklung neurolinguistischer Theorien Eine kurzgefaßte Entwicklungsgeschichte neurolinguistischer Theoriebildung im Bereich der Dyslexieforschung bildet den Ausgangspunkt dieser Arbeit. Nach Beleuchtung der ideengeschichtlichen Traditionen folgt in Kapitel 2 ein knapper Überblick über Grundannahmen und Methodik neurolinguistisch orientierter Dyslexieforschung. Vor dem Hintergrund, den diese beiden Kapitel skizzieren, werden in den Kapiteln 3 bis 6 die derzeit meistdiskutierten Dyslexiephänomene beschrieben und diskutiert. Dabei fallt mehr als ein Schlaglicht auf die Erforschung „normalen" Leseverhaltens auf Wortebene, denn die Interpretation erworbener Lesestörungen erfolgt im Rahmen von Modellen unbeeinträchtigter kognitiver Informationsverarbeitung. Zu fragen ist dabei zum einen nach den Rückschlüssen, die von gestörter auf normale Wortverarbeitung beim Lesen möglich sind, zum anderen nach dem praktischen und theoretischen Status jeder der erörterten Dyslexieformen. Die Grenzen, an die die hier als konnektionistische Modelle der zweiten Generation charakterisierten Entwürfe dabei stoßen, lassen sich möglicherweise durch eine in Kapitel 7 beschriebene, neue Modellgeneration, einen „Konnektionismus der dritten Generation", überwinden. Grundgedanken beider Modellgenerationen haben, wie gezeigt werden soll, ihre theoretischen Wurzeln im 19. Jahrhundert. Das Ziel dieser Arbeit ist ein Überblick über modellgestützte, neurolinguistische Theorieentwicklung von ihren Anfangen bis zum heutigen Entwicklungsstand. Im Zentrum stehen daher nicht sekundärempirische Erwägungen, sondern die Entwicklung von Theorien normalen und gestörten Lesens auf Wortebene. An den folgenden historischen Vorspann ist die Hoffnung geknüpft, daß einige der heutigen Probleme modellgestützter neurolinguistischer Forschung klarer erkennbar werden, wenn sie in ihrer Tradition betrachtet werden.
1.1 Vor- und Frühgeschichte neurolinguistischer Theoriebildung Die Frage nach den materiellen bzw. neurologischen Grundlagen kognitiver und besonders sprachlicher Funktionen ist so alt wie die Wissenschaftsgeschichte. Ägyptische Ärzte sind dieser Frage ebenso nachgegangen wie griechische Philosophen. „ Speculative localisation of functions, based on the belief that the brain is the organ of the mind, is [...] as old as anatomy and physiology themselves" (Young, 1990, 10). Schon die Autoren der Hippokrates (460 - 370 v. Chr.) zugeschriebenen Abhandlung über Epilepsie „Über die heilige Krankheit" nahmen an, daß das Gehirn der Bote zum Verständnis sei und mithin das Organ, durch das wir zu Wissen und Weisheit gelangen (vgl. Riese 1959, 78). Berichte von Störungsphänomenen, die an spezifische Störungen der Schriftsprache erinnern, wie sie in den Kapiteln 3 bis 6 dieser Arbeit geschildert werden, lassen sich bis zum Beginn unserer Zeitrechnung zurückverfolgen. Eine der ersten Beschreibungen einer isolierten Dyslexie als Folge einer geschlossenen Hirnverletzung geht auf Maximus (ca. 30 n. Chr.) zurück. Der Patient, ein Gelehrter aus Athen, hatte bei ansonsten erhaltenen sprachlichen Fähig-
2 keiten das Gedächtnis für Buchstaben verloren (vgl. Kempf, 1888). Die historische Bedeutung dieser Fallstudie liegt in der expliziten Deutung der Sprachstörung als Gedächtnisstörung. The notion of a storehouse of memory that could be subdivided and sectionalised (like a library) encouraged scholars from Maximus onward to publish reports of cases in which restricted areas of „memory" had been perturbed by brain damage. (Arbib/Caplan/Marshall, 1982, 7)
Bis ins 19. Jahrhundert hinein lag den Fallstudien, in denen sich aus heutiger Sicht viele der wichtigen klinischen Varietäten sprachpathologischer Phänomene wiedererkennen lassen, keine sprachspezifische Modellvorstellung zugrunde, sondern eine eher vage Gedächtnistheorie. Der Verlust bestimmter Komponenten des Sprachvermögens wurde durch Störungen von Unterabteilungen des Gedächtnisspeichers erklärt, ohne daß diese Gedächtnistheorie weiter spezifiziert worden wäre. Gesner (1770) sind die ersten umfassenderen Beobachtungen zu den besonderen Phänomenen bei Störungen der Schriftsprache und bei Zweisprachigkeit zu verdanken. Sein Verdienst war es, einen wichtigen Teil der vorangegangenen Forschung zusammenzufassen. Daneben gelangen ihm auch selbst einige wichtige Beobachtungen. Er beschrieb den Fall einer Sprachstörung, die wir heute als Wemicke-Aphasie mit Jargonanteilen deuten würden. Dabei fiel ihm auf, daß die fehlerhaften schriftlichen Reaktionen des Patienten auffallende Ähnlichkeit mit seinen Neologismen zeigten. Außerdem beobachtete er Fälle, in denen bei zweisprachigen Patienten das Lesevermögen in beiden Sprachen unterschiedlich gestört war. So stellte er bei einem Abt und bei einem Richter fest, daß ihre Lesefahigkeit in Latein weniger beeinträchtigt war als in Deutsch. Gesner konnte auch zeigen, daß in Fällen, in denen das Sprachverständnis gestört war, diese Störung sich besonders auf abstrakte Konzepte auswirkte. Seine Beobachtungen führten ihn zu dem Ergebnis, daß einige sprachliche Fähigkeiten geschwächt werden können, während andere unbeeinträchtigt bleiben; so wie auch bei Störungen des Gedächtnisses bestimmte Klassen von Ideen isoliert betroffen sein können. Weiter vermutete er, daß die Gefäße des Gehirns sicher nicht in Übereinstimmung mit Kategorien von Ideen angeordnet seien, und man daher auch keine Entsprechung von Schädigungsorten und Kategorien erwarten könne (1770, 125f). Zur theoretischen Erklärung seiner klinischen Beobachtungen machte er den Vorschlag, daß die Beeinträchtigung in Störungen der Assoziation zwischen Vorstellungen, Ideen und Wörtern liege. Die explizite Ausformulierung einer solchen Assoziationstheorie blieb jedoch Wernicke überlassen (vgl. Kapitel 1.2). Einen wichtigen Meilenstein in der Vorgeschichte neuropsychologischer Forschung bildet die Arbeit Franz Joseph Galls (1758 bis 1828). Während sein Zeitgenosse Kant in seiner 1796 in Königsberg erschienenen Schrift „ Über das Organ der Seele" ausdrücklich jede Frage nach der räumlichen Lokalisation der Seele zurückwies, weil die dynamische Gegenwart der Seele keiner lokalen Gegenwart bedarf, wurde Gall zum Wegbereiter einer Lokalisationslehre. Er zerlegte das Gehirn als erster Anatom nach strukturellen Gesichtspunkten, die ihn zu der Auffassung führten, die Geistestätigkeiten könnten nur in der Gehirnrinde ihren Sitz haben, und eine Vielzahl von psychischen Funktionen sei an jeweils bestimmte Teile des Großhirns gebunden. Zu seinen Verdiensten gehörte es, daß er
3 [...] rescued the problem of mental functions from Metaphysics, and made it one of Biology, subject therefore to all biological laws, and to be pursued by biological methods, he may be said to have given the science its basis. (Lewes, 1871,423)
Galls Lehre, die von seinem Schiiler Spurzheim zur berüchtigten Phrenologie weiterentwickelt wurde, unterschied 27 verschiedene zerebrale Regionen - sogenannte Organe -, denen er spezifische kognitive und psychische Funktionen, wie Frömmigkeit (Region 26) oder Zahlenverständnis (Region 18), zuwies. Die für das Sprachvermögen zuständigen zerebralen Organe (Region 14 und 15) vermutete Gall in den Stirnlappen (vgl. Clarke/Jacyna, 1987). Auch wenn die Lehre Galls in der Interpretation seiner Schüler zunehmend bizarre Züge annahm, und die sich auf ihn berufende Phrenologie in Gardners Buch über „ Fads and Fallacies in the name of science" (1957) einen Platz zwischen Handlesekunst und Graphologie erhielt, hat sie ihren Einfluß nicht verfehlt. Die Frage nach dem Zusammenhang von Gehirn und Bewußtsein hat fur das Menschenbild weitreichende Bedeutung. Dies erfuhr Gall, als er 1802 in Wien die Behauptung aufstellte, das Gehirn sei Ursprung aller geistigen Fähigkeiten. Diese These löste große Empörung aus. Gall wurde aus Wien verwiesen und schließlich im Jahr 1817 exkommuniziert (vgl. Young, 1990). Er hatte u.a. der seit Descartes geltenden, mehr philosophischen als medizinischen Lehrmeinung widersprochen, der Geist sei ein unteilbares Ganzes, eine immaterielle Entität. Der Vermittlung zwischen Körper und Geist diente nach Descartes die Zirbeldrüse (corpus pineale) als Schnittpunkt. In den folgenden Jahren gelang es Gall jedoch, mit seiner Theorie die wissenschaftliche Gemeinschaft ein fur allemal davon zu überzeugen, daß das Gehirn das Organ des Geistes sei. Auf dieser Grundlage ergab sich die Möglichkeit, präzisere Fragen über die Organisation kognitiver Funktionen zu stellen. „ While Gall had a great deal to say on the psychological issue of 'what are the functions of the brain? ' he made no contribution to the physiological issue of how the brain functions" (Young, 1990,4). Ein Forum für weiterführende Diskussionen über die Lokalisation höherer Funktionen im Gehirn war die von Broca 1861 in Paris gegründete „Anthropologische Gesellschaft". Während bis zu diesem Zeitpunkt viele der Annahmen Galls und seiner Schüler bereits zurückgewiesen worden waren, blieb die These, Sprache sei in den Frontallappen - und zwar im supraorbitalen Bereich - lokalisiert, weitgehend unangefochten. Broca wurde auf seinen berühmtesten Patienten, Leborgne, aufmerksam, weil er ihn fur einen möglichen Testfall fur die sprachlokalisatorische These Galls hielt. Er lud den Arzt Aubertin, ebenfalls Mitglied der Anthroplogischen Gesellschaft und Verfechter der sprachlokalisatorischen These, ein, gemeinsam mit ihm diesen Patienten zu untersuchen. Aubertin und Broca kamen nach der Untersuchung des Patienten zu dem Schluß, bei Leborgne müsse eine Läsion der Frontallappen vorliegen. Pierre Marie (1906) berichtete später, daß Aubertin sogar öffentlich ankündigte, daß er die Lehrmeinung seines Schwiegervaters, des einflußreichen Neurologen Bouillauds, zurückweisen würde, wenn sich bei diesem Patienten keine Frontalläsion finden sollte. Dies erhöhte die Anteilnahme, die man in Forscherkreisen an diesem Fall nahm. Der Patient, dessen Sprachvermögen sich auf die Silbe „tan" beschränkte und der deshalb in der Literatur auch als Tan bekannt wurde, starb kurz nach der Untersuchung. Er hatte 21 Jahre im Krankenhaus von Bicetre verbracht, wo er ursprünglich aufgenommen worden war, weil er bis auf
4 die Silbe „tan" praktisch stumm war. Trotz dieser schweren Beeinträchtigung führte er im Krankenhaus ein relativ unabhängiges Leben. Er verstand offensichtlich, was ihm gesagt wurde und konnte auch seine Bedürfnisse zum Ausdruck bringen. Nach 10 Jahren verschlechterte sich sein Zustand, weil eine Lähmung des rechten Arms eintrat. Kurz vor seinem Tod dehnte sich die Lähmung auch auf sein rechtes Bein aus. Bei der Autopsie fand Broca eine Läsion im linken Frontallappen, was nicht nur Galls These bestätigte, sondern auch Aubertins Familienfrieden rettete. Bei seiner Analyse kam Broca zu dem Schluß, daß die Läsion, die im ersten Stadium der Krankheit zu einer isolierten Störung der Sprache geführt hatte, den Fuß der dritten Frontalwindung betroffen hatte. Dort lokalisierte Broca diejenige Himregion, deren Schädigung den Verlust der artikulierten Sprache nach sich zieht. Damit war erstmals eine psychische Funktion neurologisch geortet worden. In der Beurteilung der neurologischen Aspekte dieses Syndroms war Broca innovativer als in der psychologischen Beurteilung, welche das Sprachvermögen wesentlich in rezeptive vs. expressive Fähigkeiten aufteilte. Bis zu Brocas Entdeckungen hatte man die Lappen für die kleinsten distinkten anatomischen Einheiten des Gehirns gehalten. Broca machte nun auf die relative Konstanz der Windungsanatomie aufmerksam, die sich beim Vergleich von Gehirnen zeigte. Er betrachtete die Windungen als mögliche anatomische Loci der höheren Funktionen des Menschen. Brocas Arbeit (1861) wird vielfach als die erste wirklich wissenschaftliche Abhandlung über die Beziehungen von Sprache und Gehirn betrachtet. Sie unterscheidet sich von vorangegangenen Arbeiten in drei Punkten: (1) Broca bezieht sich auf eine detaillierte Fallbeschreibung und auf eine sorgfaltige Autopsie. (2) Die Einsicht in die überindividuelle Konstanz der Windungsanatomie und die hypothetische Herstellung eines Bezugs zwischen Windungen und speziellen psychologischen Funktionen haben die Forschung seither beeinflußt. (3) Brocas zentrale These, daß der Fuß der dritten Frontalhimwindung der Sitz der Fähigkeit zur Produktion artikulierter Rede sei, hat sich, obwohl sie in der Folgezeit nicht unbestritten blieb (vgl. Kap. 1.2), als eine sehr gute erste Schätzung erwiesen (vgl. Caplan, 1988, 46). 1865 veröffentlichte Broca seine zweite bedeutende Arbeit über Sprachstörungen. Nach der Untersuchung von acht Fällen von Aphasie (die bei Broca noch Aphemie hieß) machte er die wissenschaftliche Gemeinschaft darauf aufmerksam, daß diese Aphasien stets auf Läsionen der linken Hemisphäre folgten. Darauf stützte er die These, daß die linke Hemisphäre für Sprache verantwortlich sei. Diese Annahme widersprach dem allgemeinen biologischen Gesetz, symmetrische Organe seien für gleiche Funktionen zuständig. Die These, daß die beiden Hirnhälften sich nicht nur in ihrer Funktion, sondern auch in der Anatomie ihrer Windungen unterschieden, wurde erst etwa 100 Jahre später durch embryologische Studien zur Lateralisierung eindeutig belegt. Brocas Entdeckungen hatten das Interesse an der Erforschung der Aphasien angefacht, denn sie ließen wichtige neue Erkenntnisse für die klinische Neurologie erwarten. Seit 1861 finden sich in der neurologischen Fachliteratur zunehmend Fallbeschreibungen von Aphasie-
5
patienten. Das Auftreten von Sprachstörungen bei Läsionen, die nicht die Broca-Region, sondern andere Regionen der linken Hemisphäre betrafen, legte schließlich die Vermutung nahe, daß Brocas Theorie nicht die vollständige Analyse von Sprachstörungen beinhaltete.
1.2 Aufstieg und Niedergang konnektionistischer Modelle Einen geschlossenen Rahmen für die Interpretation von Aphasien bot Carl Wernicke mit seiner 1874 erschienenen Arbeit „Der aphasische Symptomenkomplex: Eine psychologische Studie auf anatomischer Basis ". Die Grundlage für Wernickes Theorie bildeten die Beobachtungen, die er an zwei Aphasiepatienten gemacht hatte. Diese Aphasiepatienten wiesen Störungsphänomene auf, die sich stark von jenen unterschieden, die von Broca beschrieben worden waren. Beide Patienten hatten offensichtlich Schwierigkeiten, Sprache zu verstehen. Die sprachlichen Äußerungen, die Leborgne und andere Patienten mit Broca-Aphasie hervorbrachten, waren stets stockend und von großer Sprachanstrengung gekennzeichnet. Wernickes Patienten sprachen hingegen flüssig und mit normaler Intonation, wobei ihren Äußerungen allerdings der Sinn fehlte. Statt des geforderten Wortes brachten diese Patienten Wörter hervor, die dem Zielwort entweder semantisch oder phonologisch ähnlich waren. Häufig unterschieden sich die Äußerungen von Wernickes Patienten sehr von den Wörtern der deutschen Sprache, weshalb für diese Neuschöpfungen der Ausdruck Neologismen geprägt wurde. Nach dem Tod einer Patientin Wernickes fand sich bei der Autopsie eine durch einen Infarkt verursachte Läsion in der Gegend der ersten Windung des Temporallappens der linken Hemisphäre, die sich posterior bis zum Parietallappen erstreckte. Wernicke schlug vor, daß diese später nach ihm benannte Region ein zweites Sprachzentrum darstelle und komplementäre Funktionen zu Brocas erstem Sprachzentrum erfülle. Gestützt auf seine eigenen Beobachtungen und die neurologischen Daten, die ihm dank der Vorarbeit von Broca und anderer zur Verfügung standen, entwarf Wernicke eine Theorie, die sich mit der aufkommenden Assoziationspsychologie Wundts und der neurophysiologischen Reflextheorie Meynerts in Einklang befand. Den Ausgangspunkt seiner Theorie bildete die Entdeckung verschiedener Aphasieformen, die durch Läsionen in verschiedenen Regionen des Gehirns hervorgerufen zu sein schienen. Diese Entdeckung implizierte zugleich, daß an der Sprachrepräsentation und -Verarbeitung im Gehirn verschiedene Regionen mit unterschiedlichen Funktionen beteiligt sind und normale Sprachfähigkeit das Zusammenwirken dieser Regionen erfordert. Seine Auffassung von der eingeschränkten Lokalisierbarkeit komplexer Funktionen entsprach nicht dem starken Lokalisationsbestreben einer phrenologisch geprägten Sichtweise. Die Großhimoberfläche ist ein Mosaik derartiger einfachster Elemente, welche durch anatomische Verbindung mit der Körperperipherie characterisirt sind. Alles was über diese einfachsten Functionen hinausgeht, die Verknüpfung verschiedener Eindrücke zu einem Begriffe, das Denken, das Bewusstsein, ist eine Leistung der Fasermassen, welche die verschiedenen Stellen der Grosshimrinde unter einander verknüpfen, der von Meynert sogenannten Associationssysteme. (Wernicke, 1874, 4)
6 Wernickes Ansatz, komplexe Funktionen auf das Zusammenwirken einfacher Komponenten zurückzuführen, ist als konnektionistische Sichtweise bekannt geworden und hatte großen Einfluß auf die weitere Theorieentwicklung. Zugleich präzisierte Wernicke die Vorstellung eines Informationsflusses zwischen Zentren, die sich schon bei Gesner abgezeichnet hatte. In der Vorstellung, daß die normale Sprachkapazität das Zusammenwirken zweier Hirnregionen und den Informationsfluß zwischen ihnen beinhaltet, ist zugleich das Bemühen zu erkennen, nicht nur die Phänomene aphasischer Sprachstörungen zu erklären, sondern auch ein Modell normaler sprachphysiologischer und -psychologischer Abläufe zu entwerfen. a
b
a - Zentrum für Klangbilder b - Zentrum für Bewegungsvorstellungen
Abbildung 1.1 Für die Produktion gesprochener Sprache, für die Formulierung von Gedanken, ist nach Wernickes Vorstellung zunächst der Zugriff auf das Zentrum bzw. den Gedächtnisspeicher für die Klangbilder von Wörtern erforderlich. Wernicke stellte sich einen Informationsfluß zwischen diesem Zentrum und dem Speicher für Bewegungsvorstellungen von Wörtern vor. Beim Akt des Sprechens wurden demgemäß die Gedächtnisspuren in der Wernicke-Region erregt und als neuraler Code an die Gedächtnisspuren für die Bewegungsvorstellungen in der Broca-Region weitergeleitet. In diesem motorischen Sprachzentrum werden unter dem Einfluß des Gedankens und der Klangvorstellungen die entsprechenden Bewegungsmuster aktiviert und so der Sprechapparat innerviert. Diesen Theorieentwurf machte Wernicke mit einem ersten Diagramm (Abb 1.1) deutlich (das interessanterweise auf eine rechte Hemisphäre aufgetragen ist, vgl. Wallesch, 1988,156). Eine Läsion in der Broca-Region (a) führt zu einem vorherrschend motorischen Störungsbild, wie es etwa Brocas Patient Leborgne aufwies. Bei einer Läsion in der Wernicke-Region (b), wie sie Wernickes Patientin aufwies, resultierte eine vorwiegend sensorische Störung im Sprachverständnis und in der Sprachproduktion. Zusätzlich sagte Wernickes Theorie eine dritte Aphasieform voraus, die als Folge einer Läsion der Assoziationsbahnen zwischen (a) und (b) auftreten sollte. Kennzeichnend für dieses Störungsbild, die sogenannte LeitungsAphasie, sollte eine Störung der Sprachproduktion sein, die dem Erscheinungsbild bei Läsionen in der Wernicke-Region gleicht, ohne jedoch von Störungen des Sprachverständnisses begleitet zu sein. Die Störung der Assoziationsbahnen zwischen (a) und (b) würde dazu führen, daß der Informationsfluß von den auditorischen zu den motorischen Feldern unterbrochen wäre, während das unbeschädigte Zentrum für auditorische Worterinnerungsbilder ein ungestörtes Sprachverständnis ermöglichen würde.
7
Wemicke ist nicht nur für die Entwicklung der Aphasieforschung insgesamt, sondern auch für die Dyslexieforschung eine Schlüsselfigur. Sein klassisches Wortverarbeitungsmodell (Wernicke, 1874) integrierte neben der primären Lautsprache auch die sekundäre Schriftsprache (vgl. Abb. 1.2, aus DeBleser/Bayer/Luzzatti, 1987, 132). Die für die Schriftsprache angenommenen Störungsphänomene verliefen dieser Vorstellung nach völlig parallel zu den lautsprachlichen Störungsmustern.
a a b ß
-
Zentrum für Klangbilder Zentrum fllr optische Sinnesbilder Zentrum für Bewegungsvorstellungen Zentrum für Erinnerungsbilder der Schreibbewegungen für Wörter
Abbildung 1.2 Wie in Abb. 1.1 findet sich ein Zentrum für Klangbilder (a) und ein Zentrum für Bewegungsvorstellungen (b). Daneben werden Lesen und Schreiben als psychologische Einheiten ebenfalls durch je ein Zentrum vertreten. Für das Lesen muß das optische Sinnesbild (a) eines Buchstabens zunächst mit seinem Klangbild (a) in Verbindung gebracht werden. Über den Weg von (a) nach (b) wird die Bewegungsvorstellung aktiviert, die das Lautlesen ermöglicht. Die Vereinigung von Klangbild und optischem Bilde macht aber den ganzen Begriff des Buchstabens aus, andere Qualitäten besitzt derselbe nicht. Ist also die Bahn a,b durchbrochen, gilt für den Buchstaben nicht, was für jeden anderen sinnlichen Gegenstand gilt, dass der Begriff desselben direct die Sprachbewegungsvorstellung innervieren könnte. (Wernicke, 1874, 28)
Analoges gilt für das Schreiben, wobei das optische Sinnesbild eines Buchstabens auf dem Weg über (a) und (b) nachgeahmt wird (vgl. Wernicke, 1874, 19). Bemerkenswert ist in diesem Zusammenhang, daß Wernicke die graphischen Modalitäten Lesen und Schreiben zwar einerseits als psychologische Einheiten mit je einem eigenen Zentrum darstellte, andererseits die Schriftsprache jedoch für sekundär und völlig von der Lautsprache abhängig hielt. Die Vorstellung von der Abhängigkeit der Schriftsprache wurde in der weiteren Theorieentwicklung lange beibehalten und verstellte damit den Blick auf genuin schriftsprachliche Störungsphänomene. Störungen der Schriftsprache waren aus dieser Perspektive entweder Epiphänomene der Aphasie, so daß Fehler beim Lesen und Schreiben nur
8 als Spiegelungen der bestimmenden lautsprachlichen Störung wahrgenommen wurden, oder sie waren modalitätsspezifische, aber periphere Störungen. Obwohl Wernicke bei der Veröffentlichung seiner Arbeit erst 26 Jahre alt war und in der Fachwelt noch keinen Ruf hatte, war schon seine erste Veröffentlichung unmittelbar erfolgreich. Bis 1885 hatte sich seine Theorie weitgehend durchgesetzt und bildete die Grundlage für die Klassifikation von Aphasien. Durch Lichtheims Veröffentlichung (1884/85) erfuhr Wemickes Theorie eine Weiterentwicklung und Erweiterung. Zusätzlich zu einem Zentrum für motorische Vorstellungen (M) und einem Zentrum für auditorische Vorstellungen (A) nahm er ein Zentrum für Begriffe (B) an. Durch die Annahme dieser drei Zentren und der Verbindungen zwischen ihnen ergaben sich aus dem Wernicke-Lichtheim'schen Schema sieben Aphasieformen (vgl. Abb. 1.3 , aus DeBleser/Bayer/Luzzatti, 1987, 133).
Abbildung 1.3 Zu den drei Aphasieformen, die schon Wernicke beschrieben hatte - der Broca-Aphasie bzw. kortikal motorischen Aphasie (1), der Wernicke-Aphasie bzw. kortikal sensorischen Aphasie (2) und der Leitungsaphasie (3) - ergaben sich drei weitere Aphasieformen, die alle aus der Unterbrechung der Assoziationsbahnen zwischen den Zentren resultierten. Bei einer transkortikal motorischen Aphasie (4) führt die Unterbrechung der Verbindung zwischen M und B in der Sprachproduktion zu den gleichen Phänomenen, die schon für die Broca-Aphasie beschrieben worden sind, allerdings sollte das Nachsprechen weiterhin möglich sein, weil die dafür zuständige Verbindung zwischen M und A ungestört ist. Die transkortikal sensorische Aphasie (6) führt durch die Unterbrechung der Verbindung zwischen B und A zu einer Störung im Sprachverständnis. Obwohl das Zentrum für Wortklangbilder (A) unbeeinträchtigt ist, kann der Betroffene aufgrund der Unterbrechung der Verbindung zum Zentrum für Begriffe die Bedeutung gehörter Wörter nicht mehr entschlüsseln. Im Gegensatz zu Patienten mit Wernicke-Aphasie sollte ein transkortikal-sensorischer Aphasiker jedoch wie ein transkortikal-motorischer Aphasiker in der Lage sein, Wörter nachzusprechen. Bei einer subkortikal motorischen Aphasie (5) führt die Unterbrechung der Verbindung von der Peripherie (m) zu einer Störung der Artikulation, weil die Sprechmuskulatur nicht mehr innerviert werden kann. Im Fall einer subkortikal sensorischen Aphasie (7) hat die Unterbrechung der Verbindung zwischen der Peripherie (a) und dem Zentrum für Klangvorstel-
9 lungen eine reine Worttaubheit zur Folge. Der so betroffene Patient kann gesprochene Sprache nicht verstehen, weist aber bei der Sprachproduktion keine der Störungen eines Wernicke-Aphasikers auf, da das Zentrum für Wortklangbilder (Wernicke-Region) intakt ist und Informationen ungehindert in das Zentrum für motorische Wortvorstellungen weitergeleitet werden können. Wie aus dem parallel aufgebauten Schema für die Schriftsprache (vgl. Abb. 1.4, aus DeBleser/Bayer/Luzzatti, 1987, 133) mit dem Schreibzentrum E und dem Lesezentrum O abzulesen ist, waren 7 Formen modalitätsspezifischer Störungen der Schriftsprache vorhersagbar. Dabei wurden 4 Alexie- und 3 Agraphieformen unterschieden.
Das Kennzeichen einer kortikalen Agraphie (1) sollte dieser Vorstellung nach eine Störung des Schreibens bei erhaltener Lesefahigkeit sein. Die Ursache wurde in einer Läsion im Schreibzentrum (E) gesehen. Im Falle einer kortikalen Alexie (2) sollten sowohl das Lesen wie das Schreiben unmöglich sein, da die Störung das Zentrum für optische Erinnerungsbilder (O) betrifft. Die Leitungsagraphie (3) entsteht durch Unterbrechung der Verbindung zwischen Lesezentrum (E) und Schreibzentrum (O), wodurch das Schreiben unmöglich geworden ist, während das Lesen erhalten bleibt. Die optischen Worterinnerungsbilder, die im Schreibzentrum gespeichert sind, können über die Bahn OE nicht mehr in Schriftform umgesetzt werden. Aus dem Schema läßt sich eine transkortikale Agraphie (4) ableiten, die aus einer Schädigung der Verbindung zwischen dem Zentrum für motorische Worterinnerungsbilder (M) und den im Schreibzentrum (E) gespeicherten Wortengrammen resultieren sollte. Bei einer subkortikalen Agraphie (5) wird dasselbe Störungsmuster wie bei einer kortikalen Agraphie (1) erwartet, in diesem Fall aber durch Störung der Verbindung vom Schreibzentrum (E) zur Peripherie (e) verursacht. Die im Schreibzentrum (E) gespeicherten Engramme können also nicht innerviert werden. Die transkortikale Alexie (6) ist durch Störung des Lesens und des Schreibens gekennzeichnet. Die Ursache wurde in einer Unterbrechung der Verbindung zwischen dem Zentrum für optische Erinnerungsbilder (O) und dem Zentrum für Wortklangbilder (A) gesehen. Mechanisches Kopieren sollte in einem solchen Fall noch möglich sein, da die Verbindung zwischen Lese- (O) und Schreibzentrum (E) ungestört ist.
10 Bei einer subkortikalen Alexie (7) ist durch die Unterbrechung der Verbindung von der Peripherie (o) zum Zentrum für optische Erinnerungsbilder (O) das Lesen unmöglich geworden, während das Schreiben (mit Ausnahme des Abschreibens) erhalten sein sollte. Diese Störungen waren als Vorhersage aus dem Modell abzuleiten, ließen sich allerdings in der klinischen Praxis so nicht beobachten. Das schriftsprachliche Leistungsmuster, das das Modell der Wortverarbeitung mit integrierter Schriftsprache (vgl. Abb. 1.4) für die Wernicke-Aphasie (bzw. kortikal-sensorische Aphasie) vorhersagte, stimmte offensichtlich nicht mit den klinischen Beobachtungen überein. Wird die Wernicke-Aphasie durch eine Störung im Zentrum für auditorische Worterinnerungsbilder ausgelöst (A), sagt das Modell für die Schriftsprache unbeeinträchtigtes Spontanschreiben (B-M-E) voraus. Diese Erwartung wurde jedoch durch die klinischen Beobachtungen widerlegt. Die Wernicke-Aphasiker wiesen in ihrer Schriftsprache Störungen auf, die in schriftlicher Form die Paraphasien der Lautsprache spiegelten. Daher wurde das Modell modifiziert (vgl. DeBleser/Luzzatti, 1989, 506). Diese Modifikation warf einen neuen Widerspruch zwischen Theorie und klinischer Beobachtung auf, der nun die Broca-Aphasie betraf. Wird eine Störung der motorischen Worterinnerungsbilder (M) als Ursache für Broca-Aphasie angenommen, sollten die Patienten über die Verbindung von A nach E nach Diktat schreiben können, was jedoch nicht zutraf.
Abbildung 1.5 Bei den Diagrammen Wernickes und Lichtheims handelte es sich bis 1885 im buchstäblichen Sinne um Wortverarbeitungsmodelle. Das Wort galt als Verarbeitungseinheit für jede Modalität, bis Grashey (1885) auf das Vorhandensein von Subworteinheiten hinwies. Während Grashey die gesprochene wie die geschriebene Sprache in Subworteinheiten unterteilt wissen wollte, übernahm Wemicke (1986a, b) diesen Gedanken nur für die geschriebene Sprache, um die oben beschriebenen modelltheoretischen Probleme zu lösen. Die Schriftsprache unterteilte er folgerichtig in Buchstaben, während er für die Lautsprache das Wort als kleinste Einheit beibehielt. Daraus ergab sich das theoretische Problem, die verschieden großen Einheiten Wörter der Lautsprache und Buchstaben der Schriftsprache - aufeinander zu beziehen. Wernicke löste dieses Problem, indem er die abstrakte Einheit y einführte, mit deren Hilfe
11
gesprochene Wörter in Buchstaben aufgegliedert und geschriebene Buchstabenketten in Wörter der Lautsprache umgewandelt werden konnten. Wie aus Abbildung 1.6 (DeBleser/ Luzzati, 1989, 510) ersichtlich ist, kann nun mit einer Störung in b (was dem Zentrum für motorische Worterinnerungsbilder entspricht) auch erklärt werden, warum die Schriftsprache bei Broca-Aphasikern beeinträchtigt ist (vgl. Patterson, 1986).
Speech
Writing
Abbildung 1.6 Mit der Einführung von y als Verarbeitungseinheit für die Schriftsprache war die Annahme eines orthographischen Lexikons vollends unmöglich geworden und die Annahme der völligen Abhängigkeit der Schriftsprache wurde weiter gefestigt (vgl. DeBleser/Luzzati, 1989). Von den in einem früheren Modellentwurf (vgl. Abb. 1.4) vorhergesagten modalitätsspezifischen Störungen der Schriftsprache behielt Wernicke aus Gründen der Theoriekonsistenz schließlich nur drei bei. Die in Abbildung 1.4 möglichen Agraphien (4), (5) und (7) hätten durch isolierte Störungen des Schreibens bei erhaltenem Lesevermögen gekennzeichnet sein sollen. Die Möglichkeit agraphischer Störungen ohne Alexie ist in dem in Abbildung 1.6 dargestellten Modell nicht mehr vorgesehen, denn es gibt kein separates Zentrum für das Schreiben von Buchstaben, wodurch die Fähigkeit des Schreibens in Abhängigkeit von der des Lesens gerät. Es kann demnach keine Agraphie ohne Alexie auftreten. Die transkortikale Alexie (6) ist nicht mehr vorgesehen, weil es in diesem Modell keine direkte Verbindung zwischen dem Zentrum für optische Erinnerungsbilder (a) und dem Zentrum für Wortklangbilder (a) gibt. Damit sind als modalitätsspezifische Störungen der Schriftsprache nur die kortikale Alexie (1) und die transkortikale Alexie (3) sowie die subkortikale Alexie (2), auch reine Alexie oder Alexie ohne Agraphie genannt, vorstellbar. Die beiden von Agraphie begleiteten Alexien (1)
12 und (3) wurden zur Alexie mit Agraphie zusammengefaßt. Diese als peripher betrachteten Störungen der Schriftsprache blieben bis 1973 die einzigen in der Literatur beschriebenen Dyslexien. Déjerines Analyse des Syndroms einer Alexie ohne Agraphie ist ein gutes Beispiel fur den von Wernicke und Lichtheim vertretenen Forschungsansatz. Im Jahr 1892 veröffentlichte Jules Déjerine die Fallgeschichte und die Autopsieergebnisse eines Patienten, den er über mehrere Jahre hinweg beobachtet hatte. Bei diesem Patienten handelte es sich um einen Ingenieur, der nach einem Schlaganfall ein ungewöhnliches Störungsmuster aufwies. Er konnte weder auf der Buchstaben-, Wort- noch Satzebene lesen und litt an einer rechtsseitigen Hemianopsie. Zudem konnte er keine Farben mehr benennen. Es half ihm, wenn er die Buchstaben abtasten konnte. Vor seiner Erkrankung war er ein talentierter Amateurmusiker gewesen und konnte Noten lesen, aber auch diese Fähigkeit hatte er verloren. Hingegen konnte er sowohl spontan als auch nach Diktat schreiben. Er konnte auch abschreiben, wobei er allerdings stets Druckschrift als Druckschrift und Kursivschrift als Kursivschrift kopierte. Die eigentümlichste Störung bestand jedoch darin, daß er, wenn ausreichend Zeit zwischen der Schreibaufgabe und der Aufforderung, zu lesen, lag, außerstande war, zu lesen, was er selbst geschrieben hatte. Nach einem zweiten Insult traten zum ursprünglichen Störungsbild eine Agraphie sowie paraphasische Störungen der Lautsprache hinzu. Die ältere Läsion, die die anatomische Ursache der Alexie ohne Agraphie gewesen war, machte Déjerine in den medialen und unteren Anteilen des linken Occipitallappens aus (vgl. Leischner, 1987). Dieses Störungsmuster deutete Déjerine im Rahmen konnektionistischer Modellvorstellungen als Diskonnektionssyndrom. Unterbrochen ist der Zugang von der visuellen Analyse zu jenem Speicher (a), der die optischen Sinnesbilder von Buchstaben bereithält. In Abbildung 1.6 ist diese Unterbrechung mit (2) bezeichnet. Eine solche Störung macht die Umsetzung von Buchstaben in ihre phonologischen Entsprechungen unmöglich, weshalb die Klanggestalten der Wörter in (b) nicht aktivierbar sind. Da umgekehrt der Zugang von den phonologischen Repräsentationen in (b) zum Zentrum (a) für optische Sinnesbilder ungehindert möglich ist, bleibt die Schreibfahigkeit - spontan sowie nach Diktat - erhalten. Auf das Störungsbild dieser Cécité verbale pure sans Agraphie wird in Kapitel 2 aus psycholinguistischer Perspektive zurückzukommen sein. Um die Jahrhundertwende entstand eine Vielzahl von Diagrammen, die die konnektionistische Sichtweise illustrierten (vgl. Überblick bei Moutier, 1908) und Analysen wie die Déjerines ermöglichten. Ausgehend von der Beobachtung, daß Patienten mit Schädigungen in bestimmten Regionen des Gehirns auch bestimmte Symptome aufwiesen, führte die Erklärung solcher gemeinsam auftretender Symptome dazu, daß „proper association of lésion with syndrome gradually changed until lésions were being associated either with 'centres ' of various kindor with disconnections between centres" (Morton, 1984, 51). Angesichts dieser Entwicklung formierte sich der Widerstand gegen das lokalisationstheoretische und konnektionistische Forschungsprogramm. Vereinfacht kann man die Position der Gegner des Konnektionismus mit dem Schlagwort Holismus kennzeichnen. Bei genauerer Betrachtung erweist sich jedoch die Vielgestaltigkeit der Einwände, wobei hier weder die gesamte Bandbreite von Argumenten gegen die Diagramm-Macher noch der theoretische Hintergrund alternativer Ansätze erör-
13
tert werden kann (vgl. fur einen Überblick Clarke/Dewhurst, 1973, oder Caplan, 1988). Wie der folgende, nur exemplarische Überblick zeigt, zielte die Kritik auf verschiedene Schwachpunkte der konnektionistischen Theorie. Jacksons Theorie fußte weniger auf einer anatomischen Basis, als auf einem hierarchischintegrativen Konzept psychologischer und neurophysiologischer Funktionen. Aus dieser Perspektive erscheint das Gehirn nicht als ein Ensemble unabhängiger funktioneller und struktureller Einheiten, sondern als ein kompliziertes hierarchisches System eng gekoppelter phylound ontogenetisch entstandener Funktionsschichten, das bei der Ausfuhrung einer Funktion zusammenarbeitet. Die Zerstörung eines oder mehrerer Elementarbausteine oder Schichten würde demnach zwar zur Einschränkung beziehungsweise zum Ausfall bestimmter Funktionen durch Unterbrechung des Funktionskreises fuhren, woraus aber nicht geschlossen werden kann, daß der zerstörte Baustein allein Funktionsträger der ausgefallenen Funktion war. Ebensowenig läßt sich folgern, daß sich im aphasischen Sprachverhalten grundsätzlich Normalität spiegele. Wenn dieser Vorstellung auch keine Hinweise für die Interpretation so spezifischer Profile erhaltener und gestörter Sprachleistung, wie sie Aphasiker aufweisen, zu entnehmen war, so beeinflußte sie doch die Sichtweise auf den Zusammenhang zwischen Sprache und zerebraler Organisation. Im Anschluß an Jackson vertraten auch andere Wissenschaftler „ganzheitlichere" Vorstellungen, so etwa Goldstein (1948), der vor dem Hintergrund der Gestalttheorie argumentierte. Wie Jackson forderte er, den Residualfunktionen und den Kompensationsmöglichkeiten nach Läsionen als Indikatoren der funktionellen Plastizität des Gehirns größere Aufmerksamkeit zu schenken. Aus Jacksons eigenen klinischen Untersuchungen an Aphasikern (1874, 1878) ergaben sich Beobachtungen, die von denen Wernickes und anderer diagrammorientierter Forscher abwichen und einer anderen, ganzheitlicheren Sichtweise von kognitiven Fähigkeiten und ihrer anatomischen Basis den Weg ebneten. Während sich die modellorientierte Untersuchung von Aphasikern auf deren Umgang mit einzelnen Wörtern konzentrierte, richtete Jackson seine Aufmerksamkeit auf andere Aspekte von Sprache und besonders auf den Sprachgebrauch. Aus seiner Sicht war nicht der Umgang mit einzelnen Wörtern der Maßstab für sprachliche Leistungen, sondern die Fähigkeit, Beziehungen (Propositionen) zwischen ihnen herzustellen. Seine Auffassung mutet so modern an, daß sie auch heutige Wortverarbeitungsmodelle an ihre Grenzen erinnert (vgl. Kapitel 7). It is not enough to say that speech consists of words. It consists of words referring to one another in a particular manner; and without a proper inter-relation of its parts a verbal utterance would be a mere succession of names embodying no proposition. A proposition, e.g. Gold is yellow, consists of two names each of which, by conventional contrivances of position, etc. (called grammatical structure in well-developed languages), modifies the meaning of each other. All the names in a random succession of words may, it is true, one after the other, excite perceptions in us, but not perceptions in any relation to another deserving the name of thought [...] When we apprehend a proposition, a relation between two things is given to us - is for the moment, indeed, forced upon us by the conventional tricks which put the two names in the respective relations of subject and predicate. We receive in a two-fold manner, not the words only, but the order of words also. (Jackson, 1874, 130f)
Broadbent (1878) schlug zur Einfügung von Jacksons Beobachtung unter anderem ein zusätzliches „centre for propositionizing" vor. Auf diese Weise wollte er die von Jackson beobach-
14 tete Dissoziation zwischen automatischer und propositionaler Sprache in das konnektionistische Modell integrieren. Diesem Zentrum war jedoch zum einen keine anatomische Lokalisation zuzuweisen und zum anderen verstieß die Integration dieser zusätzlichen Komponente in die Standarddiagramme gegen eine bis dahin streng befolgte methodische Regel, [...] for Broadbent here broke the strict methodological rule that [...] postulation of a centre should further enable as to represent the causation of other derangements of speech than the one that originally motivated it. It was just such an ad hoc proliferation of psycholinguistic components and connections that contributed to the eventual downfall of the system as productive research programme. (Arbib/Caplan/Marshall, 1982, 14)
Wie Henderson in seiner Kritik an der deskriptiven Zirkularität solcher Modellkonstruktion anmerkt, ist aus der Annahme eines „centre for propositionizing" über die Prozesse, die der Sprachproduktion zugrunde liegen, nicht mehr zu erfahren, „than we learn about pleasure from being told that it results from activation of the pleasure centre " (Henderson, 1981, 508). Zu jenen, die grundlegende konnektionistische Annahmen in Zweifel zogen, gehörte auch Freud (1891). Er gründete seine Einwände auf die Beobachtung, daß das sprachliche Verhalten aphasischer Patienten nicht den Vorhersagen der Modelle Wernickes und Lichtheims entsprach. Seiner Argumentation zufolge lag der potentielle Wert der Diagramme in ihrer Fähigkeit, alle klinisch auftretenden Kombinationen von Symptomen zu erklären. Wenn ein Syndrom nicht mit dem angenommenen Informationsfluß zwischen den Zentren vereinbar ist, besteht darin eine ernstzunehmende Einschränkung der Überzeugungskraft der Theorie. So war mit den zeitgenössischen Modellen beispielsweise nicht konsistent zu erklären, wie es zu den klinisch beobachtbaren herausragenden Störungen des Benennens von Objekten bei ansonsten gut erhaltener, flüssiger Spontansprache kommen kann. Dieses Leistungsmuster ist weder mit einer Störung im Begriffszentrum, noch mit einer Störung im Zentrum für motorische Worterinnerungsbilder, noch mit einer Leitungsstörung zu vereinbaren, zumal die Wörter, die dem Patienten beim Benennen von Objekten nicht zur Verfügung standen, in der Spontansprache oder bei einer Wiederholung der Benennungsaufgabe produziert werden konnten. Freud wies auch daraufhin, daß bei Wernicke-Aphasien Substantive, Adjektive und Verben für Perseverationen, Paraphasien und Ersetzung durch Neologismen besonders anfallig sind. Diese Beobachtungen konnten durch die Diagramme weder vorhergesagt noch einleuchtend erklärt werden. Die Vertreter des konnektionistischen Standpunkts wichen zur Erklärung dieser Phänomene auf eher vage Annahmen über minimale Schädigungen von Bahnen oder reduzierte Aktivierbarkeit von Zentren aus, die aber keinen prädikativen Wert hatten. Auch an den anatomischen Grundlagen der Lokalisationstheorie zweifelte Freud: Die Localisation psychischer Elemente gründet sich nur auf eine Verwechselung des Psychischen mit dem Physischen (1891,56).
Pierre Marie (1906) widersprach sowohl den anatomischen als auch den psychologisch-linguistischen Kriterien der Differenzierung verschiedener Aphasiesyndrome im konnektionisti-
15
sehen Paradigma. Zur Unterstützung seiner Argumentation bezog er sich auf die Arbeit seines Schülers Moutier, der in seiner 1908 erschienenen Dissertation buchstäblich die gesamte bis dahin zur Aphasieforschung erschienene Literatur aufarbeitet. Aus Moutiers Revision von 387 Fallstudien und den von ihm selbst durchgeführten klinischen Untersuchungen und Autopsien ergab sich, daß die Lokalisation der Aphasien von Fall zu Fall beträchtlichen Variationen unterlag. In sieben Fällen fand sich bei der Post-Mortem-Untersuchung von Patienten, deren Sprachverhalten als Broca-Aphasie gedeutet worden war, keine Läsion in der dritten Frontalwindung. In zwölf Fällen ergab die Autopsie zwar eine Läsion in der Broca-Region, aber das Sprachverhalten der Patienten hatte nicht die Charakteristik einer Broca-Aphasie aufgewiesen. Auf der Basis von Moutiers Analysen wies Marie die Lokalisierbarkeit von Aphasien zurück und diskreditierte wirkungsvoll die Lokalisationstheorie, indem er unter anderem einen Aufsatz mit dem provozierenden Titel „ Révision de la question de l'aphasie: la troisième circonvolution frontale gauche ne joue aucun rôle spécial dans la fonction du langage" (1906) veröffentlichte. Darüber hinaus behauptete er, daß sich bei gründlicher Untersuchung von Aphasikern zeigen würde, daß Aphasie stets von Schwierigkeiten im Sprachverständnis begleitet sei. Es gelang ihm, nachzuweisen, daß alle Aphasiker - also auch Broca-Aphasiker, deren Sprachverständnis aus Sicht der Diagramm-Macher intakt sein sollte - bei Konfrontation mit komplexen Sätzen bzw. mehrschrittigen Aufforderungen versagen würden. Marie argumentierte, daß die Fähigkeit, komplexe Aufforderungen zu verstehen, allgemeine Intelligenz erfordere, und daß es eben dieser erworbene Intelligenzmangel sei, der allen aphasischen Sprachstörungen zugrundeliege. Seiner Auffassung nach gab es nur eine Form von Aphasie: die Wernicke-Aphasie. Broca-Aphasie unterscheide sich von Wernicke-Aphasie nur durch eine zusätzliche Anarthrie, also ein motorisches Defizit. Den Höhepunkt der Auseinandersetzung zwischen beiden wissenschaftlichen Lagern bildete eine vielbeachtete Serie von Streitgesprächen, die im Sommer des Jahres 1908 in Paris unter Schirmherrschaft der französischen Gesellschaft für Neurologie zwischen Jules Déjerine und Pierre Marie ausgetragen wurden. Obwohl es Marie nicht gelang, überzeugend alle aphasischen Symptome auf einen allgemeinen Intelligenzmangel zurückzuführen, hatte auch die Überzeugungskraft der Lokalisationstheorie und damit der konnektionistischen Diagramme ernsten Schaden genommen. Constantin von Monakow (1914, 1) hat die Ursachen für den Niedergang konnektionistischer Modelle zerebraler Sprachverarbeitung analysiert und kam zu dem Ergebnis: Die Lokalisation im Zentralnervensystem lässt sich von drei verschiedenen Richtungen aus, welche breite gemeinsame Berührungsflächen haben, in bezug auf die nähere Fragestellung aber ziemlich weit auseinandergehen, betrachten: a) die Lokalisation im anatomischen Sinne (Faserverlauf, Zytoarchitektonik), b) die Lokalisation nach Symptomen und Symptomgruppen (Ausfall und Reizerscheinungen bei örtlichen Eingriffen oder pathologischen Prozessen in der Hirnsubstanz), und c) die Lokalisation der Funktionen. Nichts hat die Diskussion um die Lokalisation, zumal im Grosshirn, so sehr verwirrt und in unfruchtbare Bahnen gelenkt, als die Nichtbeachtung der Verschiedenheit in der Fragestellung, die jeder dieser Lokalisationsweisen zugrundeliegt.
16 Die Kritik an den Diagrammen hatte Schwächen der Theorie offensichtlich werden lassen, da, wie etwa Freud zeigte, Beobachtungen an Aphasikern nicht modellkonsistent zu erklären waren, oder wie Marie zeigte, die anatomische Basis instabil war. Zugleich schien ein mehr holistischer Ansatz, der mit den bestimmenden psychologischen Konzepten des frühen 20. Jahrhunderts besser vereinbar war, eher zur Analyse aphasischer Phänomene geeignet. Während sich das konnektionistische Bestreben auf die Modellierung einzelner Komponenten der Sprachverarbeitung - etwa Sprechen und Verstehen, Lesen und Schreiben einzelner Wörter gerichtet hatten, glaubten eher holistisch orientierte Theoretiker wie Jackson, Goldstein oder Luria nicht, daß man das Sprachvermögen unabhängig von anderen kognitiven und auch motivationalen Prozessen erforschen könne.
1.3 Schriftsprachverarbeitung aus neurolinguistischer Sicht: Konnektionismus der zweiten Generation Die modellgestützte Analyse spezifischer, erworbener Störungen der Sprache trat mit dem Niedergang der klassischen Diagramme in den Hintergrund. Für die Wiederbelebung einer sozusagen konnektionistischen Sichtweise unter neuen Vorzeichen hatte Marshall/Newcombes Aufsatz „Pattems ofParalexia" (1973) entscheidende Bedeutung. STIMULUS 4-
Abbildung 1.7 Bei ihrer Interpretation von erworbenen Dyslexien stützten sie sich auf ein frühes kognitives Modell normaler Wortverarbeitung (vgl. Morton, 1969). Experimentelle Studien an normalen Lesern hatten inzwischen zu der Erkenntnis gefuhrt, daß die von den Diagramm-Machern angenommene totale Abhängigkeit der Schriftsprache von der Lautsprache nicht der psychologischen Realität entsprach. Bei geübten Lesern war beobachtet worden, daß die Aufmerksamkeitsspanne, die bei unzusammenhängenden Buchstaben nur 4 bis 5 Zeichen
17
umfaßt, viel größer wird, wenn die Buchstaben ein Wort bilden. Schriftlich präsentierte Wörter können mithin so schnell erkannt werden, daß die Identifikation jedes einzelnen Buchstabens ausgeschlossen werden kann (vgl. Neisser, 1974). Der Nachweis dieses Wortüberlegenheitseffekts hatte dazu beigetragen, die Hypothese relativer Autonomie der Schriftsprache zu etablieren, derzufolge beim Lesen, bewußt oder durch Notwendigkeit geleitet, verschiedene Strategien eingesetzt werden können. Auf Grundlage solcher Befunde schlugen Marshall/ Newcombe ein Dual-Route-Modell vor, demzufolge für das laute Lesen eines Wortes eine phonologische Bahn und eine lexikalische Bahn zur Verfugung standen (vgl. Abb. 1.7, Marshall/Newcombe, 1973). Im Rahmen dieses noch sehr schlichten Modells interpretierten sie zwei neue Formen von Dyslexie. Im Fall der sogenannten Tiefendyslexie fielen besonders semantische Fehler auf, wobei die Reaktion auf ein schriftlich präsentiertes Wort ein semantisch verwandtes Wort war (wie z.B. t o w n statt city). Bei der Oberflächendyslexie fielen hingegen phonologisch orientierte Lesefehler ins Auge, wobei etwa begin [ b l ' g l n ] als [ ' b e g i n ] gelesen wurde. Vor dem Hintergrund des abgebildeten Modells wäre bei Tiefendyslexie die phonologische Bahn, bei Oberflächendyslexie die lexikalische Bahn „außer Betrieb". Beide Formen von Dyslexie, deren Benennung auf Chomskys Unterscheidung zwischen Tiefen- und Oberflächenstruktur zurückgeht, werden in eigenen Kapiteln ausfuhrlich diskutiert werden. Im Anschluß an diesen ersten Entwurf eines Modells schriftlicher Wortverarbeitung erwachte ein neues Interesse an der Dyslexieforschung und an der neurolinguistischen Modellierung von Einzelkomponenten der Sprachverarbeitungsprozesse. Die heutige neurolinguistische Modellbildung teilt mit der traditionellen Doktrin der Diagramm-Macher die Annahme fundamentaler Unterschiede zwischen verschiedenen Operationen, die Menschen mit Wörtern vollziehen können (visuelle, phonologische, semantische, artikulatorische etc.). Im Unterschied zum „klassischen" Konnektionismus wird kein Versuch unternommen, diese hypothetischen Wissensstrukturen auf lokalisierbare Hirnstrukturen zu beziehen. Aus heutiger Sicht lassen sich keine überindividuell konstanten fokalen Repräsentationen sprachlicher Leistungen festschreiben, man stellt sich Sprache eher „ nach Art eines Funktionsnetzes, welches sich über das ganze Areal der mittleren Hirnarterie mit verschiedener Schwerpunktbildung ausbreitet" (Leischner, 1979, 4) vor. Die Frage, welche Funktionen sich in bestimmten Regionen des Gehirns lokalisieren lassen, ist zugunsten eines anderen Anliegens in den Hintergrund getreten: „[...] to characterize the Operations of the normal brain and to describe the effects of brain damage in individual patients in terms of the resulting psychological model" (Morton, 1984, 40). Psychologische Modelle dieser Art bilden funktionelle Läsionen unabhängig von ihrer neurologischen Lokalisierbarkeit ab. Überlegungen zu einer abstrakten, funktionellen Lokalisation treten dabei an die Stelle neuroanatomischer Erwägungen. Eine den konnektionistischen Modellen der zweiten Generation gemeinsame Grundannahme ist, daß innerhalb der Sprachverarbeitung psychologische Teilprozesse voneinander abgrenzbar sind. Versuche kognitiv-psychologischer Modellierung unter Verwendung modularer Substrukturen sind vor allem im Bereich der Schriftsprachverarbeitung - und hier besonders des Leseprozesses - weit fortgeschritten, wie die Kapitel 3 bis 6 belegen werden. Auch wenn die Modelle noch deutlich divergieren, scheint es Anhaltspunkte dafür zu geben, daß sich
18
beim Lesen einzelner Wörter phonologische und lexikalische Prozesse voneinander unterscheiden lassen und differentiell störbar sind. Ebenso wie andere hochselektive neuropsychologische Störungsmuster werden die differentiellen Störungen des Leseprozesses als starkes Argument dafür gewertet, daß es in der menschlichen Sprachverarbeitung abgrenzbare Teilprozesse gibt. Seit dem Niedergang der ersten Diagramm-Generation um die Jahrhundertwende war die Analyse solcher Teilprozesse vorübergehend in den Hintergrund getreten. Aus heutiger Sicht ist die Isolierbarkeit autonomer Komponenten der menschlichen Informationsverarbeitung eine zentrale Frage der Kognitionswissenschaften: The condition for successful science (in physics, by the way as well as psychology) is that nature should have joints to carve it at: relatively simple subsystems which can be artificially isolated and which behave, in isolation, in something like the way that they behave in situ. (Fodor, 1983, 128)
Die moderne Neurolinguistik bemüht sich, wie es zuvor die Diagramm-Macher taten, jenes Subsystem zu analysieren, welches für die Verarbeitung visuell präsentierter, einzelner Wörter zuständig ist. Während - wie die Kapitel 3 bis 6 zeigen werden - bei der Analyse gestörter und normaler Wortverarbeitung dem Anschein nach tatsächlich verschiedene Prozesse unterscheid- und isolierbar sind, bleibt in veränderter Form die Herausforderung des Holismus dennoch bestehen. Marie und Jackson bezweifelten gegen Ende des vergangenen Jahrhunderts unter anderem die Nützlichkeit der Betrachtung (und Modellierung) isolierter Prozesse für das Verständnis der Grundlagen menschlicher Kognition und menschlichen Sprachvermögens. Obwohl Forscher verschiedener kognitionswissenschaftlicher Disziplinen in Bereichen wie etwa bei informationsverarbeitenden Modellen visueller Wahrnehmung (Marr, 1982) oder auch der Wortverarbeitung (McClelland/Rumelhart, 1986) bemerkenswerte Fortschritte gemacht haben, bleibt die Frage nach der allgemeinen Aussagekraft solcher Modelle, die nur Teilaspekte abbilden, bestehen. Fodor (1983) hat vorgeschlagen, den menschlichen Geist als ein Arrangement von im wesentlichen separaten informationsverarbeitenden Subsystemen zu betrachten. Einige dieser Subsysteme sind für Sprachverarbeitung zuständig, andere für visuelles Verarbeiten oder ähnliche, spezifische Aufgaben. Innerhalb der einzelnen Module unterliegt die Informationsverarbeitung jeweils eigenen Gesetzmäßigkeiten, was bedeutet, daß beispielsweise der Umgang mit sprachlicher Syntax möglicherweise nur wenig grundlegende Gemeinsamkeiten mit den Prozessen bei Transformationen dreidimensionaler Vorstellungen hat. Während diese jeweils spezifischen Prozesse innerhalb der Module der Analyse zugänglich sind, stellt sich die Frage nach dem Zusammenwirken der Subsysteme. Einige Anhänger des modularen Standpunkts vertreten, wie Fodor, die Auffassung, daß für Kommunikation oder Koordination der Module ein Zentralsystem zuständig ist. Ein solches Zentralsystem wäre isotrop bzw. molar, und daher nicht mit experimentellen Methoden zu analysieren: „central systems are recalcitrant to experimental methods, because they are not modular" (Rosenthal, 1988, 55). Aus der Annahme eines horizontalen, integrativen und der Analyse nicht zugänglichen Zentralsystems resultieren enge Grenzen für die Aussagekraft von Analysen modularer Phänomene, womit gelten würde: „ The limits of modularity are also likely to
19 be the limits of what we are going to be able to understand about the mind, given anything like the theoretical apparatus currently available" (Fodor, 1983, 126). Heute wie vor 100 Jahren befindet sich die Erforschung hochspezifischer, erworbener Störungen der Sprache im Spannungsfeld zwischen mikro- und makrostrukturellen Erwägungen. Heutige Modelle „ not deny that there is a macrostructure, just as the study of subatomic particles does not deny the interactions between atoms" (McClelland/Rumelhart/Hinton, 1988,12).
Abbildung 1.8 Die Frage, inwieweit die Analyse des hypothetischen, modularen Subsystems der Verarbeitung visuell präsentierter Wörter (exemplarisch für andere Module mit anderen Verarbeitungsmechanismen) Auskunft über tatsächlich relevante Prozesse menschlicher Kognition geben kann, ist (noch) nicht zu beantworten. Die Warnungen vor modular orientierten Forschungsprogrammen zielen darauf, daß sie zu einer Psychologie fuhren, der es an ökologischer Gültigkeit mangelt, weil sie menschlicher Intentionalität und Kultur gegenüber indifferent ist (vgl. Neisser, 1979). Keineswegs von der Hand zu weisen ist der Hinweis, daß die im folgenden zu diskutierenden Modelle auf künstlichen Laborsituationen basieren. Der experimentell angeleitete Umgang mit einzelnen Wörtern entbehrt nicht einer gewissen Künstlichkeit und der Bezug zu natürlichen Sprach- und Schriftsprachverarbeitungsprozessen ist nicht immer zu erkennen.
20 Ein Schwerpunkt neurolinguistischer Forschung, die Dyslexieforschung, ist das Thema der vorliegenden Arbeit. Die Modelle, in deren Rahmen dyslektische Phänomene in den Kapiteln 3 bis 6 betrachtet werden, verstehen sich als informationsverarbeitende Modelle. Sie dienen, wie Morton (1984) anmerkt, der Darstellung einer komplexen Theorie und sind damit eine Denkhilfe, die die dem Verhalten zugrunde liegenden Mechanismen anschaulich machen wollen. Obwohl diese Modelle informationsverarbeitende Modelle genannt werden, sind sie, wie in Kapitel 7 diskutiert wird, insofern statisch, als sie - wie die Diagramme ihrer Vorgänger - Komponenten, Stufen und Strukturen von Prozessen abzubilden versuchen, nicht aber Prozesse selbst (vgl. Abb. 1.8, aus Morton/Patterson, 1987a). Auch wenn neurolinguistische Beobachtungen die isolierte Störbarkeit einzelner Komponenten nahelegen, läßt sich nicht ableiten, daß sich die gesamte Sprachverarbeitung in modulare Teilprozesse aufschlüsseln läßt. Im Fall des Logogen-Modells schließt beispielsweise das „cognitive system" eine Vielzahl kognitiver Prozesse ein und sperrt sich gegen die kognitiv psychologische Dissektion. Angesichts der bis jetzt noch nicht beantwortbaren Fragen nach dem Verhältnis von Mikro- und Makrostrukturen menschlicher Informationsverarbeitung bleibt das Fundament neurolinguistischer Forschung hypothetisch. Die von der überwiegenden Mehrzahl der Wissenschaftler geteilten Arbeitshypothesen, die den Hintergrund der Analyse von Dyslexien (wie etwa auch von isolierten Störungen des Kurzzeitgedächtnisses etc.) bilden, könnte man in Anlehnung an Kelter (1990) so formulieren: (1)Die Störung einer Verarbeitungskomponente XI hat keine Auswirkungen auf die Leistungen bei Aufgaben, an denen die Komponente XI beim Hirngesunden nicht mitwirkt. (2) Die Störung einer Verarbeitungskomponente XI fuhrt bei allen Aufgaben, bei denen sie normalerweise mitwirkt, zu Beeinträchtigungen. (3) Der Effekt einer Störung kann nicht durch eine zweite Störung reduziert werden. (4) Hirngeschädigte Menschen setzen bei der Bearbeitung einer Aufgabe jeweils exakt dieselben Verarbeitungskomponenten ein wie hirngesunde Menschen. Diese letztgenannte Arbeitshypothese ist besonders zwiespältig. Von erworbenen Dyslexien sind nur dann Rückschlüsse auf die dem normalen Leseprozeß zugrundeliegenden Prozesse zu erwarten, wenn sie zutrifft. In Kapitel 3 wird sich jedoch zeigen, daß es Anlaß geben kann, an der grundsätzlichen Normalität dyslektischer Fehlermuster zu zweifeln. Zuvor soll in Kapitel 2 ein Überblick über einige wichtige methodische Präferenzen einer den genannten Arbeitshypothesen verbundenen, modellgeleiteten Dyslexieforschung gegeben werden.
2 Überblick über Grundannahmen und Methodik modellgestützter neurolinguistischer Forschung Das hypothetische Fundament, auf dem - wie in Kapitel 1 festgestellt - die neurolinguistische Forschung beruht, zieht bestimmte methodische Präferenzen nach sich. In der Methodik spiegelt sich unvermeidlich die theoretische Position, denn „methodology cannot be divorced from theory. Conclusions about the appropriateness or inappropriateness of a method are always relative to a theoretical framework" (McCloskey/Caramazza, 1988, 584). Die Annahme, daß komplexe kognitive Prozesse auf dem Zusammenwirken verschiedener, unabhängiger Verarbeitungskomponenten basieren, ermöglicht es, eine entsprechende Modellarchitektur zu entwerfen. Das Ziel solcher Modelle ist es, nicht nur die Spannbreite normaler Leistungen in einem Teilbereich, sondern durch entsprechende funktionelle Läsionen des Modells auch Störungsmuster zu erklären. Als Darstellungsform und Diskussionsgrundlage für die komplexen Theorien kognitiver Verarbeitung eignen sich Flußdiagramme besonders gut. Deshalb teilen Konnektionisten der zweiten Generation die Vorliebe für Diagramme mit den Diagramm-Machern des 19. Jahrhunderts. Wherever modular systems are used - whether in hi-fis, chemical processing plants, or minds - diagrams are a popular illustrative device. With a diagram one can simultaneously display all the separate components and their interconnections, and one can also work out more easily the consequences of damage to a component or an element [...] the mind shows modelarity as well as modularity. That said, there is nothing in a diagram that could not also be expressed by words. A diagram is simply a device for imaging a theory. (Ellis, 1987, 399)
Am Beispiel der Dissoziationen, deren Bedeutung für die Isolation von Verarbeitungskomponenten in Kapitel 2.1 diskutiert wird, zeigt sich, wie eng theoretische Vorannahmen, Darstellungsform, Methodik und Theorieentwicklung miteinander verwoben sind. Syndrom ist ein wichtiges Stichwort neuropsychologischer Forschung, wobei theoretische und praktische Füllung des Begriffs durchaus divergieren können. Bevor in den Kapiteln 3 bis 6 dyslektische Syndrome dargestellt und auf ihre „Syndromhaftigkeit" abgeklopft werden, bietet Kapitel 2.2 eine terminologische Klärung. Wer seine Forschung von der Plattform der genannten Grundannahmen neuropsychologischer Forschung aus betreibt, wird im Regelfall Einzelfallstudien den Vorzug vor Gruppenstudien geben. So sind auch die meisten Studien an Dyslektikern Einzelfallstudien. Die Gründe für diese Präferenz werden in Kapitel 2.3 ebenso erörtert wie Probleme dieser methodischen Wahl.
2.1 Dissoziationen Die folgende Argumentation bezieht sich auf serielle Verarbeitungsmodelle. In Modellen dieses Typs wird das Verarbeitungsergebnis einer Komponente erst dann an die nächstfolgende
22 Komponente weitergegeben, wenn der Verarbeitungsprozeß der ersten Komponente vollständig abgeschlossen ist. Solche Komponenten, die auf einen wohldefinierten Input beschränkt sind und autonom arbeiten, entsprechen Fodors Definition eines Moduls (Fodor, 1983). Das Vorliegen von Dissoziationen überprüft man vor dem theoretischen Hintergrund eines solchen Modells dadurch, daß man Patienten zwei verschiedene Aufgaben (A und B) vorlegt. Dabei gilt allgemein, daß Dissoziationsbefunde um so aufschlußreicher sind, je ähnlicher die Anforderungen sind, die die beiden Aufgaben an die Informationsverarbeitung stellen. Entsprechend ist die Aussagekraft einer Dissoziation zwischen beispielsweise Notenlesen und dem Erkennen verschiedener Pilzsorten gering. Sind an der Erfüllung beider Aufgaben jedoch weitgehend dieselben Komponenten beteiligt, ist ein Dissoziationsbeftind deshalb aussagekräftig, weil offenbar alle von A und B gemeinsam beanspruchten Verarbeitungskomponenten intakt sind. Entsprechend kommen für die funktionelle Lokalisation der Störung nur noch wenige Komponenten in Frage (vgl. Kelter, 1990). Angenommen, nach Auswahl geeigneter Aufgaben A und B seien vier Patienten mit unterschiedlichem Leistungsprofil zu beobachten, wobei Patient 1 sowohl Aufgabe A als auch Aufgabe B perfekt löst. Patient 2 ist perfekt bei Aufgabe A und außerstande, Aufgabe B zu bewältigen. Patient 3 ist hingegen perfekt bei Aufgabe B und außerstande, Aufgabe A zu lösen. Patient 4 kann keine von beiden Aufgaben bewältigen. Unter der Vorannahme eines Modells, dessen Komponenten voneinander unabhängig sind, läßt sich aus der Beobachtung der Patienten 1, 2, 3 und 4 folgern, daß es mindestens eine Komponente gibt, die an der Bewältigimg der Aufgabe A, nicht aber an der Ausführung der Aufgabe B beteiligt ist (vgl. Sartori, 1988). Als Illustration für eine den Leseprozeß betreffende Dissoziation eignet sich das Beispiel eines hypothetischen Lesers der japanischen Schrift. Dort werden parallel zwei Schriftsysteme benutzt, eine Silbenschrift, Kana, und eine logographische Schrift, Kanji. Aufgabe A besteht im Lesen eines Kanji-Wortes, Aufgabe B erfordert das Lesen eines Kana-Wortes. Auf die Erscheinungsformen von Dyslexien im japanischen Schriftsystem wird in Kapitel 3 und 5 zurückzukommen sein. In diesem Zusammenhang werden auch die kognitiven Hintergründe des normalen und gestörten Umgangs mit diesen beiden Zeichensätzen näher beleuchtet. Vorausgesetzt, daß es Patienten gibt, die beide Aufgaben perfekt bzw. gar nicht bewältigen können (Typ 1 und 4), würde die Entdeckung eines Patienten vom Typ 2, der Kanji-Wörter (Aufgabe A) überhaupt nicht, Kana-Wörter (Aufgabe B) aber einwandfrei lesen kann, den Tatbestand einer einfachen Dissoziation erfüllen. Eine einfache Dissoziation liegt somit im allgemeinen dann vor, „when a patientperforms extremely poorly ort one task [...] and at a normal level or at least at a very much better level on another task" (vgl. Shallice, 1988, 34). Der Auftritt eines Patienten vom Typ 3, der zwar Kanji-Wörter (Aufgabe A) lesen kann, aber bei Kana-Wörtern (Aufgabe B) versagt, erlaubt es, von einer doppelten Dissoziation zu sprechen. Ihre Aussagekraft gewinnen einfache wie doppelte Dissoziationen erst vor dem Hintergrund eines Modells. Wenn man stark vereinfacht annimmt, daß das Lesen eines Kana-Wortes auf der Umsetzung von Silbenzeichen in eine phonologische Repräsentation, also einem nicht näher spezifizierten phonologischen Prozeß, basiert und dieser Vorgang bei einem Patienten vom Typ 3 gestört ist, kann man folgern, daß eine (oder mehrere) Komponenten dieses Vor-
23 gangs am Lesen eines Kanji-Wortes nicht notwendig beteiligt ist. Umgekehrt gibt ein Patient vom Typ 2 einen Anhaltspunkt dafür, daß das erhaltene Lesen von Kana-Wörtern auf einem Prozeß basiert, der sich in mindestens einer Komponente von dem (mutmaßlich lexikalischen Prozeß) des Lesens von Kanji-Wörtem unterscheidet. Da sich in der Praxis selten solch klare Muster von vollständig erhaltenen oder vollständig gestörten Leistungen finden, stellt sich die Frage, ob man auch bei teilweise erhaltenen und gestörten Leistungen von der Dissoziierbarkeit zugrunde liegender Komponenten ausgehen kann. Shallice (1979) argumentiert, daß eine hinreichend große Diskrepanz bei A und B den Verdacht auf Dissoziierbarkeit rechtfertigt - wenn also ein Patient vom oben beschriebenen Typ 3 in Aufgabe A ein Leistungsvermögen von 70% und in Aufgabe B ein Leistungsvermögen von 15% aufweist und ein Patient vom Typ 4 ein Leistungsvermögen von 70% und 15% aufweist.
Abbildung 2.1 .a
Abbildung 2.1 .b
Eine doppelte Dissoziation, die diesen Ansprüchen genügt, läßt also die Folgerung zu, daß den Aufgaben A und B unterschiedliche Prozesse bzw. Verarbeitungskomponenten zugrunde liegen. Wenn Aufgabe A auf einem Prozeß basiert, der in der Verarbeitungskomponente XI abläuft, und Aufgabe B einen Prozeß erfordert, für den die Komponente X2 zuständig ist, stellt sich die Frage, wie XI und X2 in ein Informationsverarbeitungsmodell einzufügen sind. Abbildung 2.1.a illustriert die Annahme, daß die Beobachtung einer doppelten Dissoziation auf eine parallele Anordnung der Komponenten schließen läßt. Die alternative Architektur ist in 2.1.b. abgebildet, denn mit Sartori (1988, 63) ist zu fragen: ,,[...]but is the converse true? In other words, may every double dissociation be interpreted as evidence for two parallel stages?" Zu testen wäre die Hypothese, daß die beiden oben unterschiedenen Prozesse nicht parallel, sondern seriell organisiert sind, daß also der lexikalische Prozeß die erste Stufe (XI) ist, und der lexikalische Prozeß (X2) die zweite Stufe darstellt. Ist die erste Stufe (XI) gestört, könnte keine Aktivierung der zweiten Stufe (X2) beobachtet werden. Dies widerspricht jedoch der Beobachtung von Patienten vom oben differenzierten Typ 2 mit einem intakten Leistungsvermögen bei X2. Es läßt sich schlußfolgern, daß eine doppelte Dissoziation nicht von zwei unabhängigen seriellen Verarbeitungskomponenten, sondern nur von parallelen Komponenten ausgelöst werden kann. Zu bedenken ist weiterhin, daß für Aufgaben jeweils die Beteiligung mehrerer Subkomponenten erforderlich sein könnte (und im Falle des Lesens im Kanji- wie im Kana-Schrift-
24 system ganz sicher sind). Für Aufgabe A (Lesen eines Kanji-Wortes) könnte man hypothetisch und immer noch stark vereinfacht die Beteiligung eines visuellen Prozesses, der in der Komponente XI abläuft, und eines lexikalischen Prozesses (in Komponente X2) postulieren. Für Aufgabe B (Lesen eines Kana-Wortes) könnte man die Beteiligung eines visuellen Prozesses (XI) und eines phonologischen Konversionsprozesses (X3) postulieren. In diesem Fall sichert die Dissoziation nicht, daß alle Verarbeitungskomponenten parallel sind, sondern eher, daß mindestens zwei Komponenten von jenen, die an Aufgaben A und B beteiligt sind, unabhängig sind, und daß diese Komponenten parallel arbeiten. In einer Modellarchitektur würde die Anordnung der Kästchen die in Abbildung 2.2 illustrierte Form annehmen.
Abbildung 2.2 Doppelte Dissoziationen sind demnach für die Differenzierung paralleler Prozesse oder Verarbeitungskomponenten nützlich. Welche Schlußfolgerung aus einfachen Dissoziationen zu ziehen ist, soll im folgenden erörtert werden. Um eine einfache Dissoziation postulieren zu können, benötigt man zwei beliebige, gleich schwere Aufgaben A und B. Wenn die Voraussetzung eines etwa gleichen Schwierigkeitsgrades der Aufgaben A und B nicht erfüllt ist, kann die Hypothese einer einfachen Dissoziation leicht auf „ resource confoundings" (Shallice, 1979, 191) beruhen. Wenn beispielsweise Aufgabe A in einer Addition zweier einstelliger Zahlen bestünde und Aufgabe B das Verständnis einfacher und doppelter Dissoziationen erforderte, dann würden signifikant bessere Leistungen in A als in B nicht die Beteiligung unabhängiger Verarbeitungskomponenten belegen. Die Asymmetrie würde vielmehr daraus resultieren, daß Aufgabe B schwieriger ist und einen höheren kognitiven Aufwand erfordert als Aufgabe A. Die folgende Argumentation basiert auf der Vorannahme, daß die Bewältigung der gleich schweren Aufgaben A und B zwei unabhängige Verarbeitungskomponenten (XI und X2) beansprucht. Sofern sich ein erster Patient, der beide Aufgaben lösen kann, und ein zweiter Patient, der keine der beiden Aufgaben lösen kann, beobachten lassen, erfüllt die Entdeckung eines dritten Patienten, der Aufgabe A, aber nicht Aufgabe B lösen kann, die Anforderungen an eine einfache Dissoziation. Bei der Interpretation einer einfachen Dissoziation geht man davon aus, daß, wenn beide Komponenten intakt sind, sowohl Aufgabe A als auch Aufgabe B gelöst werden können. Bei serieller Anordnung der Komponenten XI und X2 (vgl. Abb. 2.1.b) würde ein Patient, der
25 keine der beiden Aufgaben lösen kann, auf Zerstörung von entweder XI oder XI und X2 schließen lassen. Das Leistungsmuster von Patient 3 würde Zerstörung von X2 oder Intaktheit von XI vermuten lassen. Ein vierter Patient, der bei Aufgabe A versagt, aber Aufgabe B bewältigt, ist mit der Hypothese serieller Anordnung der Komponenten nicht zu vereinbaren (in diesem Fall läge eine doppelte Dissoziation vor, und es müßten parallele Komponenten angenommen werden: s.o.). Da einfache Dissoziationen meist als Anhaltspunkt für serielle Anordnung gewertet werden, ist zu fragen, ob jede einfache Dissoziation auf serielle Anordnung schließen läßt. Die folgenden Beispiele zeigen, daß dies nicht der Fall ist. Angenommen, Aufgabe A erfordere das Lesen eines Nichtwortes, und Aufgabe B bestehe im Lesen eines regulären Wortes (die Charakteristika von NichtWörtern und regulären bzw. irregulären Wörtern werden in Kapitel 3 problematisiert werden). Im Fall einer bestimmten Form erworbener Dyslexien, die in Kapitel 6 ausfuhrlich erörtert wird, kann man folgende Dissoziation beobachten: NichtWörter können nicht gelesen werden (Aufgabe A) und reguläre Wörter können gelesen werden (Aufgabe B). Vereinfacht soll hier davon ausgegangen werden, daß reguläre Wörter im Normalfall sowohl mittels eines lexikalischen als auch eines phonologisch mediierten Prozesses gelesen werden können. NichtWörter können hingegen nur über einen phonologischen Prozeß gelesen werden. Während viele Patienten sowohl reguläre Wörter als auch NichtWörter lesen können, sind auch Patienten beobachtet worden, die zwar Wörter, nicht aber NichtWörter lesen können. Die umgekehrte Dissoziation (bei der Nichtwörter gelesen werden können, reguläre Wörter aber nicht) ist bislang noch nicht beobachtet worden. Läßt sich diese einfache Dissoziation als Beleg für die serielle Anordnung einer phonologischen und einer lexikalischen Komponente deuten? In formalisierter Vereinfachung könnte man annehmen, daß zwei Komponenten für das Lesen von Buchstabenketten zur Verfugung stehen, eine phonologische Komponente (XI) und eine lexikalische Komponente (X2). Im Fall der phonologischen Komponente soll weiter angenommen werden, daß sie NichtWörter und Wörter bewältigt. Die Intaktheit der Komponente XI ließe demnach erwarten, daß beide Aufgaben gelöst werden können. Die Komponente X2 bewältigt die Verarbeitung von Wörtern, nicht aber von NichtWörtern. Angesichts des beschriebenen Leistungsmusters von Patienten, die Wörter, aber nicht NichtWörter lesen können, wäre auf Störung der Komponente XI zu schließen. Für die Anordnung beider Komponenten wäre die Schlußfolgerung serieller Anordnung offensichtlich falsch. Wäre XI intakt, könnten alle Buchstabenketten gelesen werden. Ist XI aber gestört, wäre bei serieller Anordnung das beschriebene Phänomen nicht zu beobachten, weil die Komponente X2 eine Teilmenge der Stimuli verarbeitet, die XI bewältigt (vgl. Sartori, 1988). In Übereinstimmung mit diesem Dissoziationsbefund werden in den meisten Modellversionen getrennte und parallele lexikalische und phonologische Prozesse angenommen. Das vorstehende Beispiel läßt erkennen, daß einfache Dissoziationen nicht notwendig auf serielle Anordnung von Komponenten hindeuten. Welche Schlußfolgerung man aus dem Vorliegen einer einfachen Dissoziation ziehen kann, hängt davon ab, wie viele Komponenten daran beteiligt sind. Grundsätzlich ist denkbar, daß an der Ausführung von zwei Aufgaben keine gemeinsamen Komponenten beteiligt sind, oder daß eine oder mehrere Komponenten an der Bewältigung beider Aufgaben gemeinsam beteiligt sind. Der einfachste Fall ist, daß Auf-
26 gäbe A die Komponente XI erfordert und daß für Aufgabe B XI und X2 beansprucht werden. Denkbar ist in einem solchen Fall, daß beide Komponenten seriell verbunden sind und parallele Zugänge haben. Eine solche Hypothese über die Anordnung von Komponenten in einem Verarbeitungsmodell läßt sich mit der Konstruktion geeigneter Aufgaben stützen. Dabei benötigt man „ tasks A and B with XI in common, and tasks A and C with no common stages, and C with the stage that B has not in common with A " (Sartori, 1988, 65). Ein an Dyslektikern beobachtbares Phänomen kann in vereinfachter Form der Illustration dieses Falls dienen. Aufgabe A besteht dabei im stummen Lesen eines Wortes und beansprucht die Komponente XI. Aufgabe B besteht im lauten Lesen eines Wortes und beansprucht die Komponenten XI und X2. Aufgabe C besteht im Nachsprechen eines Wortes und beansprucht die Beteiligung der Komponente X2: -
Aufgabe A (stummes Lesen): XI Aufgabe B (lautes Lesen): XI + X2 Aufgabe C (Nachsprechen): X2
Die Architektur läßt sich bestätigen, wenn sich zwischen A und B eine einfache Dissoziation und zwischen C und A eine doppelte Dissoziation beobachten läßt. Als Beleg für eine einfache Dissoziation zwischen A und B müssen folgende Leistungsmuster bei Patienten beobachtet werden können: -
Patient 1:A+,B+ Patient 2: A-,BPatient 3: A+,B-
Nach Beobachtung dieses Musters kann man mit den oben erwähnten Einschränkungen die Hypothese wagen, daß XI und X2 seriell angeordnet sind. Um eine doppelte Dissoziation zwischen A und C annehmen zu können, sind folgende Leistungsmuster erforderlich: -
Patient Patient Patient Patient
4: A+,C+ 5: A-,C6: A+,C7: A-,C+
Diese Beobachtungen sind ein Anhaltspunkt für die parallele Anordnung von XI und X2. Wenn man beide Beobachtungssätze zusammenfügt, kann man für die Anordnung der Komponenten XI und X2 die in Abbildung 2.3 illustrierte Architektur vorschlagen. Die resultierende Hypothese für die Anordnung der Komponenten nimmt in einem solchen Fall serielle Anordnung und parallele, voneinander unabhängige Zugänge an (vgl. Sartori, 1988, 65ff). Die am Nachsprechen beteiligte artikulatorische Komponente (hier X2) ist - wie aus offensichtlichen Gründen alle Theorien des Leseprozesses einvernehmlich vermuten - ein „später"
27 Bestandteil der Informationsverarbeitung, denn am lauten Lesen eines Wortes sind verschiedene weitere Komponenten beteiligt, die zuvor durchlaufen werden müssen. Um also beispielsweise zu überprüfen, ob die Beeinträchtigung im lauten Lesen von Wörtern notwendig einem artikulatorischen Defizit zugeschrieben werden kann, greift man auf die Überprüfung eines anderen, unabhängigen Zugangs zur Artikulation - das Nachsprechen - zurück. Die erhaltene Fähigkeit, Wörter nachzusprechen, die nicht gelesen werden können, läßt demnach die Schlußfolgerung zu, daß die Beeinträchtigung des Lesens nicht auf einer Beeinträchtigung der Artikulation basiert.
JL XI
X
X2
Abbildung 2.3 Die Argumentation wird noch deutlich komplizierter, wenn Dissoziationen zwischen Aufgaben interpretiert werden, die die Beteiligung vieler, potentiell serieller Komponenten erfordern. Hier steigt die Anzahl der möglichen funktionellen Ursachen dramatisch an. Um die aussagenlogische Argumentation mit Dissoziationen nachvollziehbar zu machen, ist der Begriff „Komponente" in einem naiven Sinne benutzt worden. So sind Komponenten auch in solchen Fällen als Einheiten betrachtet worden, in denen sie sicher keine sind. Während die Vereinfachung in den schlichten Beispielen dieses Kapitels offensichtlich ist, sind auch multikomponentielle Modelle der Informationsverarbeitung stark vereinfachend. Die Angewohnheit der Modellentwickler, mutmaßlich komplexe Komponenten in kleine, schwarz umrandete Rechtecke (oder boxes) zu stopfen, hat ihnen daher den Vorwurf der Boxology eingebracht (vgl. Ellis, 1987). So geartete Kritik erinnert an die Einwände, die schon die alten Diagramm-Macher hinnehmen mußten. Mit großer Sicherheit ist es zutreffend, daß sich viele Komponenten in Subkomponenten aufteilen lassen, und selbst bei bereits spezifizierten Subkomponenten geben Caramazza/Berndt (1983) zu bedenken, daß sie in weitere Bestandteile aufteilbar bzw. fraktionierbar sein könnten. Im Fall des in Kapitel 1 abgebildeten LogogenModells (vgl. Abb. 1.8) gilt dies für alle Komponenten. Ein mit „Visuelle Analyse" betiteltes Rechteck ist z.B. für die Identifikation von Buchstaben und Buchstabenfolgen, für die Kodierung der Position einzelner Buchstaben innerhalb von Buchstabenketten und für die Analyse von Wortgrenzen zuständig. Wenn man berücksichtigt, daß die Komponenten von informationsverarbeitenden Modellen solche Multitalente sind, drängen sich zwei Schlußfolgerungen auf. Erstens erschwert die bereits innerhalb einer Komponente herrschende Komplexität kognitiver Funktionen die Konstruktion von Aufgaben, bei denen man zuversichtlich davon ausgehen kann, daß sie tatsächlich zentrale Funktionen der angestrebten Komponente beanspruchen. Es scheint, als würde ein ernstzunehmender Versuch, Komponenten der Informationsverarbeitung (und möglichst auch deren Subkomponenten) zu isolieren, die Konstruktion möglichst gezielter, „reiner" Aufgaben erfordern (vgl. Parisi/Burani, 1988). Die folgenden
28 Kapitel werden erweisen, daß die Konstruktion solcher Aufgaben nicht unproblematisch ist (vgl. Kapitel 3, wo sich erweisen wird, wie angreifbar eine vermeintlich „reine" Aufgabe wie das laute Lesen irregulärer Wörter bei genauerer Betrachtung werden kann). Eine zweite Schlußfolgerung aus der anzunehmenden Komplexität von Komponenten besteht darin, daß Störungen ein- und derselben mutmaßlichen Komponente nicht notwendig das gleiche Muster aus erhaltenen und gestörten Leistungen produzieren müssen. Läßt sich durch Dissoziationen belegen, daß die Störung einer ursprünglich als Einheit betrachteten Verarbeitungskomponente eines der oben diskutierten systematischen Dissoziationsmuster nach sich zieht, läßt sich die Komponente fraktionieren. Wiederholte Fraktionierung von Komponenten fuhrt in Modellen zu einer Vermehrung von „Kästchen", wobei „ the proliferation of boxes can not be considered as an evil in itself in so far as it is an attempt to distinguish sub-components and sub-processes, memory requirements, and so on " (Parisi/Burani, 1988, 78). Aber auch solche „Verfeinerungen" ziehen nicht zwangsläufig eine größere Explizitheit oder Aussagekraft von Modellen nach sich. Jede Subkomponente umfaßt - vorbehaltlich ihrer Aufspaltung, in welchem Fall sie das Problem an ihre Subkomponenten weiterreicht - mehrere Funktionsbereiche. Informationen müssen von jeder Komponente in irgendeiner Form zunächst aufgenommen und zur Verfugung gehalten werden, damit die jeweiligen Verarbeitungsschritte (für die die Komponente über ein bestimmtes „prozedurales Wissen" verfugen muß) ausgeführt werden können. Schließlich muß das Ergebnis dieser Verarbeitungsschritte in einer für die Weiterverarbeitung geeigneten Form kodiert werden (vgl. Caramazza/Miceli/ Villa, 1986). Angesichts solcher Komplexität schon auf der Ebene der jeweils kleinsten analysierbaren Einheiten ist einsichtig, daß die mangelnde Spezifizierung von Subkomponenten und ihren kästchenförmigen Platzhaltern ein Problem für die Aussagekraft der Modelle darstellt (vgl. Parisi/Burani, 1988). Andererseits scheint es sinnvoll zu sein, den jeweiligen Stand einer Theorie kognitiver Informationsverarbeitung in Diagrammform festzuhalten, weil dies eine Möglichkeit darstellt, eine hypothetische und stets vorläufige Annäherung an die Realität kognitiver Prozesse zu erreichen. Die Simulierung eines solchen Modells mit den Mitteln neuzeitlicher Computertechnik ist ein naheliegender Schritt, der jedoch aus offensichtlichen Gründen erhebliche Anforderungen an die Explizitheit der zugrundeliegenden Theorie stellt. Bevor neue Möglichkeiten der Theorieentwicklung in Kapitel 7 erörtert werden, stellen die Kapitel 3 bis 6 Dyslexie-Phänomene im Rahmen von neurolinguistischen Modellen dar, deren Komponenten noch in Diagrammform teils seriell, teils parallel angeordnet sind. Bei der Differenzierung der Komponenten und der Entwicklung von Hypothesen über ihre „Architektur" spielt die Beobachtung von Dissoziationen eine wichtige Rolle. Die vorstehend entwickelte Logik der Argumentation mit Dissoziationen basierte auf der Grundannahme modularer Organisation. Auf eine logische Falle, die bei Einengung des Blickfeldes auf die modulare Perspektive droht, macht Shallice (1988, 248) aufmerksam: If modules exist, then, double dissociations are a relatively reliable way of uncovering them. Double dissociations do exist. Therefore modules exist. Presented in this form, the logical fallacy is obvious. To make the inference valid, one would need to add the assumption that dissociations do not arise from damage to non-modular systems.
29 Theorien kognitiver Informationsverarbeitung, die nicht im hier beschriebenen Sinne von einer modularen Organisation ausgehen, sollen in Kapitel 7 umrissen werden. Dort wird auf die eben aufgeworfene Frage, wie sich Dissoziationsbefiinde in nicht-modulare oder nur partiell modulare Modellvorstellungen integrieren lassen, zurückzukommen sein. Im Vergleich von Modellvarianten wird auch zu erörtern sein, ob und mit welchen Vorannahmen und welchen Einschränkungen die jeweiligen Modelle die an Patienten beobachtbaren Muster aus erhaltenen und gestörten Leistungen mit der Annahme bestimmter funktioneller Läsionen erklären können.
2.2 Symptome und Syndrome Seit Beginn einer systematischen, modellgeleiteten Aphasieforschung war die Isolierung von Symptom-Komplexen bzw. Syndromen ein vorrangiges Forschungsziel. Marshall (1982, 389) schlägt vor, die Frage, was ein Syndrom sei, mit der Gegenfrage „ Do you want a practical or a theoretical answer? " zu kontern. Eine gängige und klinisch gebräuchliche Definition von Syndrom ist die zuverlässig gemeinsam auftretender Symptome. Der praktische Nutzen einer solchen Definition liegt darin, daß ein so geartetes Syndrom der intuitiven Annahme einer klinischen Einheit entspricht. Von solchen klinischen Einheiten erhofft man sich, daß sie auf einer einzigen Ursache basieren. Wernicke und seine Zeitgenossen hatten, wie in Kapitel 1.2 deutlich geworden ist, verschiedene Aphasie-Syndrome als klinische Einheiten differenziert: „ There were created idealized syndromes that were supposed to be related to single lesions, such as Broca's aphasia, Wernicke's aphasia, and conduction aphasia" (Morton, 1984, 52). Die Identifikation von Syndromen hängt - wie die von Dissoziationen - eng mit der Vorannahme modularer Organisation zusammen. Es ist allerdings schlecht vorstellbar, daß etwa infolge eines Insults entstehende Läsionen die von Neuropsychologen vermutete funktionelle Architektur respektieren und sich auf die Schädigung eines einzelnen Moduls beschränken (vgl. Poeck, 1990). Dennoch könnten sich Neuropsychologen entscheiden, die Ursache eines Syndroms im Ausfall eines Moduls des jeweils schlüssigsten Sprachverarbeitungsmodells zu sehen. Ein funktionell lokalisiertes Syndrom läge dann vor, wenn die Symptome eines Patienten im Rahmen des Modells als Schädigung eines einzelnen Moduls interpretierbar wären. Damit ist an die Stelle einst anatomisch lokalisierter Syndrome das funktionell lokalisierte Syndrom getreten. Wie die Diskussion von Dissoziationen deutlich gemacht hat, sind die Module solcher Modelle fraktionierbar, was von einer analogen Fraktionierbarkeit von Syndromen begleitet wird. Vor diesem Phänomen warnt beispielsweise Ellis (1987, 404): „ If cognitive neuropsychologists elect to adopt a revamped syndrome-based approach they must anticipate that the set of recognised syndromes will inevitably be prone to multiply and change at an alarming rate." Wenn sich die Verarbeitungskomponenten vermehren, vervielfältigen sich die denkbaren Syndrome. Anhand des Logogen-Modells (Abb. 1.8) lassen sich die Folgen solcher Vermeh-
30 rung illustrieren. Wenn jedes Modul und jede Verbindung zwischen Modulen isoliert störbar wäre, ergäben sich bereits mehr als 30 denkbare „reine" Syndrome. Dennoch hat ein syndromorientiertes Vorgehen seine Vorzüge: One can of course see why syndrome thinking held such an appeal for a while. If valid, it offered the promise of considerable potential simplification of explanation. Instead of having to explain (and remember) separately the symptoms of large numbers of patients we might have got away with explaining and remembering just a few syndromes. (Ellis, 1987,404)
Einen so gearteten praktisch-diagnostischen Nutzen erhoffte sich z.B. Coltheart (1987a) von der Konstruktion sogenannter Symptom-Komplexe. An den Beispielen der Oberflächendyslexie und der Tiefendyslexie wird in den folgenden Kapiteln erkennbar werden, wie bei diesen Störungsbildern jeweils der Versuch unternommen wurde, nachzuweisen, daß ein bestimmtes Spektrum von Symptomen sich deduktiv aus der Beeinträchtigung einer bestimmten funktionellen Komponente herleiten läßt (vgl. Marshall, 1982, 406). Ein Symptom-Komplex besteht somit aus einem Schlüsselsymptom, das nur bei der jeweiligen Störung, bei dieser aber immer auftritt. Das Auftreten des Schlüsselsymptoms soll das Auftreten zusätzlicher Symptome garantieren (vgl. Kap. 3 und 5). Der praktische Nutzen solcher Symptom-Komplexe liegt auf der Hand, denn man müßte nur das Schlüsselsymptom finden, um den Symptom-Komplex diagnostizieren zu können. Die These eines Schlüsselsymptoms und einer funktionellen Beeinträchtigung ist jedoch im Fall vieler zunächst als Symptom-Komplex eingeschätzten Störungsbilder angreifbar. Wie die folgenden Kapitel zeigen werden, gelingt es bei keiner der diskutierten Dyslexiephänomene, das Muster erhaltener und gestörter Leistungen auf eine einzige funktionelle Läsion zurückzufuhren. Darüber hinaus gibt es aus oben diskutierten Gründen keine Garantie dafür, daß die Schädigimg einer Komponente stets die gleichen Folgen hat. Ein Vorgehen, das hingegen unter Verzicht auf die Isolierung von Syndromen oder Symptom-Komplexen das Leistungsmuster einzelner Patienten im Rahmen von Theorien und zur Weiterentwicklung von Theorien - bewertet, vermeidet zwar die Gefahren der Symptom-Komplex-Annahme, zieht jedoch andere Probleme nach sich. Dies klingt bei Morton/Patterson (1987, 97) im Hinblick auf die Tiefendyslexie an: We do not believe that there is such a thing as a deep dyslexic identifiable by some qualifying examination. We are primarily looking at individual patients and it is only required that our accounts be self-consistent for each individual.
Die Konzentration auf jeweils nur selbst-konsistente Einzelfalle ist nicht mit dem Anspruch auf Beschreibung klinisch beobachtbarer Syndrome verbunden. In Folge eines solchen Verzichts auf die Möglichkeit der Verallgemeinerung von Beobachtungen „ the field is liable to drown in a sea of data" (Shallice, 1988, 32). Zugleich entfällt der klinisch-diagnostische Nutzen wiedererkennbarer Störungsbilder. Sollten sich erworbene Störungen der Schriftsprache nicht als „reine" Syndrome oder Symptom-Komplexe mit einzelnen funktionellen Läsionen erklären lassen, wird man sich mit
31 der Beschreibung gemischter Syndrome bescheiden müssen. Solche Konstrukte nennt Caramazza (1984) psychologically weak Syndromes. Für derartige Störungsmuster wird akzeptiert, daß sie mehr als eine funktionelle Ursache haben können, womit die Zahl der im Rahmen von Modellen denkbaren Syndrome explodiert. Bei n = 30 möglichen „Störungsorten" sind bereits 2" - 1 , also über eine Milliarde, verschiedene reine und gemischte Dyslexieformen denkbar. Die vorliegende Arbeit beschränkt sich auf die Beschreibung von vier Formen von Dyslexien und vollzieht dabei nach, wie ursprünglich als funktionelle Einheiten betrachtete Störungsmuster zu „schwachen" Syndromen wurden. Auf die Aussagekraft und den Nutzen solcher Dyslexie-Kategorien wird noch mehrfach zurückzukommen sein.
2.3 Einzelfalle und Gruppenstudien Das Ziel neuropsychologischer und -linguistischer Forschung besteht darin, näheren Aufschluß über Struktur und Organisation kognitiver Prozesse zu erhalten. In jedem Einzelfall wird daher der Versuch unternommen, das Leistungsprofil durch die Annahme funktioneller Beeinträchtigungen einzelner Komponenten der menschlichen Informationsverarbeitung zu erklären. Die Bevorzugimg von Einzelfallstudien stellt eine weitere Gemeinsamkeit des Konnektionismus der ersten und zweiten Generation dar. Gruppenuntersuchungen sind für die modellgestützte Erforschung neurolinguistischer Störungsphänomene viel weniger geeignet, weil sich kaum sicherstellen läßt, daß die in einer Gruppe zusammengefaßten Probanden hinsichtlich des Definitionsmerkmals äquivalent sind. Die Äquivalenzvoraussetzung ist im Rahmen modellgestützter Forschung erst dann erfüllt, wenn gesichert erscheint, daß bei Patienten die gleichen Verarbeitungskomponenten gestört sind. Um jedoch herauszufinden, welche Verarbeitungskomponenten bei einem Patienten möglicherweise gestört sein könnten, sind zunächst gründliche Einzelfallstudien erforderlich. D.h. Gruppenstudien könnten sinnvollerweise nur Patienten zusammenfassen, bei denen in gründlichen Voruntersuchungen mit hinreichender Wahrscheinlichkeit gesichert erscheint, daß sie funktionell gleiche Störungen haben. Das bedeutet, daß die Untersuchung z.B. anhand einer breiten Aufgabensammlung für die Auswahl von Patienten für Gruppenstudien nicht ausreicht, denn selbst wenn sie dabei das gleiche Leistimgsmuster zeigen, könnte es durchaus auf unterschiedlichen zugrundeliegenden Störungen basieren. Die Ergebnisse einer Untersuchung an einer Gruppe von Patienten, die hinsichtlich zugrundeliegender Störungen inhomogen ist, sind demnach für die Theoriebildung wertlos, weil die „durchschnittliche Leistung" von Patienten mit unterschiedlichen Störungen keine Aussagekraft hat (vgl. Kelter, 1990). Wenn man sich angesichts der Heterogenität der Störungsbilder auf die gründliche Untersuchung von Einzelfällen zurückzieht, vermeidet man die Gefahren unzutreffender Äquivalenzannahmen. Dies wird allerdings dadurch erkauft, daß bei Einzelfallstudien keine Replikation der Beobachtungen an anderen Patienten möglich ist. Nicht replizierbare Ergebnisse sind jedoch leicht in Frage zu stellen, besonders da jhe Situation is made worse because the subject of a case study could be a patient who has developed an idiosyncratic coping strategy or
32 could even be a hysteric or malingerer" (Shallice, 1988, 31). Deshalb ist bei Einzelfallstudien die Wiederholung der entscheidenden Tests empfehlenswert: ,perhaps the most basic principle is that any key test should be repeated on different sessions, if possible well separated in time, to check that the results are not contaminated by day-specific factors such as fatigue " (Shallice, 1979,193). Da sich Einzelfallstudien als bevorzugte Methode neuropsychologischer Theoriebildung etabliert haben, ist zu fragen, wie „einzeln" Einzelfallstudien tatsächlich sind. Kelter (1990) macht darauf aufmerksam, daß man auch bei Einzelfallstudien nicht ohne vorläufige Annahmen zur Äquivalenz von Patienten auskommt. Wer beispielsweise durch die Untersuchung eines einzelnen Patienten ein Muster aus gestörten und erhaltenen Leistungen entdeckt und es als Störung einer hypothetischen Verarbeitungskomponente XI interpretiert, darf (wie die folgenden Kapitel zeigen werden) nicht hoffen, damit auf breite Zustimmung zu treffen. Im allgemeinen melden sich vielmehr andere Forscher zu Wort, deren Modell der Verarbeitungskomponente XI eine abweichende Funktion zuweist, während andere Wissenschaftler das Leistungsmuster im Rahmen der gleichen Theorie auf andere Weise erklären und eine dritte Gruppe das Ergebnis fiir ein methodisches Artefakt hält. Da es aus praktischen Gründen nicht möglich ist, daß alle Forscher denselben Patienten untersuchen, wird das entsprechende Leistungsmuster bei anderen Patienten ge- und untersucht. Die Forschungsliteratur nicht nur im Bereich Dyslexie zeigt dementsprechend, wie stark verschiedene Einzelfallstudien aufeinander Bezug nehmen. Besonders deutlich wird dies im Fall der Forschungsberichte. Von Zeit zu Zeit erbarmt sich ein Wissenschaftler der Einzelfall- und Datenvielfalt und faßt in einem Forschungsbericht die Ergebnisse von Einzelfallstudien zusammen, um beispielsweise die Tiefendyslexie oder die phonologische Dyslexie zu kennzeichnen. Spätestens hier wird deutlich, daß auch die Einzelfallforschung nicht auf explizite oder implizite Annahmen zur Äquivalenz von Patienten verzichten kann. Gewöhnlich werden solche Probanden als äquivalent betrachtet, die in breiten Aufgabenbereichen das gleiche Muster aus beeinträchtigten und erhaltenen Leistungen zeigen. Verbunden damit ist die Hypothese, daß dem Leistungsmuster beider Patienten die gleiche funktionelle Ursache zugrundeliegt. Trifft diese Hypothese nicht zu, hat das auf Grundlage der Äquivalenzhypothese synthetisierte Störungsmuster zweier Patienten keinerlei Aussagekraft bzw. ist irreführend. Ist die Äquivalenzhypothese jedoch solide, indem für die zu vergleichenden Patienten beispielsweise das Leistungsmuster A+B+C-D-E+ festgestellt wurde, kann man einige weitere Leistungen (F,G,M) überprüfen. Wenn die Leistungen bei den Aufgaben F,G,M nicht übereinstimmen (z.B. Patient 1: F+G+M-, Patient 2: F+G-M-), läßt sich gezielter überprüfen, ob sich bei Patienten mit dem Ausgangsmuster A+B+C-D-E+ Unterschiede bei der Leistung G zufallskritisch absichern lassen. Ist dies möglich, kann man zwischen Patienten mit dem Muster A+B+C-D-E+F+G+M- und A+B+C-D-E+F+G-M- differenzieren (vgl. Kelter, 1990). Wie sich in Kapitel 6 zeigen wird, sind Beauvois/Derouesne (1979) auf diese Weise zu ihrer Unterscheidimg zwischen verschiedenen Subtypen phonologischer Dyslexie gekommen.
33
2.4 Zusammenfassung Dissoziationen sind unter bestimmten Voraussetzungen (und mit bestimmten Vorannahmen) eine Möglichkeit, begründete Hypothesen über die serielle und parallele Anordnung einzelner Verarbeitungskomponenten zu formulieren. Gleichzeitig leisten sie einen wesentlichen Beitrag zu einer theoriegeleiteten Fraktionierung von Verarbeitungskomponenten. Die Störung einzelner Verarbeitungskomponenten zieht jeweils ein bestimmtes Muster aus erhaltenen und gestörten Leistungen nach sich. Abhängig davon, ob eine einzelne funktionelle Läsion oder die Beeinträchtigung mehrerer Komponenten als Ursache eines Störungsmusters betrachtet wird, lassen sich terminologische Unterscheidungen treffen. Ein SymptomKomplex (bzw. ein psychologisch starkes Syndrom) ist mit der Hoffnung auf eine funktionelle Ursache verknüpft, während ein psychologisch schwaches Syndrom mit mehr als einer funktionellen Ursache rechnet. In den folgenden Kapiteln wird für jede der Dyslexieformen zu fragen sein, ob es sich um psychologisch starke oder schwache Syndrome handelt. Im Bereich modellgestützter neurolinguistischer Forschung sind, wie Kapitel 2.3 gezeigt hat, grundsätzlich sinnvolle Kombinationen der Ergebnisse aus Einzelfallstudien denkbar. Die meisten Untersuchungen, auf die in der folgenden Darstellung der Dyslexien Bezug genommen wird, sind an Einzelfallen durchgeführt worden bzw. basieren auf der Zusammenfassung verschiedener Einzelfallstudien.
3 Oberflächendyslexie Das als Oberflächendyslexie bekannt gewordene Störungsmuster bildet in mehr als einer Hinsicht ein Gegenbild zur Tiefendyslexie, die der Gegenstand des Kapitels 5 sein wird. Während Tiefendyslektiker durch charakteristische semantische Fehler auffallen, scheint das Lesen von Oberflächendyslektikern in auffälliger Weise an der Phonologie orientiert zu sein. Gemeinsam bildeten diese beiden Formen von Dyslexie in den siebziger Jahren den Anstoß für die Entwicklung von Modellen, die die funktionelle Architektur des normalen Leseprozesses abbilden sollten (vgl. Kap. 1). In der deutschen Sprache ist das Störungsbild der Oberflächendyslexie schwer zu entdecken, da sich die Aussprache von Wörtern im Deutschen viel leichter aus der Schreibweise ableiten läßt als dies etwa in der englischen Sprache oder im japanischen Schriftsystem der Fall ist. An deutschen Patienten fallt eher die Auswirkung der komplexeren Phonem-Graphem-Korrespondenzen im Falle der Oberflächendysgraphie auf, denn das Deutsche ist „a language with a phonologically deep writing system but a (relatively) regulär orthography " (Scheerer, 1987,227). Patienten mit Oberflächendysgraphie scheinen sich die Grapheme eines Wortes unmittelbar aus der Lautfolge zu übersetzen, was zu Schreibungen wie Sempf für Senf oder V a m i l i e für Familie fuhrt (vgl. DeBleser/Bayer/Luzzati, 1987, 155). Das auffallendste Symptom der Oberflächendyslexie - phonologische Lesefehler - tritt also in Abhängigkeit von der orthographischen Transparenz des jeweiligen Schriftsystems auf, weshalb sich die orthographisch besonders undurchsichtige englische Sprache bestens für das Auffinden dieses Störungsmuster eignet. Die Charakteristik der Oberflächendyslexie steht im Mittelpunkt des Kapitels 3.1. Dem Überblick über die Spannbreite auftretender Fehler dienen Fallstudien, deren Gegenstand hauptsächlich Patienten englischer und französischer Muttersprache sind. Ergänzend wird erörtert, ob und in welcher Form Oberflächendyslexie in anderen Schriftsystemen auftreten kann. Die Leitfrage ist jedoch, ob sich ein konsistentes Muster von erhaltenen und gestörten Leistungen auf eine funktionelle Ursache zurückführen läßt, ob es sich also um einen psychologisch starken Symptom-Komplex handelt, der den in Kapitel 2 erörterten Anforderungen entspricht. Die Antwort auf diese Frage bildet den Ausgangspunkt des Kapitels 3.2, welches sich mit Rückgriff auf Befunde an unbeeinträchtigten Lesern der Modellierung phonologischen Lesens widmet. Aus der Sicht verschiedener Modellvorstellungen werden Hypothesen darüber entwickelt, wie normale und dyslektische Leser die Ableitung der Phonologie aus der Orthographie bewerkstelligen. Einen zusammenfassenden Überblick über den klinischen Status des Störungsbildes Oberflächendyslexie bietet Kapitel 3.3.
35
3.1 Charakteristik der Störung Die Beobachtung des Leseverhaltens ihrer Patienten J.C. und S.T. ermöglichte Marshall/ Newcombe (1973) die „Entdeckung" der Oberflächendyslexie. Beide Patienten litten unter den Folgen von Schußverletzungen, die zum Zeitpunkt der Studie schon mehr als 20 Jahre zurücklagen. In beiden Fällen betraf die Schädigung die temporo-parietale Region der linken Hemisphäre. J.C. wies ein gutes Sprachverständnis auf. An seiner ansonsten flüssigen Spontansprache fielen gelegentliche Wortfindungsstörungen bei seltenen Wörtern auf. Auch S.T.'s Spontansprache war überwiegend flüssig. In ihren Schreib- und Buchstabierfahigkeiten waren beide Patienten jedoch schwer beeinträchtigt. Im Mittelpunkt des Interesses stand jedoch ihre Lesestörung. Zur genaueren Analyse dieser Lesestörung baten Marshall/Newcombe (1973) ihre Patienten J.C. und S.T., je ca. 900 Wörter zu lesen. Die Hälfte der Wörter konnte richtig gelesen werden, aber die Aufmerksamkeit richtete sich hauptsächlich auf die Fehllesungen der anderen Hälfte. Erstaunlich an dieser ersten und vielen folgenden Fallstudien ist der Umstand, daß Wissenschaftler, die sich nicht zuletzt mit der Vieldeutigkeit von Graphem-Phonem-Korrespondenzen befassen, bei der Abbildung der Fehllesungen ihrer Patienten nicht auf IPANotationen zurückgreifen, sondern sich mit selbstentworfenen Verschriftungen behelfen. Diese lassen der Phantasie einigen Spielraum und sind von im Text entsprechend gekennzeichneten [IPA-Notationen] zu unterscheiden. Holmes vermittelt einen plastischen Eindruck von J.C.'s Leseverhalten: J.C. makes great use of „practice"; his approach is to realize a consonant „frame" (by means of grapheme to phoneme match?) and to try out different possible vowel sequences until he hears one that has a match in his lexicon. (Holmes, 1973, unveröffentliche Ph.D., deshalb zitiert nach Shallice/McCarthy, 1985, 369)
Dieser Beschreibung von J.C.s Strategie ist zu entnehmen, daß er bei Wörtern, die ihm Schwierigkeiten bereiten, zu einer buchstabierenden Vorgehensweise Zuflucht nimmt. Das Benennen einzelner Buchstaben, mit dem er sich behilft, erinnert damit weniger an Lesen als an (Objekt-)Benennen. Zu den bemerkenswerten und vielzitierten Lesefehlern des Patienten J.C. gehört seine Reaktion auf das Zielwort listen: „Liston...that's the boxer, isn't it?" (zu dieser Zeit feierte der amerikanische Schwergewichtsboxer Sonny Liston gerade seine größten Erfolge). Es herrscht weitgehend Übereinstimmung darüber, daß beim Lesen eines vertrauten Wortes wie listen die visuell wahrgenommene Wortform zunächst eine abstrakte orthographische Repräsentation in einem internen „Wortspeicher" oder Lexikon aktiviert. Über das weitere Vorgehen herrscht weniger Einstimmigkeit. In der Logik des noch immer mehrheitlich vertretenen Dual-Route-Ansatzes kann von dort aus die für das richtige laute Lesen dieses Wortes erforderliche phonologische Repräsentation [ l i s n ] auf zwei Wegen aktiviert werden: entweder durch eine direkte Verbindung zwischen lexikalischer Orthographie und Phonologie, oder mit dem „Umweg" über eine semantische Repräsentation, die das Verständnis des Gelesenen ermöglicht. Die Beobachtung, daß beispielsweise listen als [ l i s t e n ] gelesen wurde, wurde von Marshall/Newcombe (1973) als Indiz für den Einsatz von Graphem-Phonem-
36 Korrespondenz-Regeln (und damit für die Verwendung eines phonologischen Leseverfahrens) gewertet. Zur Reaktion [listen] kommt es, weil einem stummen Graphem ein phonetischer Wert zugewiesen wird. Eine weitere Form von sogenanntem „partial failure of grapheme-phoneme-conversion ", die Marshall/Newcombe bei der Fehleranalyse entdeckten, stellt die Zuordnung des falschen Phonems in Fällen dar, in denen ein Graphem ambig ist oder die phonemische Entsprechung kontextabhängig ist. Beispiele für diesen Fehlertyp sind insist [in'sist] für insect [ ' Insekt] oder just [d3Ast] für guest [gest]. Ein dritter Typ von Fehllesungen bezieht sich auf die Nichtbeachtung der rule of e, derzufolge ein finales e in einem Wort wie bite zur Folge hat, daß der vorangehende Vokal lang gesprochen wird. Die Nichtbeachtung dieser Regel hatte zur Folge, daß etwa bike als bik gelesen wurde. Der vierte und letzte Typ von teilweisem Versagen der Graphem-Phonem-Konversion, den Marshall/Newcombe (1973) in ihrer initialen Studie ausgemacht hatten, läßt sich am Beispiel der Fehllesung nice für niece erläutern. Hier wird nur ein Buchstabe des vowel digraph gelesen. Später machten Shallice/Warrington (1980, 1987) und Coltheart (1981) auf zwei weitere Fehlertypen im ursprünglichen Corpus aufmerksam. Dabei handelte es sich zum einen um sogenannte Stress-Shift-Errors, bei denen der Betonungsschwerpunkt verschoben wurde. So hatte J.C. z.B. begin als begging gelesen und damit den Betonungsschwerpunkt verschoben. Sein Kommentar, „Collecting money", macht deutlich, daß sich damit für ihn auch die Bedeutung „verschoben" hatte. Zum anderen scheint es sich bei manchen Lesefehlern - wenn z.B. disease als decease gelesen wird - weniger um ein partial failure als um eine Fehlanwendung grundsätzlich gültiger Graphem-Phonem-Konvertierungsregeln zu handeln (weil das s in dis im Englischen gewöhnlich weich gesprochen wird). Wörter, bei denen die korrekte Ableitung ihrer lautlichen Form aus der Schriftform bei Anwendung der GraphemPhonem-Korrespondenz-Regeln nicht möglich ist, galten als irregulär. Dieses Verständnis von Irregularität wird in Kapitel 3.2 noch zu hinterfragen sein, soll aber bis auf weiteres im Dienste eines systematischen Überblicks über die Charakteristik der Störung im oben genannten Sinne hingenommen werden. Fehler, die entstehen, wenn Wörter mit irregulären Graphem-Phonem-Korrespondenzen so gelesen werden, als wären sie regulär, hat Coltheart (1981) knapp als Regularisierungsfehler gekennzeichnet. Wenn also - um ein weiteres Beispiel anzuführen - pint (korrekte Lesung: [paint ] mit kurzem i gelesen wird, liegt eine Art „Überregularisierung" vor. Die theoretische Bedeutung dieses Fehlertyps liegt darin, daß eben diese Art von Fehlern vorherzusagen wäre, wenn jemand ausschließlich mittels Graphem-Phonem-Konvertierungsregeln liest. Die Schlußfolgerung, die aus dieser Fehleranalyse gezogen wurde, und die bis zu einer allmählichen Revision des Störungsmusters in den 80er Jahren Gültigkeit behielt, führte zu der Ansicht, daß Oberflächendyslexie durch eine Unterbrechung der lexikalisch-semantischen Route entstehe, die dem Patienten keine andere Möglichkeit ließe, als „ to read via putative grapheme-phoneme-correspondence rules [...]. The difficulty of this task is shown by the errors" (Marshall/Newcombe, 1973, 191).
37 Die bis 1980 erschienenen Aufsätze zur Oberflächendyslexie (Marshall/Newcombe, 1973, 1977), die sich in Ermangelung weiterer Patienten mit diesem Störungsmuster alle auf die Beobachtungen an J.C. und S.T. stützten, wurde das Störungsbild folgendermaßen beschrieben: Die Patienten begingen beim lauten Lesen einzelner Wörter zahlreiche paralektische Fehler, die als Ergebnis unangemessener Anwendung von Graphem-Phonem-Korrespondenz-Regeln gedeutet wurden (belegt durch Fehler bei orthographisch irregulären Wörtern, s.o.). Es wurden keine semantischen Fehler und kein Wortarteffekt beobachtet; außerdem war nur ein geringer Effekt der Wortlänge feststellbar. Ein 1980 erschienener Aufsatz von Shallice/Warrington enthält neben einem Überblick über verschiedene Formen erworbener Dyslexien auch die Beschreibung einer weiteren Patientin mit Oberflächendyslexie. R.O.G.s Spontansprache war flüssig mit gelegentlichen Wortfindungsstörungen, während ihre Lesefahigkeit (getestet mit Schoneil: 25/100 korrekt) stark beeinträchtigt war. An ihrem Leseverhalten fielen besonders die Schwierigkeiten bei Wörtern mit unregelmäßigen Graphem-Phonem-Korrespondenzen auf. Insoweit glich ihr Leseverhalten dem von J.C. und S.T. Ihr wurde eine von Coltheart/Davelaar/Jonasson/Besner zusammengestellte Liste von Wörtern mit regulärer und irregulärer Orthographie vorgelegt. Von 39 regelmäßigen Wörtern las sie 36 richtig, wobei sie pro Wort durchschnittlich 5,6 sec. benötigte. Von 39 unregelmäßigen Wörtern konnte sie - bei einer Geschwindigkeit von durchschnittlich 6,4 sec. pro Wort 25 Items richtig lesen. Schon bei der Durchfuhrung des Schoneil- Lesetests war aufgefallen, daß ihr Lesetempo offenbar in Abhängigkeit von der Silbenzahl der Wörter stand. Bei den einsilbigen Schonell-Wörtern benötigte sie 4,2 sec., bei den zweisilbigen schon 10,2 sec. und bei den mehrsilbigen Wörtern stieg der Zeitbedarf auf durchschnittlich 25,6 sec. Damit rückte erstmals der Faktor der Lesegeschwindigkeit als mögliche Variable des oberflächendyslektischen Leseverhaltens ins Blickfeld. Auf die Relevanz dieser Variable wird zurückzukommen sein, wenn in Kapitel 3.2.3 die Frage nach der eingesetzten Strategie näher beleuchtet wird. Schon an dieser Stelle ist jedoch festzuhalten, daß die Wortlänge im Falle R.O.G.s deutliche Auswirkungen hatte. Bei seinem ersten Versuch, die Oberflächendyslexie als Symptom-Komplex zu charakterisieren, schloß Coltheart (1981) neben fehlerhafter Anwendung von Graphem-PhonemKorrespondenz-Regeln und Regularisierung die folgenden Symptome ein: -
Einzelne Buchstaben von Wörtern können gelesen werden. Wenn ein Wort falsch gelesen wird, wird es als das Leseergebnis verstanden (wie im Fall von listen: Liston) Irreguläre Homophone können - auch wenn sie richtig gelesen worden sind - als ihr komplementäres Homophon verstanden werden, z.B. route: what holds the apple tree in the ground.
Eine der ersten detaillierten Studien, die nach Marshall/Newcombes „Entdeckung" der Oberflächendyslexie (1973) diesem Störungsphänomen gewidmet waren, stammt von Deloche/ Andreewski/Desi (1982). Sie beschrieben das Leseverhalten von A.D., einem Patienten, der nach Entfernung eines Angioms eine flüssige Aphasie mit ausgeprägten Wortfindungsstö-
38 rungen, Störung des Nachsprechens und gestörtem Verständnis komplexer Sätze aufwies. In seinem als oberflächendyslektisch beurteilten Leseverhalten unterschied er sich in einigen Punkten von dem der bisher beobachteten Oberflächendyslektiker. Beim Lesen einzelner Wörter erzielte er im ersten Anlauf ein Ergebnis von 74% korrekten Lesungen, die sich durch spontane Selbstkorrekturen auf 92% erhöhten. A.D. las den Ausführungen von Deloche/Andreewski/Desi zufolge langsam und mit phonematischen Paraphasien. Während die Länge der Wörter sich signifikant auf seine Leseleistung auswirkte (je länger, je schlechter und langsamer), hatte die Komplexität der Silbenstruktur keinen derartigen Effekt. Seine Fehllesungen werden als „ inappropriate assigning (as regards the particular item to be read aloud) of some phonemic value to a letter substring in the item [...] from a set of legal candidates" (Deloche/Andreewski/Desi, 1982, 19) charakterisiert. In der französischen Sprache gibt es für fast alle Buchstaben unterschiedliche Möglichkeiten der Aussprache, wobei die Korrespondenzregeln vom jeweiligen Kontext bestimmt werden. So werden den Graphemen und in den meisten Fällen die Phoneme [ k ] und [ s ] zugeordnet. Wenn diese Grapheme sich allerdings in der Nachbarschaft von Vokalen befinden, wird c zu [ s ] und s zu [ z ]. Einige von A.D.s Fehlern, etwa die Reaktion [ R e k e p s j c ] auf das Wort reception (korrekt wäre [ R e s e p s j c ] ) , sind Beispiele fiir Nichtbeachtung/Fehlanwendung solcher kontextsensitiver Regeln. Insgesamt lassen sich seine Fehler als „individual letter-sound misapplications of correspondence rules and multiple letter-sound parsing errors" (Deloche/ Andreewski/Desi, 1982, 19) deuten. Insoweit befindet sich A.D.s Leseverhalten im Einklang mit den Erwartungen des Syndroms. Gestützt auf die Beobachtung von A.D.s Leseverhalten stellten Deloche/Andreewski/Desi (1982, 20) die These auf, daß der Leseprozeß bei Oberflächendyslektikern „ might be described as an parser operating from left to right extracting letter substrings which might be grapheme candidates, assigning phonemic values to these graphemes and building up the response by phoneme concatenations. " Interessanterweise beobachteten Deloche/Andreewski/Desi jedoch auch, daß A.D. Nichtwörter größere Schwierigkeiten bereiteten als Wörter, und stellten bei Wörtern darüber hinaus einen Wortarteffekt fest. Beide Beobachtungen waren dem bisherigen Verständnis der Störung gemäß unerwartet, denn beim Lesen ohne lexikalische Beteiligung sollte es den Vorhersagen zufolge weder eine Rolle spielen, ob das Item ein Wort ist oder nicht, noch welcher Wortart es angehört. A.D. widersprach diesen Erwartungen, indem er Inhaltswörter schlechter als Funktionswörter las. Bei den Inhaltswörtern hatte er die größten Schwierigkeiten mit Nomen. Im Zusammenhang mit der Tiefendyslexie (vgl. Kapitel 5) wird der Wortarteffekt, der seinen Ausdruck in einer genau umgekehrten Präferenz fand (d.h. Inhaltswörter besser als Funktionswörter und bei den Inhaltswörtern Nomen am besten), als Anhaltspunkt für lexikalische Einflüsse gewertet (vgl. für ähnliche Beobachtungen auch Kremin, 1980). Um eine klarer definierte Beschreibung der oberflächendyslektischen Symptomatik bemühten sich nach Coltheart (1981) auch Coltheart/Masterson/Byng/Prior/Riddoch (1983). Die letztgenannte Studie umfaßt zugleich einen Vergleich der Leseleistungen von Oberflächendyslektikern mit den Charakteristika von „ Developmental Dyslexia". Die Methoden, mit denen der Patient A.B. untersucht wurde, sowie seine Leistungen bei verschiedenen Aufgaben, sollen kurz und exemplarisch beschrieben werden, da einerseits die Untersuchungsmethoden
39 vielfach von anderen Wissenschaftlern übernommen worden sind, und andererseits A.B.s Leistungsprofil eine wichtige Rolle für die Erstellung einer Symptomliste spielte. Der Patient A.B. hatte sich bei einem Motorradunfall eine Hirnverletzung zugezogen, die die Frontalregion der rechten Hemisphäre betraf. Alle bislang beobachteten Oberflächendyslektiker wiesen linkshemisphärische Läsionen auf. A.B. ist, wie sein Vater, Linkshänder, was Coltheart/Masterson/Byng/Prior/Riddoch als Anhaltspunkt für eine rechtshemisphärischen Lateralisierung für Sprache werteten. Sein sonstiger Zustand nach dem Unfall „ included occasional minor epileptic fits, often involving only an aura, some mild difficulties in balance and coordination, and difficulty in logical thinking, reasoning and higher language functions " (Coltheart/Masterson/Byng/Prior/Riddoch, 1983, 482). Beim Lesen der bereits erwähnten, von Coltheart/Davelaar/Jonasson/Besner (1979) zusammengestellten Liste mit 39 regulären und 39 irregulären Wörtern las er 30 der regulären und 18 der irregulären Wörter richtig. Beim Schonell-Lesetest erreichte er ein Ergebnis von 46/100, was einem Lesealter von 9,3 entspricht. Beim Schonell-Spelling-Test war sein Ergebnis 38/100, was einem Schreib-/Buchstabieralter von 8,8 entspricht. Für die Überprüfung des Lesesinnverständnisses wurden 107 Wortkarten vorbereitet. Auf jeder Karte stand jeweils ein Wort, das A.B. zunächst definieren, dann laut lesen und zuletzt buchstabieren sollte. Diese Vorgehensweise sollte soweit wie möglich eine Verzerrung der Definition durch das vorangegangene laute Lesen des Wortes vermeiden. Das abschließende Buchstabieren des visuell präsentierten Wortes sollte zeigen, inwieweit die Fehllesungen auf Fehlern in der Wahrnehmung der Buchstaben beruhten. Von den 107 solcherart präsentierten Wörtern verstand A.B. 36 nicht richtig. Seine Angaben zur Bedeutung der zu lesenden Wörter orientierten sich stets an den Ergebnissen seiner phonologischen Rekodierung. Dieses Vorgehen führte immer dann zu Fehlern, wenn er einen Buchstaben ausließ, verwechselte, hinzufügte oder sich in der Reihenfolge irrte. Das Wort debt definierte er mit den Worten t o h a v e a l o n g d i s c u s s i o n on s o m e t h i n g und las es als d e b a t e . In einigen Fällen lagen seinen Fehllesungen Homophonverwechslungen zugrunde, so im Fall von r o u t e (was „Route" bzw. „Weg" bedeutet und homophon zu r o o t „Wurzel" ist): w h a t h o l d s t h e a p p l e t r e e on t h e g r o u n d a n d m a k e s i t grow (Coltheart/Masterson/Byng/Prior/Riddoch, 1983, 483). Beim Buchstabieren der 107 Wörter, bei der ihm, wie erwähnt, die schriftliche Vorlage zur Verfügung stand, beging er bei 5 Wörtern Fehler. Dabei handelte es sich um Wörter, die er zuvor richtig definiert und gelesen hatte. Die Schreibfehler, die er beim Schreiben nach Diktat und beim Spontanschreiben beging, waren phonologisch orientiert. Son wurde zu sun, topic zu t o p - p i c k , genuine zu j enuwen, firm zu phurm und hour zu ouwer. Homophonverwechslungen wie im Fall von route/root waren bereits bei anderen Oberflächendyslektikern beobachtet worden. Da diesem Fehlertyp eine besondere theoretische Relevanz für die Diagnostik nicht-lexikalischen Lesens zugeschrieben wurde, stellten Coltheart/Masterson/Byng/Prior/Riddoch (1983) 150 Wortpaare zusammen, mit deren Hilfe sie A.B.s Umgang mit Homophonen bei Wörtern mit regulären und irregulären GraphemPhonem-Korrespondenzen sowie bei NichtWörtern untersuchten. Das komplizierte Untersuchungsdesign soll hier dargestellt werden, weil der Umgang mit Homophonen in späteren
40 Fallstudien nach dem gleichen Prinzip erhoben wurde. Bei jedem der drei Aufgabentypen „regulär
homophone
matching task, irregular
homophone
matching
task" und „non-word
homophone matching task" - wurde der Patient gebeten, zu entscheiden, ob die beiden Wörter, die als Paar auf einer Wortkarte präsentiert wurden, gleich klingen oder nicht. Die Wortkarten sollten in zwei Stapel aufgeteilt werden: ein Stapel war für gleich klingende, der andere für nicht gleich klingende Wörter bestimmt. Die Wortpaare sollten nur zugeordnet, nicht laut gelesen werden. Im Rahmen der „regulär homophone matching task" wurden Wortpaare wie
HAIR/HARE
vorgelegt. In einem solchen Fall könnte die Entscheidung auch aufgrund visueller Ähnlichkeit getroffen werden. Wer - so die dahinterstehende Überlegung von Coltheart/Masterson/Byng/ Prior/Riddoch - ein Wortpaar wie HAIR/HARE wegen ihrer orthographisch-visuellen Überschneidungen als homophon einschätzt, müßte auch bei einem Wortpaar wie HAIR/HARD auf Gleichklang schließen. Für diese Aufgabe wurden 25 homophone Wortpaare (mit regelmäßigen Graphem-Phonem-Korrespondenzen) und 25 orthographisch ähnliche, aber nicht homophone Wortpaare (mit regelmäßigen Graphem-Phonem-Korrespondenzen) zusammengestellt. Bei 39 der 50 Wortpaare traf A.B. die richtige Entscheidung. Die Aufgabenstruktur bei der „irregulär
homophone
matching task" entspricht weitge-
hend dem oben dargestellten Design. In diesem Fall wurde ein homophones Wortpaar wie SO/SEW einem nicht-homophonen Wortpaar wie NO/NEW gegenübergestellt. Jeweils ein Wort aus einer solchen Viererformation hat unregelmäßige Graphem-Phonem-Korrespondenzen. Würde das Urteil bei dieser Aufgabe nach Kriterien visueller bzw. orthographischer Ähnlichkeit getroffen, müßte bei beiden Wortpaaren darauf geschlossen werden, daß sie verschieden klingen. Diese Entscheidung wäre im Fall von SO/SEW falsch, da SEW aufgrund unregelmäßiger Graphem-Phonem-Korrespondenzen homophon zu SO ist. Auch diese Aufgabe umfaßte 25 homophone und 25 nicht-homophone Wortpaare. In 30 von 50 Fällen entschied A.B. korrekt. Die dritte Aufgabe, die sogenannte „non-word homophone matching task", bestand in analoger Weise aus der Gegenüberstellung von 25 homophonen Nichtwort-Paaren wie FID/ PHID und 25 nicht-homophonen Nichtwort-Paaren wie FID/PRID. In 35 Fällen konnte A.B. zutreffend erkennen, ob die Wortpaare homophon oder nicht homophon waren. Seine Leistungen im Erkennen von Homophonen waren in der regulären Kategorie am besten, in der Nichtwort-Kategorie am nächstbesten und in der Versuchsanordnung mit irregulären Homophonen am schlechtesten. Zusammenfassend beschreiben Coltheart/Masterson/Byng/Prior/Riddoch (1983, 482) A.B.s Leseverhalten folgendermaßen: (a) better oral reading of regular than ¡regular words; (b) silent homophone matching is best for regular words, next best for non-words, and worst for irregular words; (c) régularisations and stress errors in reading aloud; (d) frequent phonologically correct misspellings; and (e) letter omissions, changes, additions and position errors in reading aloud.
Nach den gleichen Kriterien untersuchten die Autoren das Leseverhalten eines Patienten mit Developmental Dyslexia. Angesichts der Ähnlichkeiten kommen sie zu dem Schluß „The
41 close similarity of their reading and spelling performance supports the view that surface dyslexia can occur both as a developmental and as an acquired dyslexia" (1983,469) Auf Grundlage der Beobachtungen, die in der geschilderten Weise (und mit ähnlichen Ergebnissen) an drei Patienten mit erworbener Oberflächendyslexie und drei Patienten mit entwicklungsbezogener Oberflächendyslexie gesammelt wurden, schlugen Coltheart/Masterson/ Byng/Prior/Riddoch (1983, 472) eine Symptomliste vor, die neun Punkte umfaßt. Den theoretischen Hintergrund dieses Vorschlags bildete das bereits erwähnte Logogen-Modell Mortons, das in Kapitel 3.2.2 noch ausfuhrlich diskutiert wird. Die vermutete Ursache für die meisten der im folgenden aufgezählten Symptome waren demgemäß „ defects within the input logogen system, and in communication from that system to semantics" (1983, 469). Im Fall einer Oberflächendyslexie wären demzufolge folgende Symptome zu erwarten: (1) Das Lautlesen von Wörtern mit regulärer Orthographie ist besser möglich als das Lesen von Wörtern mit irregulärer Orthographie. (2) Irreguläre Wörter werden, wenn sie laut gelesen werden, häufig regularisiert. (3) Beim Lesen von mehrsilbigen Wörtern wird der Betonungsschwerpunkt oft falsch gesetzt, während das Wort ansonsten richtig gelesen wird (was den sogenannten Stress-Shift-Error ausmacht). (4) Das Zuordnen von Homophonen ist am besten mit regelmäßigen Wörtern, am nächstbesten mit NichtWörtern und am schlechtesten mit irregulären Wörtern möglich. (5) Das Sinnverständnis beim stillen Lesen ist häufig phonologisch vermittelt. (6) Im Lesesinnverständnis beim stillen Lesen werden Homophone häufig verwechselt. (7) Patienten, denen ein Wort laut vorbuchstabiert wird, begehen beim Aussprechen bzw. im Verständnis die gleichen Fehler wie bei schriftlicher Präsentation des Stimulus. Dies gilt auch fur Fälle, in denen das Sprachverständnis ansonsten nicht gestört ist. (8) „Orthographische" Fehler (Hinzufiigungen, Substitutionen, Auslassungen, Verwechslungen) betreffen das Lesen von Wörtern ebenso wie das Lesen von NichtWörtern. (9) Das Schreiben und Buchstabieren ist beeinträchtigt, wobei die meisten Fehler von phonologischer Orientierung zeugen. Nach Auflistung dieser Charakteristika soll nachvollzogen werden, wie die Autoren das Auftreten jedes einzelnen Symptoms und ihr Verhältnis zueinander zu erklären hoffen. Erst danach soll die Konfrontation mit Gegenargumenten erfolgen. Das erste der genannten Symptome - also überlegene Leistungen bei Wörtern mit regulärer Schreibung im Vergleich zu Wörtern mit irregulärer Schreibung - ist der Einschätzung von Coltheart/Masterson/Byng/Prior/Riddoch (1983, 485) zufolge „necessary and sufficient for the diagnosis of surface dyslexia. " Damit verbunden ist der Vorschlag, daß dieses Symptom nur bei Oberflächendyslexie und nicht bei den anderen Dyslexieformen auftritt, und daß es bei Oberflächendyslexie immer auftritt. Die Symptome (2), (3) und (4) sind sozusagen „parasitär" zu Symptom (1), d.h. sie treten immer dann auf, wenn Symptom (1) auftritt. Das entscheidende erste Symptom wird durch „failures of access within the visual input logogen level" (1983, 489) verursacht. In der Logik der zugrundeliegenden Version des Logogen-Modells bedeutet dies, daß Wörter, fur die beim Lesen keine Repräsentation im visuellen Input-Logo-
42 gensystem zugänglich ist, über das Graphem-Phonem-Konversions-System gelesen werden müssen. Dieses System kann (in einer Weise, die unten ausführlich diskutiert wird) nur bei regulären Wörtern zuverlässig die richtige Aussprache produzieren. Bei unregelmäßigen Wörtern kommt es zu falschen (d.h. nicht normgerechten) Leseergebnissen: Thus, if there are failures of access within the Visual input logogen level, this will lead to errors in the reading aloud of irregulär words but not to errors in the reading aloud of regulär words. (Coltheart/ Masterson/Byng/Prior/Riddoch, 1983,489)
Wenn das erste Symptom auftritt, wird auch das zweite Symptom (der Regularisierungsfehler) zu beobachten sein, denn die Konvertierung von Graphemen in Phoneme ist ein regelgeleitetes Verfahren, aus dem in Zweifelsfällen ein regularisiertes Leseergebnis hervorgeht. Auf gleiche Weise kommt es zu Irrtümern bei der Wahl des Betonungsschwerpunkts (Symptom 3), denn selbst bei regulären, mehrsilbigen Wörtern ist anhand der GraphemPhonem-Korrespondenz-Regeln nicht über das Intonationsmuster zu entscheiden. (z.B. Tenor vs. Tenor; modern vs. modern: in solchen Fällen ist zusätzliches Kontextwissen erforderlich). Symptom (4), das bei A.B. anhand der homophon matching task diagnostiziert worden war, kommt zustande, wenn der Leser bei dieser Aufgabe auf Graphem-Phonem-Konvertierung angewiesen ist. Wenn eine teilweise Störung auf Ebene der visuellen Input-Logogene beim jeweiligen Wort keinen lexikalischen Zugang ermöglicht, dann ist bei regulären Wörtern mit größerer Wahrscheinlichkeit eine richtige Entscheidung möglich als bei irregulären Wörtern. Da für einige Wörter visuelle Logogene erhalten sind, ist zu erwarten, daß die Leistungen bei NichtWörtern besser als bei irregulären, aber schlechter als bei regulären Wörtern sein sollte. Der Umstand, daß die Leistungen - wie bei A.B. beobachtet - bei irregulären Wörtern über dem Zufallsniveau liegen, erklärt sich ebenso durch die Verfügbarkeit einiger visueller Logogene. Für die übrigen fünf Symptome gilt nach Auffassung von Coltheart/Masterson/Byng/ Prior/Riddoch, daß sie bei Oberflächendyslexie hinzutreten können, aber nicht müssen. Dennoch deuten sie Symptom (5), (6) und (7) als Folge der gleichen Ursache, der schon die Symptome (1) bis (4) angelastet wurden. Alle drei Symptome beziehen sich jedoch - im Gegensatz zu den ersten vier Merkmalen - auf das Verständnis des gelesenen Wortes. Die Frage, wie der Oberflächendyslektiker den Zugang zur Bedeutung des gelesenen Wortes findet, beantwortet das Logogen-Modell in der hier zugrundeliegenden Fassung (illustriert durch Abbildung 3.1, aus Morton/Patterson, 1987a) mit der Abfolge: Visuelle Analyse - * Graphem-Phonem-Konversion -> Zwischenspeicher —> Auditorische Input Logogene —> Kognitives System (vgl. Morton/Patterson, 1987, 115). Aus der Verwendung dieses „Weges" folgt, daß das Verständnis eines Wortes bei fehlendem Zugang zu einem visuellen Input-Logogen vollständig von der Mediation durch einen phonologischen Code abhängt. Dieser Mediationsprozeß (der eigentlich ein Rückkoppelungsprozeß ist) kann nur dann das Sinnverständnis des Wortes sicherstellen, wenn daß Wort sowohl regulär als auch kein Homophon ist. Ist das Wort aber irregulär, dann entspricht der über Graphem-PhonemKonversion erarbeitete phonologische Code nicht der normgerechten phonologischen Reprä-
43 sentation - und wird deshalb unter Umständen nicht verstanden. Dies gilt in besonderem Maße für die notorisch irreguläre englische Sprache, wo pint (korrekte Lesung: [ p a i n t ] ) über Graphem-Phonem-Korrespondenz-Regeln als [ p i n t ] gelesen wird. Für diesen falschen phonologischen Code findet sich kein auditorisches Input-Logogen, so daß auch auf diesem Weg kein Zugang zum passenden Eintrag im kognitiven System möglich ist. Ist das präsentierte Wort - um den zweiten Problemfall aufzugreifen - ein Homophon, dann ist der phonologische Code zweideutig. Diese Zweideutigkeit wäre nur durch die wiederum wegen der Beeinträchtigung der visuellen Input-Logogene nicht verfügbaren orthographischen Informationen aufzulösen.
Abbildung 3.1 Symptom (7) ist erklärbar, wenn man sich den Input zum visuellen Logogensystem als abstrakte Buchstabenidentitäten (abstract letter identities: ALI) vorstellt. Mit dieser Vorannahme kann man weiter argumentieren, daß die ALIs nicht nur durch die Vorlage von Druckbuchstaben, sondern auch die vorgesprochene Buchstaben aktiviert werden. Wenn dies so wäre, dann gliche folglich der Vorgang des Vorbuchstabierens eher dem des Lesens als dem der auditiven Sprachwahrnehmung im eigentlichen Sinne. Am Ende dieser Folgerungskette steht schließlich die Erwartung, daß ein Oberflächendyslektiker, dem ein Wort laut vorbuchstabiert wird, die gleichen Fehler wie beim Lesen begehen wird.
44 Die Ursache des Symptoms (8), das in „orthographischen" Fehlern beim Lesen von Wörtern und Nichtwörtem besteht, wird nicht in einer frühen Beeinträchtigung der Wahrnehmung schriftlich präsentierter Stimuli vermutet. Gegen eine frühe, visuelle Störung spricht die Beobachtung, daß die Patienten einzelne Buchstaben sicher identifizieren wie auch ihre Position in Wörtern korrekt angeben können. Positive Angaben zu den Ursachen dieses Fehlertyps fehlen allerdings ebenso wie Informationen über den proportionalen Anteil an der Gesamtzahl der Fehler. Die Angabe zuverlässiger Kriterien für die Zuordnung eines einzelnen Fehlers zu einer Kategorie ist aus sprachstrukturellen Gründen nicht möglich. Wenn etwa das Wort steak richtig als [ s t e i k ] gelesen und als Grenzpfahl (stake, homophon zu steak) interpretiert wird, bleibt zu fragen: handelt es sich um eine Homophonverwechslung oder um einen die Anordnung der Buchstaben betreffenden „orthographischen" Fehler? Hinsichtlich des letzten, neunten Symptoms ist anzumerken, daß es offensichtlich nicht nur bei Oberflächendyslexie auftritt. In Kapitel 6 wird R.G., ein Patient von Beauvois/Derouesne (1979), beschrieben, der beim Schreiben ebenfalls phonologisch orientierte Fehler beging. Alle Patienten, die bis 1983 als Oberflächendyslektiker eingestuft worden waren, und deren Leistungen beim Schreiben von Wörtern überprüft worden sind, begingen phonologisch orientierte Fehler. Coltheart/Masterson/Byng/Prior/Riddoch vermuten „some general loss of Information about the Orthographie forms ofwords, a loss affecting some system used equally for aeeepting Orthographie input (reading) and producing Orthographie Output (spelling) " (1983,493). Für den inneren Zusammenhalt dieser Symptome spielt die gemeinsame „funktionelle" Ursache in Form einer Schädigimg im visuellen Logogensystem eine tragende, wenn auch etwas zwiespältige Rolle. In der oben dargelegten Weise lassen sich die Symptome (1) bis (7) auf eine einzige funktionelle Läsion zurückfuhren. Über den Status der Symptome (8) und (9) sind keine so eindeutigen Vermutungen möglich, weshalb sie als zusätzliche Merkmale betrachtet werden. Schon zum Zeitpunkt der Erstellung dieser Symptomliste war ein Patient bekannt, der zwar die Symptome (1) bis (4) aufwies (vgl. Goldblum, 1982) und damit die oben angegebenen „notwendigen" Bedingungen für die Diagnose einer Oberflächendyslexie erfüllte, jedoch auch bei falsch gelesenen Wörtern einen Zugang zur Semantik fand. Dieser erhaltene - und nicht auf den Umweg über die phonologische Repräsentation angewiesene - Zugang zur Semantik läßt sich mit der soeben dargestellten Interpretation nicht vereinbaren. Zur Erklärung eines solcherart abweichenden Störungsbildes argumentieren Coltheart/ Masterson/Byng/Prior/Riddoch (1983, 493), daß ein selektives Defizit im Umgang mit irregulären Wörtern, begleitet von Regularisierungen und falsch gesetzten Betonungsschwerpunkten (also Symptome (1) bis (4)) auf mehr als eine Weise zustande kommen kann. So wäre es im theoretischen Rahmen des Logogen-Modells denkbar, daß ein Verlust von Einträgen im Output-Logogen-System bei relativ erhaltener Graphem-Phonem-Konvertierung die ersten vier Symptome der von Coltheart/Masterson/Byng/Prior/Riddoch zusammengestellten Liste hervorrufen könnte. Ein Patient mit dieser Schädigung würde über einen normalen Zugang zu semantischen Einträgen verfügen, und deshalb die Symptome (5), (6) und (7) nicht aufweisen. Patienten mit dieser von Coltheart/Masterson/Byng/Prior/Riddoch Output-Logogen Form of Surface Dyslexia genannten Störungsform können zwar Zugang zur semantischen Repräsen-
45 tation der schriftlichen Stimuli finden, nicht aber zur entsprechenden phonologischen Repräsentation, weshalb sie auf die Graphem-Phonem-Konvertierung ausweichen. In Folge einer solchen Aktivierungsstörung, die den Weg zur phonologischen Repräsentation von Wörtern behindert, wäre - wenn die Vorhersagen des Modells zutreffen - zu erwarten, daß betroffene Patienten auch beim Benennen und in der Spontansprache Schwierigkeiten beim Wortabruf aufweisen sollten. Damit zeichnet sich bereits die Möglichkeit ab, beim Syndrom „Oberflächendyslexie" zwei Unterformen zu unterscheiden. Neben einer Input-Form von Oberflächendyslexie, bei der die Störung „präsemantisch" anzusetzen ist, könnte sich eine Output-Form von Oberflächendyslexie als „postsemantische" Störung manifestieren. Die Veröffentlichung dieser Liste von Symptomen hat die Diskussion um die Charakteristik des Störungsbildes „Oberflächendyslexie" vorangetrieben und ist schon deshalb verdienstvoll. Andererseits ist der Hinweis, daß diese Symptomliste nicht unwidersprochen blieb, kaum nötig. Kritik zielte sowohl auf die quantitative Basis dieser Untersuchung, die sich in einer theoretisch fragwürdigen Weise auf Daten von Entwicklungsdyslektikern und Patienten mit erworbenen Dyslexien stützte, verbunden mit der etwas gewagten These, daß Oberflächendyslexie „ can occur both as a developmental and as an acquired disorder. " Die Problematik entwicklungsbezogener Dyslexien soll im Rahmen dieser Arbeit nicht vertieft werden (vgl. Überblick bei Skowronek/Marx, 1993). Der Vergleich entwicklungsbedingter und erworbener Störungen der Sprache mag durchaus instruktive Aspekte haben, scheint jedoch mit der Zielsetzung, eine bislang unterspezifizierte erworbene Störung zu charakterisieren, methodisch nicht vereinbar zu sein. Anzumerken ist in diesem Zusammenhang auch, daß bei A.B., dem oben bereits erwähnten Patienten mit erworbener Oberflächendyslexie, der Status der prämorbiden Lesefahigkeiten zumindest fragwürdig war. Im Licht des in Kapitel 2 diskutierten Syndrombegriffs ist unmittelbar einsichtig, daß die Konstruktion eines Symptomkomplexes aus einem Schlüsselsymptom, drei essentiellen Symptomen und fünf weiteren, zusätzlichen Symptomen problematisch ist. Auf die Wechselwirkung modelltheoretischer Vorannahmen und vorhergesagter bzw. beobachteter Symptome wird in Kapitel 3.2 zurückzukommen sein. Im folgenden soll auf Studien Bezug genommen werden, deren Befunde die Befürchtung nahelegen, daß es keine einheitliche Charakteristik der Oberflächendyslexie gibt. Für die Erklärung des Leseverhaltens oberflächendyslektischer Patienten hatte die Annahme, daß lautes Lesen einzelner Wörter nur mittels Graphem-Phonem-Konvertierung möglich sei, zentrale Bedeutung. Mit dieser Hypothese ist implizit die Annahme verbunden, daß orthographisches Wissen für das laute Lesen von Wörtern offensichtlich nicht verfügbar ist. Allerdings läßt sich durch den Einsatz von lexikalischen Entscheidungsexperimenten und Zuordnungsaufgaben belegen, daß orthographische Kenntnisse bei Oberflächendyslektikem nicht notwendig völlig verloren sind. Dies läßt sich am Fall der von Kremin (1980, 1985) beschriebenen Patientin H.A.M. zeigen. H.A.M. litt nach einem zerebralen Insult an einer aphasischen Sprachstörung mit ausgeprägten Wortfindungsstörungen bei ansonsten flüssiger Spontansprache und gut erhaltenem Sprachverständnis für einzelne Wörter wie auch für kurze mündlich oder schriftlich präsentierte Aufforderungen. Das Leseverhalten dieser Patientin legte die Diagnose „Oberflächendyslexie" nahe, da das Schlüsselsymptom (1) auftrat und ihr Umgang mit schriftlichen Stimuli folgendermaßen beschrieben wurde:
46 H.A.M. 's oral reading was not influenced by either the part of speech or the concrete/abstract dimension or the frequency of the presented regulär words. If we compare the patient's oral reading of regulär and irregulär words, the latter seem to be more error prone (Kremin, 1985, 109).
Zur Überprüfung des Lesesinnverständnisses wurde H.A.M. eine speziell konzipierte Aufgabe vorgelegt, bei der sie zu entscheiden hatte, welches von vier Wörtern in semantischem Bezug zu einem vorgegebenen Zielwort stand. Eines der Zielwörter war bateau, und die Wahl des dazu passenden Wortes war zwischen den Homophonen port und porc sowie den visuell ähnlichen Wörtern porte und parc zu treffen. Bei den zehn Aufgaben dieses Typs, die ihr vorgelegt wurden, machte sie keinen Fehler. Dies ist ein Indiz dafür, daß ihr semantisches Verständnis geschriebener Wörter auf der visuell-orthographischen Form beruhte. Damit spricht diese Beobachtung weder für - um die Termini des Logogen-Modells zu benutzen eine Schädigung der visuellen Input-Logogene noch für eine Beeinträchtigung in der Verbindung des Input-Logogen-Systems zur Semantik. Auf der Produktionsseite zeigte sich, daß H.A.M. (die neben Oberflächendyslexie auch eine Oberflächendysgraphie aufwies) sich beim Schreiben nach Diktat und beim schriftlichen Benennen unter Mißachtung orthographischer Konventionen offenbar ausschließlich an der phonologischen Form der Wörter orientierte. Hingegen konnte sie bei schriftlich vorgelegten Stimuli gut entscheiden, ob ihr richtige Wörter, NichtWörter oder Pseudohomophone (Pseudohomophone sind NichtWörter, die anders geschrieben, aber genauso ausgesprochen werden wie Wörter, im Deutschen also etwa fie als pseudohomophone Entsprechung des Wortes Vieh) vorlagen. Auch darin unterschied sie sich von Oberflächendyslektikem des Input-Typs, wie sie etwa von Marshall/Newcombe (1973) oder Coltheart/Masterson/Byng/Prior/Riddoch (1983) beschrieben worden waren. H.A.M.s Leistungsprofil läßt sich darüber hinaus als Anhaltspunkt für die schon in Mortons Logogen-Modell (Morton, 1980) enthaltene und auch von Ellis (1982) vertretene Hypothese werten, der zufolge das Erkennen und die Produktion orthographischer Strukturen auf zwei separaten Speichern beruht. In H.A.M.S Fall wäre demnach zwar die Produktion orthographischer Strukturen, also das normgerechte Schreiben und Buchstabieren einzelner Wörter, unmöglich geworden, aber das Erkennen und das Verständnis von Wörtern in Abhängigkeit von ihrer Orthographie erhalten geblieben. Goldblum (1985) berichtete vom Leistungsprofil seiner französischen Patientin B.F. (identisch mit F.R.A. bei Kremin, 1980), deren nach einem embolic cerebrovascular accident anfangs schwerwiegende Sprachstörung sich zu einer Leitungsaphasie verbesserte. Sie hatte nur gelegentliche Wortfindungsstörungen und ihre Spontansprache war flüssig, obwohl manchmal phonologische Paraphasien auftraten. Schwerwiegend gestört war hingegen - wie für Leitungsaphasie charakteristisch - ihr Vermögen, Wörter nachzusprechen. Hierbei war auffallend, daß die Beeinträchtigung des Nachsprechens bei NichtWörtern besonders ausgeprägt war. Allerdings beging sie auch bei Wörtern zahlreiche phonologische und semantische Fehler (vgl. Goldblum 1987, wo B.F.s Nachsprechleistungen als eine auditorische Analogie zur Tiefendyslexie interpretiert werden). Im hier diskutierten Zusammenhang ist jedoch ihr Leseverhalten von besonderem Interesse. Wenn man sie bat, Funktions- und Inhaltswörter zu lesen, war weder ein Wortarteffekt noch ein Effekt der Wortlänge (gemessen in Silben) festzustellen. Im Vergleich mit gleich
47 langen NichtWörtern zeigte sich jedoch eine Überlegenheit bei Inhaltswörtern, bei denen sie unabhängig von ihrer Länge - weniger Fehler beging. Es traten teilweise Fehler auf, die als Fehlanwendung von Graphem-Phonem-Korrespondenz-Regeln gedeutet werden können. Obwohl das Lautlesen von Wörtern mit regulärer Orthographie insgesamt besser möglich war als das Lesen von Wörtern mit irregulärer Orthographie (also Symptom 1), waren ihre richtigen Lesungen nicht auf Wörter mit regelmäßigen Graphem-Phonem-Korrespondenzen beschränkt, denn sie konnte orthographisch irreguläre Wörter, wie etwa oignon oder août richtig lesen. Von einer ihr vorgelegten Liste mit „inkonsistenten" Wörtern konnte sie 60% richtig lesen (zum Begriff der Inkonsistenz vgl. Kapitel 3.2.2). Ihre Fehllesungen entsprachen nicht immer den Regularisierungen, die bei Anwendung von Graphem-Phonem-Korrespondenz-Regeln zu erwarten gewesen wären. In einigen Fällen erweckte sie den Eindruck, als sei es leichter für sie, ein schriftlich präsentiertes Wort zu benennen als es zu lesen. With steak [ s t e i k ] she first produced [ s t r a k ] , then [steak], which is a régularisation error. When asked if she knew the word she answered: „Yes, it is a [ s t e i k ] . " But when asked, immediately after that answer, to read the word again she produced exactly the same incorrect reading. (Goldblum, 1985, 189)
Im Gegensatz zu den Beobachtungen an den „klassischen" Oberflächendyslektikern Newcombe/Marshalls und entgegen der Vorhersage des Symptoms (5) schien sie insgesamt recht gut in der Lage zu sein, auch inkonsistente Wörter, die sie falsch gelesen hatte, zu verstehen. Damit wäre auch sie dem Output-Typ der Oberflächendyslexie zuzuordnen. Entgegen der von Coltheart/Masterson/Byng/Prior/Riddoch getroffenen Vorhersage, daß Oberflächendyslektiker mit intaktem Lesesinnverständnis Wortfindungsstörungen beim Benennen aufweisen sollten, zeigt das vorstehende Beispiel, daß der Patientin das „Benennen" des Wortes leichter fällt als das Lesen. Goldblum berichtet im übrigen, daß B.F.s Leistungen beim Benennen sehr viel besser sind als ihre Leistungen beim Lesen irregulärer Wörter. Die Ursache der herausragenden Schwierigkeiten, die diese Patientin beim Lesen irregulärer Wörter aufweist, sieht Goldblum in der Beeinträchtigung der lexikalisch-phonologischen Route: I suggest here that it is damage to this route which, in a patient with a preserved ability to realize spellingsound correspondences, is a sufficient source of surface dyslexic reading performance. (Goldblum, 1985, 197)
Angesichts des Leistungsprofils von Patienten wie W.L.P. (Schwartz/Saffran/Marin, 1987; vgl. Kapitel 4) wird argumentiert werden, daß die Fähigkeit, irreguläre Wörter ohne Sinnverständnis richtig zu lesen, auf einer direkten Verbindung zwischen visuellen Input-Logogenen und phonologischen Output-Logogenen basiert. Der von Kay/Patterson (1985) beschriebene Patient E.S.T. wies in seiner flüssigen, grammatikalisch korrekten, aber inhaltsarmen Spontansprache Wortfindungsstörungen auf. Sein Leseverhalten entspricht auf den ersten Blick dem Störungsbild der Oberflächendyslexie und wird folgendermaßen beschrieben:
48 [...] he finds it more difficult to read irregular than regular words correctly, and produces régularisations of irregular words. He sometimes misunderstands the target word, his definition agreeing with his mispronunciation. (Kay/Patterson, 1985, 81)
Eine genauere Analyse zeigt jedoch, daß der Unterschied zwischen E.S.T.s Leistungen bei regelmäßigen und unregelmäßigen Wörtern kein statistisch signifikanter Effekt ist, wie es das Schlüsselsymptom (1) erwarten ließe. Im Rahmen der Überprüfung seines Lesesinnverständnisses zeigte sich, daß er zwar z.B. foot regularisiert als [ f u t ] las (korrekt wäre [ f u t ]), das Wort aber dennoch richtig verstand (und nicht etwa als food [ f u : d]). Beim Lesen von irregulären und regulären Homophonen (z.B. break und brake [ b r e i k ] ) trat die Homophonverwechslung, die bei nicht-lexikalischem Lesen zu erwarten wäre, nur bei 4 von 15 Homophonpaaren auf. Ob dies eine Abweichung von Symptom (6) ist, hängt davon ab, wie man „häufig" definiert. E.S.T. entsprach nicht der Annahme von Coltheart/Masterson/Byng/ Prior/Riddoch (1983, 485), daß das Lesesinnverständnis beim stummen Lesen oft durch vorangegangenes phonologisches Rekodieren vermittelt sei (Symptom 5), und daß dies immer der Fall sei, wenn das Ergebnis phonologischer Rekodierung inkorrekt war. Kay/ Patterson (1985) argumentieren angesichts dieses Leistungsprofils: „[...] the primary impairment in E.S.T.'s case is in gaining access to lexical phonology rather than to lexical orthography. " Wie Coltheart/Masterson/Byng/Prior/Riddoch (1983) betonen die Autoren den Zusammenhang zwischen einer solchen Lesestörung vom sogenannten Output-Typ und einer allgemeineren Störung des Wortabrufs, der sich auch beim Benennen und in der Spontansprache auswirkt. Im Gegensatz zu Coltheart/Masterson/Byng/Prior/Riddoch warnen Kay/Patterson jedoch davor, phonologisch lesende Patienten mit und ohne Zugriff zur Semantik zwei Spielarten der gleichen Störung zuzurechnen. Sie wenden ein: [...] that to draw these apparently dissociable disorders together under the umbrella of the term „surface dyslexia" (albeit as „input" or „output" forms of the same syndrome) may prove, in the light of future theoretical and empirical research, to be of questionable validity. (Kay/Patterson, 1985,100)
Die bislang geschilderten Fallstudien an Oberflächendyslektikem bezogen sich auf Sprecher der französischen und englischen Sprache. Für die alphabetische Verschriftung des Englischen und Französischen gilt in viel stärkerem Maße als für die deutsche Rechtschreibung eine ausgeprägte Unregelmäßigkeit der Graphem-Phonem-Korrespondenz-Regeln. Am Beispiel des Silbenschriftsystems der dravidischen Sprache Kannada zeigt Karanth (1985), daß die charakteristischen Merkmale der Oberflächendyslexie bei der Verschriftung von Kannada nicht auftreten können, weil hier jedes Silbenschriftzeichen in einem invarianten Verhältnis zur gesprochenen Silbe (und umgekehrt) steht. [... ] in languages that not only lack irregular words, but in which alternative spellings of a sound or word are not possible, surface dyslexia cannot be observed [...]. Further, the homonyms that are found in Kannada are both homophones and homographs. Finally, the stress errors observed in surface dyslexic readers of languages such as English [...] cannot occur in Kannada because all syllables in Kannada words are given equal stress. (Karanth, 1985, 255)
49 Deutlich kompliziertere Verhältnisse finden sich in der Verschriftung des Japanischen, wo ein Mischsystem aus zwei Silbenalphabeten (Hiragana und Katakanä) und den morphographischen ATa«/7-Schriftzeichen gebräuchlich ist. Mit Kanji-Schriftzeichen werden die Wortstämme von Nomen, Verben, Adjektiven und Adverbien sowie Personen- und Ortsnamen also semantisch bedeutsame Elemente - geschrieben (vgl. Backhouse, 1984). Der Verschriftung von freien und gebundenen grammatischen Morphemen dient üblicherweise das Hiragana-Silbensystem. Die Kanji-Schrift stellt, wie Henderson (1982) kommentierte, den ultimativen Fall orthographischer Irregularität dar, denn die Aussprache dieser Zeichen läßt sich nicht aus dem Schriftbild ableiten. Die Kana-Silbenzeichen befinden sich hingegen in einem sehr regelmäßigen Verhältnis zu gesprochenen Silben. Einen ausfuhrlicheren Überblick über neurolinguistische Aspekte des japanischen Schriftsystems geben Paradis/Hagiwara/Hildebrandt 1985 (vgl. auch Graap, 1993). Wenn man die Vorhersagen des Symptomkomplexes Oberflächendyslexie auf die Verhältnisse der japanischen Schriftsprache überträgt, sollte das laute Lesen von Kanji-Zeichen schweren Beeinträchtigungen unterliegen oder unmöglich sein, während das Lesen von Kana-Silbenzeichen gut erhalten sein sollte. Bezugnehmend auf die oben zitierte Symptomliste von Coltheart/Masterson/Byng/Prior/ Riddoch (1983) überprüft Sasanuma (1985), welche der Charakteristika oberflächendyslektischen Lesens bei japanischen Lesern auftreten. Sasanumas Patient S.U. litt nach einem Schlaganfall an einer Sprachstörung, die mit flüssiger aber paraphasischer Spontansprache Leitsymptome der Wernicke-Aphasie aufwies. Am Leistungsprofil dieses Patienten zeigt sie beispielhaft auf, daß das bei Lesern von Alphabetschriften beobachtete Symptom 1 mit der selektiven Störung des Lesen von Kanji-Zeichen im Japanischen korrespondiert. Symptom 2, Regularisierung, ist im Umgang mit Kanji-Zeichen schlicht unmöglich. Dafür weist der japanische Leser S.U. ein Symptom auf, daß bei Benutzern von Alphabetschriften keine Entsprechung hat: er begeht im Umgang mit Kanji semantische Fehler. Seine Leistungen mit Kana sind hingegen fehlerfrei, d.h. „ no phonological errors (in the sense of misapplication of kana-syllable and syllable-kana correspondence rules) were observed" (Sasanuma, 1985, 239). Symptom 3, die sogenannten Stress-Shift-Errors, könnten im Japanischen etwa Fehlern in der Zuweisung des Wortakzents entsprechen. Derartige Fehler waren bei S.U. jedoch nicht zu beobachten. Symptom 4 - das Verhalten beim stummen Zuordnen von Homophonen - kann im Japanischen nicht in gleicher Form auftreten. Es gibt einerseits im Japanischen keine homophonen regulären Wörter, die mit Kana geschrieben werden, und daß S.U. andererseits beim Zuordnen von Kanji-Homophonen größte Schwierigkeiten hatte, war vorherzusehen. Die Symptome 5 und 6 waren bei S.U. nicht festzustellen, an ihrer Stelle beobachtete Sasanuma „[...Jreasonably well preserved comprehension of Kanji in contrast to severely impaired oral reading (with little indication of phonologically based comprehension errors) " (1985, 240). Symptom 7 bezieht sich - wie Symptom 9 - auf das Buchstabieren von Wörtern in Alphabetschrifiten, weshalb beide im Japanischen nicht auftreten können. Das Symptom 8 - orthographische Fehler - ist im japanischen Schriftsystem beim lauten Lesen von Kana-Wörtern grundsätzlich möglich, trat jedoch bei S.U. nicht auf. Die Übertragung des oberflächendyslektischen Störungsmusters auf das japanische Schriftsystem zeigt zwar einige Übereinstimmungen, aber auch interessante Abweichungen
50 von den Beobachtungen an dyslektischen Benutzern von Alphabetschriften. Besonders interessant ist in diesem Zusammenhang das Auftreten von semantischen Fehlern, die an anderer Stelle (vgl. Kapitel 5) als Leitsymptom der Tiefendyslexie diskutiert werden, und die bei Oberflächendyslektikern aus Gründen der Theoriekonsistenz schon deshalb nicht auftreten sollten, weil sie als Beleg für einen direkten Zugang von der Orthographie zur Semantik gelten. Ein Grund fur diese auch bei anderen japanischen Oberflächendyslektikern, etwa K.K. (Sasanuma, 1987), beobachtete Diskrepanz zwischen japanischen Patienten und Benutzern von Alphabetschriften liegt in der Struktur der jeweiligen orthographischen Codes. Die morphographischen Kanji-Zeichen sind besonders eng und unmittelbar mit ihren lexikalischen und/oder semantischen Repräsentationen verknüpft, und der Einsatz semantischer (oder lexikalischer) Spezifizierungen ist für den Abruf der phonologischen Repräsentationen beim lauten Lesen unabdingbar. Dies hat zur Folge, daß [...] the most likely route of access to output phonology is lexical semantic, notwithstanding a partial malfunction at some point along the way, with little means to provide a phonological check for possible misreadings, viz. semantic errors. (Sasanuma, 1985,242)
Neben diesen eher grundsätzlichen Überlegungen zum Auftreten von Oberflächendyslexie bei japanischen Patienten ist auch das spezifische Leistungsprofil von S.U. von theoretischem Interesse. Wie bereits erwähnt, war bei S.U. anstelle der Symptome (5) und (6) ein gut erhaltenes Lesesinnverständnis festzustellen. Sasanuma berichtet: S.U.'s relatively well preserved reading comprehension of the test words (including those Kanji that he failed to read aloud correctly), along with his near normal lexical decisions on both Kana and Kanji, clearly indicate that impairment of the first route is far from total. (Sasanuma, 1985, 245)
Damit tritt dieser Patient an die Seite der bereits erwähnten Patienten E.S.T. (Kay/Patterson, 1985), B.F. (Goldblum, 1985) und H.A.M. (Kremin, 1985). Wie die Befunde an den genannten Patienten, die Alphabetsysteme benutzen, scheint auch das Leistungsprofil des japanischen Patienten S.U. ein Indikator dafür zu sein, daß bei einigen Oberflächendyslektikern der Zugang von visuellen Input-Logogenen zur Semantik gut (wenn auch vielleicht nicht völlig unbeeinträchtigt) erhalten ist. Eine wichtige Erkenntnis, die S.U. und anderen oberflächendyslektischen Benutzern des japanischen Schriftsystems zu verdanken ist, bezieht sich auf eine differenziertere Betrachtung des visuellen Zugangs zur lexikalischen Semantik. Bei der Untersuchung des Lesesinnverständnisses mit einer modifizierten Version des Peabody-Tests zeigte sich im Falle S.U.s, daß er für das Lesen von Kana-Wörtern signifikant mehr Zeit benötigte als für das Lesen von Kanji-Items (8,9 sec. zu 4,7 sec.). Die längere Verarbeitungsdauer scheint ein Anhaltspunkt für phonologische Mediierung bei Kana-Wörtern zu sein. Eine wichtige Ausnahme bildeten allerdings hochvertraute, häufige Kana-Wörter, bei denen kein größerer Zeitbedarf im Vergleich zu Kanji-Items festzustellen war. Daraus läßt sich die Hypothese ableiten, daß, wie Kanji-Wörter, auch hochfrequente Kana-Wörter für einen direkten Zugang zur Semantik prä-
51 destiniert sind. Insgesamt liegt angesichts des Leistungsprofils von S.U. die Vermutung nahe, daß er fur Kanji-Wörter zwar den Zugang zur Semantik findet, daß aber der Zugang zu den phonologischen Repräsentationen (Output-Logogenen) bzw. das phonologische Lexikon selbst beeinträchtigt ist. Diese Beeinträchtigung wirkt sich spezifisch auf das laute Lesen von Kanji-Wörtern aus, weil diese nur auf lexikalischem Wege gelesen werden können. Auf die hochfrequenten Kana-Wörter, die normalerweise wie Kanji-Wörter mit direktem Zugriff gelesen werden, wirkt sich diese Beeinträchtigung nicht aus, weil es für das laute Lesen dieser Wörter noch die phonologische Route gibt. Damit deutet sich zugleich an, daß für das Lesen neben der Art der Stimuli (Worthäufigkeit, Wortart etc.) auch die Art der Aufgabe (lautes vs. leises Lesen) und mithin die Strategie eine Rolle spielt. Am Ende dieses Überblicks über die Charakteristik der Oberflächendyslexie bleibt festzustellen, daß unter dieser Überschrift offensichtlich unterschiedliche Störungsbilder zusammengefaßt werden. Es lassen sich anhand der oben dargestellten Befunde zwei Typen von oberflächendyslektischem Leseverhalten unterscheiden, von denen [...] the first finding is consistent with a difficulty in accessing correct semantic information from a visual representation, or at a semantic level itself, while the second is consistent with a later-level impairment, perhaps in addressing output phonology from the semantic system. (Kay, 1993, 255)
3.2 Neurolinguistische Interpretation der Störung Wie der Überblick über die Charakteristik der Oberflächendyslexie gezeigt hat, verbindet alle sogenannten Oberflächendyslektiker - ob Input- oder Output-Typ - ein phonologisch orientiertes Leseverhalten. Die charakteristischen Merkmale, die sich beim Lesen aus dieser phonologischen Orientierung ergeben, lassen sich kaum von der modellgestützten Deutung des Störungsmusters trennen. Deshalb enthielten die oben zitierten Fallstudien stets schon Hypothesen über die Ursachen der oberflächendyslektischen Symptomatik. Neben den oben differenzierten beiden Formen oberflächendyslektischen Lesens wird in manchen Studien ein dritter „Subtyp" der Oberflächendyslexie zugerechnet (vgl. Ellis/Young, 1988; Coltheart/Curtis/Atkins/Haller, 1993). Es handelt sich dabei um ein Störungsmuster, das in Kapitel 4 als Semantische Dyslexie dokumentiert werden soll. Im Gegensatz zu Patienten mit Oberflächendyslexie lesen diese Patienten einzelne - auch orthographisch irreguläre Wörter mit normaler Geschwindigkeit und ohne Lesesinnverständnis. Während Coltheart/ Masterson/Byng/Prior/Riddoch (1993) die in Kapitel 4.1 beschriebenen Patienten M.P. und K.T. als besonders reine Fälle von Oberflächendyslexie zitieren, wird von anderen Autoren (Shallice, 1988; De Bleser, 1991; Kay, 1993) die auch hier präferierte Auffassung vertreten, daß es sich bei diesem Störungsmuster um ein qualitativ abweichendes Phänomen handelt. Aus diesem Grund wird der semantischen Dyslexie ein eigenes Kapitel gewidmet, in welchem auch auf die Unterschiede zwischen Oberflächendyslexie und semantischer Dyslexie eingegangen werden wird.
52 Dieses Kapitel ist weniger der Phänomenologie oberflächendyslektischen Lesens gewidmet als vielmehr dem Beitrag, den dieses Störungsmuster zur Interpretation des Lesens insgesamt leisten kann. Für die neurolinguistische Theorieentwicklung ist die Oberflächendyslexie besonders deshalb interessant, weil man sich von der Analyse dieses Störungsmusters genaueren Aufschluß über die Prozesse erhofft, die an der Ableitung der phonologischen Repräsentation aus der orthographischen Repräsentation beim ungestörten Leseprozeß beteiligt sind. On the twin assumptions that in the normal reader all available routines tend to act and interact, and that in a particular reader (ideally) only the subword translation routine is available, a study of reading performance by that patient may be thought to afford a privileged view of the operation of this component of reading. (Patterson/Marshall/Coltheart, 1985, 333)
Die entscheidenden Fragen, die mit der Interpretation des Störungsbildes der Oberflächendyslexie verknüpft sind, lassen sich folgendermaßen formulieren: (1) Welche Prozesse sind an der Aussprache geschriebener NichtWörter beteiligt? (2) Sind - obligatorisch oder als Option - die gleichen Prozesse an der Aussprache existierender geschriebener Wörter beteiligt? Die Beantwortung dieser Fragen fallt - je nach theoretischem Standpunkt - unterschiedlich aus, wie sich auch die Annahmen zu den funktionalen Ursachen der Störung unterscheiden. Eine grundsätzliche theoretische Differenz betrifft die Annahme über den normalen Zugang zur Aussprache geschriebener Wörter. Im Sinne der Dual-Route-Modelle wird eine fundamentale Unterscheidung zwischen lexikalischen und nicht-lexikalischen Leseprozessen getroffen, während die lexikalische Analogietheorie diese Unterscheidung nicht trifft. Bei den der Dual-Route-Theorie zuzuschlagenden Modellvarianten ist zu unterscheiden zwischen einer „Standard-Version", wie sie etwa von Coltheart (1978, 1981) im Anschluß an Marshall/Newcombe (1973/1977) vertreten wurde, und einem von Patterson/Morton (1985) modifizierten Entwurf. Die im Anschluß an diese Entwürfe dargestellte „Multiple-LevelsPosition", wie sie etwa von Shallice/McCarthy (1985) oder von Shallice (1988) vertreten wird, steht in mancher Hinsicht zwischen den theoretischen Lagern der Dual-Route-Modelle und der Analogie-Hypothese (Marcel, 1987; Henderson, 1982). Die Beantwortung der oben genannten Fragen soll im folgenden aus Sicht dieser verschiedenen Auffassungen nachvollzogen werden. In diesem Zusammenhang wird auch erörtert werden, auf welche funktionellen Ursachen die verschiedenen Modelle die oberflächendyslektische Symptomatik zurückfuhren. 3.2.1 Die Standard-Version Kennzeichnend für die Standard-Version der Dual-Route-Modelle ist, daß separat - oder zumindest separierbar - von lexikalischen Verfahren, durch die die Aussprache eines bekannten Wortes erschlossen werden kann, eine nicht-lexikalische Route für die Erarbeitung der Aussprache angenommen wird. Dieses nicht-lexikalische Verfahren ist auf alle Buchstabenketten anwendbar - seien sie vertraute Wörter, unbekannte Wörter oder NichtWörter. Dem von Colt-
53 heart (1978) vertretenen Konzept zufolge ist dieses Verfahren nicht-lexikalisch und nicht-semantisch, denn zwischen graphemischer Dekodierung und phonologischer Rekodierung erfolgt kein Zugriff auf lexikalisches und semantisches Wissen. Die nicht-lexikalische Route ist zuständig für die Umsetzung von Graphemen in Phoneme, wobei ein hier nicht näher spezifiziertes Regelsystem befolgt wird. Ob ein umzusetzendes Graphem Teil eines Wortes oder eines Nichtwortes ist, spielt für diesen Prozeß keine Rolle. Die Antworten der Standardtheorie auf die oben aufgeführten Fragen lauten also: (1) Die Aussprache geschriebener NichtWörter (sowie unbekannter Wörter) fällt der Standardversion zufolge notwendig in den Funktionsbereich der nicht-lexikalischen Bahn. Sie müssen durch die Anwendung von Konvertierungsregeln - d.h. durch die regelgeleitete Übersetzung von Graphemen in Phoneme - gelesen werden, wodurch das o.a. Regularisierungsphänomen entsteht, denn weder für NichtWörter noch für unbekannte Wörter gibt es Lexikoneinträge. (2) Die Aussprache vertrauter geschriebener Wörter kann aus dem entsprechenden Lexikoneintrag entnommen werden. Dieser Vorgang ist für das richtige laute Lesen von Wörtern mit irregulären Graphem-Phonem-Korrespondenzen obligatorisch, während reguläre Wörter potentiell auch mittels Graphem-Phonem-Konvertierung gelesen werden können. Oberflächendyslektisches Lesen entsteht folglich aus einem Ausfall bzw. einer Beeinträchtigung der lexikalischen Routen im Bereich des visuellen Input-Lexikons, so daß die Patienten beim Lesen ausschließlich auf die nicht-lexikalische Route angewiesen sind. Wie beim Überblick über die Charakteristik der Oberflächendyslexie oben deutlich geworden ist, entsprechen die Patienten den aus dieser Modellvorstellung abgeleiteten Erwartungen nur unzureichend. Dies trifft in besonderem Maße für die Oberflächendyslektiker vom Output-Typ zu, bei denen der Zugang zur Semantik offensichtlich gut erhalten war. In der Übertragung auf normale Leser birgt diese Modellvorstellung Probleme wie sich an folgendem Beispiel leicht verdeutlichen läßt: Suppose a person pronounces the non-word pove /pAv/ (to rhyme with love),
as indeed occasionally hap-
pens [...]. The strong hypothesis of a non-lexical phonological routine must deny that such an event demonstrates consultation of the lexically stored pronunciation for love. (Patterson/Morton, 1985, 336)
Beim Lesen von Nichtwörtem bliebe der Leser bei strikter Auslegung dieser Hypothese sogar dann von Analogien zu existierenden Wörtern unbeeinflußt, wenn sie so offensichtlich sind wie in dem genannten Beispiel. Diese Annahme erwies sich als nicht haltbar. Die geschilderte Standardversion eines Dual-Route-Modells zeigt deutlich, daß es anfangs vor allem zwei Variablen waren, deren Relevanz für die Ableitung der phonologischen aus der graphemischen Gestalt beachtet wurde. Es handelte sich dabei zum einen um die Unterscheidung zwischen Wörtern und NichtWörtern, zum anderen um die Unterscheidung von Wörtern mit regelmäßigen und unregelmäßigen Graphem-Phonem-Korrespondenzen. Die Unbefangenheit im Umgang mit diesen Variablen ist mit Fortgang der Forschungsarbeit zunehmend geschwunden. Die Datenmenge wuchs allmählich an und die Studien gewan-
54 nen an Tiefgang. Dabei erwies sich unter anderem, daß die schlichte Unterscheidung zwischen NichtWörtern und Wörtern oder eine einfache Dichotomie von Regelmäßigkeit und Unregelmäßigkeit der Graphem-Phonem-Korrespondenzen angesichts der Komplexität linguistischer Strukturen zu kurz griffen. Die Feststellung, daß die Untersuchungsergebnisse praktisch aller Studien auf zumindest unscharf definierten Variablen basierten, flankiert durch die Beobachtung, daß andere Variablen gar nicht beachtet worden waren, konfrontierte die „geläuterten" Theoretiker („sadder but wiser", wie Patterson/Morton, 1985, 338, kommentieren) mit einer überaus problematischen Datenlage. Es erwies sich, daß die vorliegenden Daten aus metatheoretischer Sicht keineswegs ein solides Fundament für die Entwicklung von Verarbeitungsmodellen darstellten. Die Erhebung und die Bewertung von Beobachtungen des normalen wie des oberflächendyslektisch oder anderweitig gestörten Leseverhaltens mußte angesichts der im folgenden dargestellten Erkenntnisse differenziert werden. (a) Die Regularität vs. Irregularität von Graphem-Phonem-Korrespondenzen ist eher als Kontinuum denn als Dichotomie aufzufassen. Eine „Alles-oder-Nichts" Unterscheidung zwischen regelmäßigen und unregelmäßigen Graphem-Phonem-Korrespondenzen wird dem tatsächlich eher fließenden Übergang von Wörtern mit regelmäßigen Graphem-Phonem-Korrespondenzen über Wörter mit leicht unregelmäßigen Graphem-Phonem-Korrespondenzen bis hin zu Wörtern mit sehr unregelmäßigen Graphem-Phonem-Korrespondenzen nicht gerecht. Zu berücksichtigen sind in diesem Zusammenhang auch die Effekte orthographischer Irregularität bei unbeeinträchtigten Lesern. Mit der Frage eines Regularitäts-Irregularitäts-Kontinuums haben sich z.B. Venezky (1970) und Parkin (1982) auseinandergesetzt. Parkin (1982) wies auf Grundlage der Angaben des Oxford Paperback Dictionary darauf hin, wie relativ die Einstufimg von „Regularität" bzw. „Irregularität" in verschiedenen Studien ist. Das Oxford Dictionary notiert für Wörter mit „schwieriger", also unregelmäßiger Aussprache, Aussprachehinweise. Von den „Ausnahmewörtem", die Coltheart/Besner/Jonasson/Davelaar (1979) in einer Studie mit Normallesern einsetzten, fielen nur 30% in die Kategorie „unregelmäßig" des Oxford Dictionary. Dieses „Wörterbuch-Kriterium" für Unregelmäßigkeit ist allerdings theoretisch nicht sehr befriedigend. Venezky und Massaro (1981) haben sich bemüht, die unterschiedlichen Grade von Irregularität näher zu bestimmen. Zur Kategorie „leicht" unregelmäßiger Wörter gehören im Verständnis von Venezky (1970) und Venezky/Massaro (1981) solche, die eine GraphemPhonem-Korrespondenz enthalten, die zwar gebräuchlich, aber nicht die häufigste Korrespondenz ist (z.B. d r e a d vs. beat oder soul vs. mouse). Dieser Typ von Wörtern, von Venezky (1970) als minor correspondence eingeordnet, steht in der Mitte zwischen Wörtern mit regelmäßigen Graphem-Phonem-Korrespondenzen und Wörtern mit sehr unregelmäßigen Graphem-Phonem-Korrespondenzen (z.B. colonel, yacht, area). Zu berücksichtigen ist, daß die englische Sprache besonders reich mit orthographisch irregulären Schreibungen gesegnet ist. Auch im Deutschen gibt es jedoch Wörter mit unregelmäßigen GraphemPhonem-Korrespondenzen. In fast allen Fällen entspricht beispielsweise das Graphem in nicht-initialer Position dem Phonem Iii. Eine der seltenen Ausnahmen bildet das in Abhängigkeit von Jahreszeit und Region frequente Wort Elferrat, in welchem das Graphem als /vi realisiert wird. Es lassen sich zwar noch einige weitere Beispiele finden, in
55
Fifteen Kinds of Letter String
Word Type
Example
Characteristics
Consistent
gaze
Consensus
lint
Heretic
pint
Gang
look
Hero
spook
Gang without a hero
cold
Ambigous: conformist
cove
Hermit
yacht
All words receive this same regular pronunciation of the body All words with one exception receive this same regular pronunciation of the body This word is the irregularly pronounced exception to the consensus All words with one exception receive this same irregular pronunciation of the body This word is the regularly pronounced exception to the gang All words receive this same irregular pronunciation of the body This is the regular pronunciation; there are many irregular exemplars for this body This is the (or a) irregular pronunciation; there are many regular exemplars for this body No other word has this body
Non-word Type
Example
Characteristics
Consistent Consensus/heretic Gang/hero Gang without a hero Ambigous Hermit
taze rint pook yold pove nacht
Refer to word types above
Ambigous: independent love
Abbildung 3.2 denen die Graphem-Phonem-Korrespondenz kontra-intuitiv ist (vgl. Günther, 1988), aber grundsätzlich gilt, daß die Phonem-Graphem-Korrespondenzen im Deutschen deutlich komplexer sind als ihre Umkehrung.
56 Die wenigen Graphem-Phonem-Ambiguitäten der deutschen Sprache betreffen z.B. die Vokallänge, etwa Kuß vs. Gruß, Bach vs. Buch, Rost vs. Trost etc. und wären nach Venezky als leichte Unregelmäßigkeiten einzustufen. Der von DeBleser/Bayer/Luzzatti (1987) als Oberflächendysgraphiker beschriebene Patient M.W. beging Lesefehler bei Wörtern dieser Kategorie, die er jedoch in der weit überwiegenden Zahl der Fälle sofort korrigierte. Besonders für die englische Sprache - mit Berücksichtigimg quantitativ geringerer Unregelmäßigkeiten aber auch für das Deutsche - gilt demnach, daß über die gesamte Spanne des Regularitäts-Irregularitäts-Kontinuums gemittelte Ergebnisse irreführend sind. (b) Zwischen der Regelmäßigkeit der Graphem-Phonem-Korrespondenzen und der Regelmäßigkeit des Schriftbildes (Spelling Pattern) besteht ein Unterschied. So sind etwa sowohl y acht als auch pint englische Beispiele für Wörter, bei denen das Verhältnis des graphemischen Inputs zum phonologischen Output Unregelmäßigkeiten unterliegt. Während die orthographische Gestalt des Wortes pint regelmäßig ist, ist das Wort yacht graphotaktisch äußerst ungewöhnlich, da es das einzige englische Wort mit der Endung -cht ist. Seidenberg/Waters/Barnes/Tanenhaus (1984) haben darauf aufmerksam gemacht, daß sich die Aussprechlatenzen in Abhängigkeit von orthographischer Regularität einerseits und von der Regelmäßigkeit der Graphem-Phonem-Korrespondenzen andererseits unterscheiden. Demnach könnten Experimente, deren Stimulusmaterial Wörter mit unregelmäßigen orthographischphonologischen Korrespondenzen mit graphotaktisch irregulären Wörtern vermischt, zu irreführenden Ergebnissen kommen. (c) Was den gewichtigen Faktor der Worthäufigkeit betrifft, so sind Seidenberg/Waters/ Barnes/Tanenhaus (1984) zu dem Schluß gekommen, daß hochfrequente Wörter den meisten oder sogar allen - anderen Dimensionen gegenüber unempfindlich sind. Auch hier gilt, die Mehrzahl der Studien betreffend, daß Experimente, deren Ergebnisse über die Spannbreite der Worthäufigkeit innerhalb einer Wortart gemittelt sind, selbst dann reanalysiert werden müßten, wenn der Faktor Worthäufigkeit zwischen den Wortarten kontrolliert worden ist. (d) Die Aussprache eines Wortes wird möglicherweise nicht nur von dem betroffenen Wort oder Pseudowort selbst, sondern auch von dem Grad bestimmt, in dem andere Wörter mit ähnlicher Schreibung ihnen in ihrer Lautung gleichen oder von ihnen abweichen. Als Glushko (1979) auf diesen Faktor aufmerksam machte, stellte er zunächst die Rolle der Regularität überhaupt in Frage und führte stattdessen den Begriff der Konsistenz vs. Inkonsistenz ein. Demnach ist die irreguläre Graphem-Phonem-Struktur einzelner Wörter ein weniger kritisches Merkmal als die Nachbarschaft irregulärer Wörter. Glushko konnte zeigen, daß die Nachbarschaft eines Wortes seine Aussprechlatenz beeinflußt. Hat ein reguläres Wort irreguläre Nachbarn, wie im Englischen etwa wave mit dem irregulären Nachbarn have, so verzögert sich die Aussprache gegenüber ansonsten gleich strukturierten Wörtern ohne irreguläre Nachbarn wie maze. Besonders bemerkenswert war die Beobachtung, daß sich dieser Effekt auch auf Pseudowörter erstreckt: ein englisches Pseudowort wie tave bewirkt eine längere Aussprechlatenz als ein Pseudowort wie taze. 1984 haben Seidenberg/Waters/Barnes/ Tanenhaus darauf aufmerksam gemacht, daß sich Irregularitäts- und Inkonsistenzeffekte nur bei seltenen Wörtern auswirken. Ähnlich wie beim erwähnten Regularitätskriterium scheint jedoch auch hier insgesamt zu gelten, daß es keine Dichotomie von Konsistenz und Inkonsistenz gibt, sondern daß es vielmehr ein Kontinuum konsistenterer und inkonsistenterer
57
Buchstabenketten gibt. Zur Unterscheidung verschiedener Typen konsistenter und inkonsistenter Buchstabenketten hat u.a. Henderson (1982) beigetragen. Gestützt auf seine und Glushkos Beobachtungen haben Patterson/Morton (1985, 340) eine Liste von 15 verschiedenen Typen von Buchstabenketten (Wörter und NichtWörter) zusammengestellt (vgl. Abb. 3.2, aus Morton/Patterson, 1985, 340). (e) Ein letzter Faktor, dessen nachteilige Auswirkung auf die Validität der Datenlage hier betrachtet werden soll, ist der Inter-Item-Effekt. Mit diesem Effekt, der sein heimliches Wesen in der überwiegenden Mehrzahl der Studien treibt, ist die gegenseitige Beeinflussung verschiedener Variablen innerhalb einer Wortliste gemeint. Ein Beispiel für einen Inter-ItemEffekt ist die Feststellung, daß die Leistung von Versuchspersonen beim Lesen von Listen von Wörtern in Abhängigkeit von der Homogenität bzw. Inhomogenität der Items der jeweiligen Versuchsanordnung differiert. Die signifikanten Konsistenz-Effekte, die Glushko, wie oben erwähnt, erzielt hat, könnten in Abhängigkeit von der vorherigen Präsentation „unfreundlicher Nachbarn" (conflicting neighbor) stehen (vgl. Seidenberg/Waters/Barnes/Tanenhaus, 1984). Diese Zusammenstellung von widrigen Effekten macht ein bestimmendes Problem der Forschung in diesem Bereich deutlich: Je deutlicher die Komplexität der sprachstrukturellen Faktoren erkennbar wird, desto mehr Parameter müssen bei der Konstruktion geeigneter Versuchsanordnungen berücksichtigt werden. Je mehr Parameter beachtet werden müssen, desto schwieriger wird es, eine kontrollierte Reizwortauswahl zu bewerkstelligen. Es scheint zunehmend unmöglich zu sein, alle Parameter zu beachten und dennoch genügend Wörter für eine Versuchsanordnung zu finden. Mit der gebotenen Vorsicht in der Interpretation der - wie gezeigt - überwiegend problematischen Daten soll im folgenden dargestellt werden, welche Beobachtungen an Normallesern die Interpretation der Oberflächendyslexie im Rahmen des Standardmodells belasten, und wie die modifizierte Standardversion sie zu bewältigen versucht. (1) Inkonsistente NichtWörter werden manchmal mit irregulärer Aussprache gelesen (vgl. Glushko, 1979). (2) Die Aussprechlatenz scheint für inkonsistente NichtWörter wie heaf signifikant länger zu sein als für konsistente NichtWörter wie hean (vgl. Parkin, 1983). (3) Die Aussprechlatenz für reguläre inkonsistente Wörter wie leaf scheint länger zu sein als die für reguläre konsistente Wörter wie lean (vgl. Seidenberg/Waters/Barnes/Tanenhaus, 1984). (4) Die Aussprache inkonsistenter NichtWörter wird durch die vorherige Präsentation geeigneter irregulärer Wörter signifikant in Richtung Irregularität verschoben. Diesen Effekt zeigten Kay/Marcel (1981) mit einer Versuchsanordnung, in der z.B. das Nichtwort yead nach der Präsentation von head (als irregulär bias conditiori) in 39% der Fälle [ j e d ] gelesen wird. In der Kontrollbedingung wurde yead nach der Präsentation von shed nur in 10% der Fälle als [ j e d ] gelesen. (5) Die Aussprache, die einem inkonsistenten Nichtwort zugewiesen wird, kann möglicherweise in Richtung Unregelmäßigkeit verschoben werden, indem vorher ein Wort präsentiert wird, das mit einem Wort, welches den unter (4) dargestellten Effekt auslöst, semantisch verwandt ist. Rosson (1983) hat beobachtet, daß nach der Präsentation des Wortes
58 sofa das Nichtwort louch in 89% der Fälle [ l a u t s ] gelesen wurde. Nach feel wurde louch hingegen nur in 75% der Fälle regulär ausgesprochen. (Rosson macht keine Angaben, wie louch ansonsten ausgesprochen wurde - vermutlich [lAt J ] als Reim zu touch). Alle fünf Beobachtungen sind schlecht in die Standardtheorie zu integrieren, weil sie nicht mit der ausschließlichen Anwendung von Graphem-Phonem-Korrespondenz-Regeln zu vereinbaren sind, sondern für den Einfluß lexikalischer und semantischer Prozesse sprechen. 3.2.2 Modifizierte Standardversion Angesichts dieser theoretischen Probleme schlagen Patterson/Morton (1985) einige Modifikationen vor, mit denen die genannten Effekte im Rahmen eines Dual-Route-Modells erklärbar würden. Ihre Modifizierte Standardversion, die eine Nachfahrin des ursprünglichen Logogenmodells (vgl. Mortons frühere Vorschläge 1969, 1979) ist, bietet, wie sie zu zeigen versuchen, Möglichkeiten zur Integration von bisher sperrigen Beobachtungen. Die zentrale Annahme des Dual-Route-Konzepts - separierbare lexikalische und nicht-lexikalische Routen - wird beibehalten, ebenso die These, daß es sich beim oberflächendyslektischen Lesen um eine Störung handelt, die auf bevorzugter Verwendung der nicht-lexialischen Route bei Störung der lexikalischen Routen beruht. Die Modifikationen betreffen die Vorstellungen über die Funktionsweise der nicht-lexikalischen Route. Den Kern der nicht-lexikalischen Route bildet im modifizierten Standardmodell ein System von Regeln, mit deren Hilfe orthographische Ketten in phonologische Ketten umgewandelt werden können. In Colthearts Standardmodell hatten - wie oben dargelegt - die Graphem-Phonem-Korrespondenz-Regeln (G-P-K-Regeln) diese Aufgabe übernommen. Die Modifizierte Standardtheorie ersetzt die GP-K-Regeln durch ein Konstrukt mit dem Namen „orthographisch-phonologisches-Korrespondenz-System". Dieses O-P-K-System unterscheidet sich in zweierlei Hinsicht von Colthearts G-P-K-System. Der erste Unterschied besteht darin, daß das O-P-K-System Einheiten verschiedener Größe zuläßt, und zwar einerseits Grapheme, verstanden als die Buchstaben oder Buchstabenkombinationen, die einem Phonem entsprechen; und andererseits „bodies" als „Vokal plus Endkonsonant in einsilbigen Wörtern". Das O-P-K-System hat demnach „two subsystems, a Coltheartian set of one-to-one mapping rules at the grapheme level and a more complicated set of mapping rules at the body level" (Patterson/Morton, 1985, 342). Beide Subsysteme werden als Zuordnungsregeln im Schriftspracherwerb erlernt, wobei die Repräsentationen des Äoify-Subsystems auf Grundlage der Erfahrung mit Wörtern erworben werden. Den Bezugspunkt für die folgenden Erörterungen bilden wiederum englische Wörter, so daß sich die Annahmen nicht ungefiltert auf andere Sprach- und Schrifitsysteme übertragen lassen. Der Erkenntnisgewinn, der hier unabhängig vom Sprachsystem zu erwarten ist, bezieht sich also in abstrakterer Weise auf das Potential komplexer Vermittlungsprozesse zwischen orthographischen und phonologischen Repräsentationen. Den zweiten wesentlichen Unterschied zwischen der Standardversion und ihrem modifizierten Nachfolger bildet die Annahme, daß zwar für Grapheme eine einfache 1:1 Zuordnung
59 gilt, die Zuordnungsregeln für bodies aber komplexer sind und zuweilen eine „ one-to-several translation " erfordern. Die ersten beiden der oben als für die Standardtheorie schwierig eingestuften Befunde (also die Beobachtung, daß inkonsistente NichtWörter manchmal mit irregulärer Aussprache gelesen werden, und daß Aussprechlatenz für inkonsistente NichtWörter wie heaf signifikant länger zu sein scheint als für konsistente NichtWörter wie hean) sind schon hier bewältigt, denn (1) ein Nichtwort mit ambigen Body (z.B. pove) könnte eine „unregelmäßige" Aussprache erhalten, weil die OPC-Mapping-Rules für diesen Body sowohl die Variante ove = [AV] als auch ove = [ e u v ] bereithalten. (2) unabhängig davon, mit welcher Variante pove ausgesprochen wird: die Latenzzeit ist möglicherweise deshalb länger als die eines konsistenten Nichtwortes (z.B. pote), weil die Wahl zwischen beiden Varianten Zeit kostet. Zur Erklärung der anderen Effekte muß auf irgendeine Form des Zusammenwirkens der nichtlexikalischen mit den lexikalischen Prozessen zurückgegriffen werden. Für das aktuelle Nebeneinander lexikalischer und nicht-lexikalischer Prozesse sind grundsätzlich zwei Varianten denkbar: Konflikt oder Interferenz. Mit der Konflikt-Variante (auf die im Zusammenhang mit der Analogieposition noch zurückzukommen sein wird) ist die Vorstellung verknüpft, daß lexikalische und sublexikalische Prozesse normalerweise gleichzeitig ablaufen und immer dann eine Entscheidungsinstanz beanspruchen, wenn das Resultat beider Verfahren nicht identisch ist. Im Rahmen der Interferenz-Variante, die z.B. von Morton/Patterson (1985) favorisiert wird, werden die phonologischen Codes, die die beiden Prozesse ergeben haben, einem System (dem sogenannten Response-Buffer) zugeleitet, dessen Funktion darin besteht, diesen Code in eine Form umzuwandeln, die für die tatsächliche Produktion erforderlich ist. Wenn dieser Response-Buffer die Codes aus einer der beiden Quellen erhält, beginnt die Transformation, die Zeit beansprucht. Wenn der Response-Buffer keine weiteren Eingänge erhält, wird der transformierte Code produziert. Wird dem Buffer noch ein weiterer Code geliefert, werden beide verglichen (wobei ungewiß ist, ob schon der Vergleich Zeit beansprucht). Besteht Übereinstimmung zwischen eingehenden Codes, dann wird die Transformation fortgesetzt. Wenn sie nicht übereinstimmen, führt dies erstens zu einem Zeitverlust durch die Unterbrechung des Produktionsprozesses und zweitens wird eine Entscheidung (via lexical check) zwischen den Alternativen nötig. Dieser Produktionsprozeß, wie er sich im Licht einer modifizierten Standardtheorie darstellt, kann durch die Erklärung des oben unter (3) als problematisch geschilderten Effekts nochmals deutlich gemacht werden. Dieser Effekt bestand in einem kleinen Latenz-Nachteil regulärer inkonsistenter Wörter (z.B. rove) im Vergleich zu konsistenten Wörtern (z.B. rote). In beiden Fällen würde der lexikalische Code den Response-Buffer erreichen und dort in ein Artikulationsprogramm umgesetzt werden, bevor der zweite, nicht-lexikalisch erzeugte Code eintrifft. In einem gewissen Teil der Fälle würde jedoch dieser zweite O-P-K-Code den Buffer erreichen, bevor die Verarbeitung des lexikalischen Codes abgeschlossen ist. Im Ver-
60 gleich beider Codes für r o t e würde Übereinstimmung festgestellt werden, weil das Ergebnis der orthographisch-phonologischen Kodierung nicht von der lexikalischen Zuordnung abweicht. Im Fall von r o v e würde das body-subsystem des O-P-K-Systems in einigen Fällen den Code [RAV] erzeugen. In jenen Fällen aber, in denen die nicht-lexikalische Routine [ r AV ] erzeugt und diesen Code dem Response-Buffer vorlegt, bevor dieser mit der Umsetzung des lexikalischen Codes fertig ist, würde eine lexikalische Rückversicherung nötig werden, bevor [ r a u v ] produziert werden könnte. Auf diese Weise würde die durchschnittlich geringfügig längere Latenz erklärbar, die Parkin (1984) bei Wortpaaren wie rove und r o t e zwischen dem konsistenten und dem inkonsistenten Teil des Paares festgestellt hat. Zur Erklärung des oben unter (4) dargestellten Effekts verweisen Patterson/Morton auf die Eigentümlichkeiten des Body-Subsystems. Wie aus Abbildung 3.2 (s.o.) zu entnehmen ist, können Wörter (und in analoger Weise auch NichtWörter) nach Typen von Bodies unterschieden werden. Das Body-Subsystem wählt - sofern keine Priming-Effekte interferieren - unter den alternativen phonologischen Repräsentationen „ at random but incurs a time penalty for this selection relative to bodies with a single candidatepronunciation" (1985, 347). In der modifizierten Modellversion kann das G-P-K-Subsystem alle Buchstabenketten mit regulären phonologischen Entsprechungen versehen. Das Body-Subsystem würde hingegen (1) für konsistente sowie für konsistente/häretische Bodies reguläre phonologische Entsprechungen, (2) für Gang-Bodies irreguläre und (3) für ambige Bodies zu gleichen Teilen eine der beiden Alternativen produzieren. Entsprechend würden die phpnologischen Repräsentationen im Fall (1) übereinstimmen, im Fall (2) divergieren und im Fall (3) entweder übereinstimmen oder divergieren. Für die Fälle (2) und (3) wird somit eine Entscheidungsregel erforderlich. Zu fragen ist angesichts der Beobachtungen (4) und (5), wie sich der beobachtbare Einfluß „frischer lexikalischer Erfahrung" mit der These eines separaten, nicht-lexikalischen O-P-KMechanismus vereinbaren läßt. Wie Kay/Marcel (1981, 411) referieren, passen diese Effekte nahtlos in den Rahmen einer Analogietheorie (s.u.), bei der „ all pronunciations, whether addressed directly or assembled by analogy, are obtainedfrom lexical representations ". Im Rahmen eines Modells, das von separaten bzw. separierbaren lexikalischen und nichtlexikalischen Verfahren ausgeht, lassen sich solche Effekte nur dadurch erklären, daß ,, the lexical event engenders a temporary shift in the probability with which alternative non-lexical pronunciations are selected" (Morton/Patterson, 1985, 349). Wie oben dargestellt, wählt das O-P-K-Body-Subsystem in absence of a biasing word nach dem Zufallsprinzip zwischen [ j i d ] und [ j e d ] als möglicher Aussprache für y e a d . Wenn gerade zuvor head gelesen wurde, könnte diese zufallige Wahl bewirken, daß die [ ed]-Variante für jede nachfolgend präsentierte ead-Endung bevorzugt wird, bis das System allmählich wieder zum gewohnten „ lack of preference " zurückkehrt. Der Effekt (5), also Rossons (1983) statistisch signifikanter Nachweis, daß die Vorgabe eines Wortes, das sich semantisch in großer Nähe zu einem der den unter (4) genannten BiasEffekt auslösenden Wörter befindet, die Aussprache des nachfolgend präsentierten Nichtwortes beeinflußt, ist eine ernste Herausforderung an die Modifizierte Standardversion. Dieses Phänomen läßt sich schwerlich mit einem nicht-lexikalischen Lesemechanismus vereinbaren. Wenn dennoch ein Erklärungsversuch unternommen würde, müßte er „[...] involve the logo-
61 genfor touch being affected by the stimulus louch, together with feedback from the cognitive system followingpriorpresentation offeel" (Patterson/Morton, 1985, 353). Mit einer so modifizierten und spezifizierten Vorstellung von der Funktionsweise der nicht-lexikalischen Route sind Beobachtungen zu vereinbaren, die mit der Standardversion nicht erklärbar waren. An dieser Erklärungsvariante kritisieren Vertreter der Analogietheorie die wohl auch dem Leser offensichtlich gewordene große Kompliziertheit, die psychologisch nicht wahrscheinlich sei. Diesen Einwand können Anhänger der Modifizierten Standardversion allerdings mit Verweis auf die ebenfalls komplizierten Analogieprozesse gelassen kontern. Schwerwiegender ist da schon der Verdacht, daß „ the functional independence of the twoprocesses is almost lost" (Kay/Marcel, 1981, 407). Hier zieht sich die Modifizierte Standardversion auf eine Unterscheidung zwischen Separierbarkeit und Unabhängigkeit zurück. Als möglicher Beleg für diese Argumentation läßt sich die Beobachtung von Shallice/ Warrington/McCarthy (1983) werten, deren Patientin H.T.R. beim Lesen von NichtWörtern keinen signifikanten Konsistenz-Effekt zeigte. Hier spielte die Konsistenz, mit der die in den NichtWörtern enthaltenen orthographic patterns in Wörtern ausgesprochen werden, also offenbar - im Gegensatz zu den Beobachtungen an Normallesern - keine Rolle, was sich als Indiz für Separierbarkeit werten läßt. Die Antworten auf die anfangs aufgeworfenen Fragen unterscheiden sich in Folge der Weiterentwicklung der Modellvorstellung von denen der Standardversion. (1) Der Modifizierten Standardversion zufolge ist für die Aussprache geschriebener Nichtwörter die nicht-lexikalische Route bzw. das O-P-K-System aus G-P-K- und Body-Subsystem zuständig. (2) Die Aussprache vertrauter geschriebener Wörter kann aus der Perspektive der Modifizierten Standardtheorie aus dem entsprechenden Lexikoneintrag entnommen werden (über die Verbindung vom visuellen Logogen-System zum semantischen System und weiter zum phonologischen Output-System). Wie oben bereits erörtert, kann die nicht-lexikalische Route aus G-P-K- und Body-Subsystem reguläre Ausspracheversionen für alle Arten von Buchstabenketten produzieren. In der modifizierten Modellversion kann das G-P-KSubsystem wie in Colthearts Konzept für die reguläre Aussprache aller Buchstabenketten sorgen. Darüber hinaus kann die nicht-lexikalische Route über das Body-Subsystem in oben näher bestimmten Umfang auch die richtigen phonologischen Repräsentationen irregulärer Wörter produzieren, weshalb solcherart nicht-lexikalisch auch Wörter gelesen werden können, für die nach Coltheart (1978, 1981) der Einsatz lexikalischer Routen erforderlich wäre. Demnach können vertraute reguläre und irreguläre Wörter grundsätzlich auch über die nicht-lexikalische Route gelesen werden, wobei allerdings die Fehleranfalligkeit irregulärer Wörter größer ist. Mit dieser modifizierten Modellvorstellung lassen sich auch die oben referierten Beobachtungen vereinbaren, denen zufolge sich ein Input- und ein Output-Typ von Oberflächendyslexie unterscheiden lassen. Dem Input-Typ würde - wie in Kapitel 3.1 bereits gemutmaßt - demnach eine Störung im visuellen Input-Logogen-System zugrunde liegen. Der Output-Typ wäre hingegen Resultat einer postsemantischen Aktivierungsstörung der lexikalischen Routen. In
62 beiden Fällen tritt eine Beeinträchtigung der nicht-lexikalischen Route hinzu. Damit ist die Oberflächendyslexie keine „reine" Störung, die sich auf eine einzige funktionelle Ursache zurückführen läßt, sondern ein multikomponentiell verursachtes Phänomen. Die Störungscharakteristika können bei einzelnen Patienten entsprechend stark variieren. 3.2.3 Der Multiple-Levels-Ansatz Die von Shallice (1981, 1988) und Shallice/Warrington (1985) vertretene Multiple-LevelsPosition steht, wie bereits angedeutet, zwischen dem Lager der Dual-Route-Theoretiker und dem der Analogietheoretiker. Schon 1980 hatten Shallice/Warrington vorgeschlagen, daß die für das Funktionieren der nicht-lexikalischen Route relevanten Einheiten nicht auf Grapheme und Phoneme zu beschränken seien. Der Multiple-Levels-Theorie zufolge werden schriftliche Stimuli bei ihrer Verarbeitung durch die phonologische Route multiplen Segmentierungen unterworfen, wobei die präsentierte Buchstabensequenz gleichzeitig nach Graphemen, Subsilben, Silben und Morphemen analysiert wird. Diesen unterschiedlichen Levels der Verarbeitung entsprechen in Abbildung 3.3 (Shallice/McCarthy, 1985, 364) die Kürzel B1 bis B4. Die Multiple-Levels-Position geht somit davon aus, daß phonologische Korrespondenzen für Einheiten unterschiedlicher Größe repräsentiert sind. Schon mit der Annahme von phonologischen Korrespondenzen für Einheiten von subsilbischer und silbischer Größe kann (ähnlich wie bei Patterson/Mortons Body-System) die Kompetenz der nicht-lexikalischen Route auf leicht irreguläre Wörter erweitert werden. In systematisch ähnlicher Weise, wie oben am Beispiel der Modifizierten Standardversion erläutert, kann die von Shallice/Warrington mit größeren Kompetenzen ausgestattete „breite" phonologische Route mit den Beobachtungen vereinbart werden, die in Colthearts Standardversion nicht zu integrieren waren. Auch in dieser Modellvorstellung ist die „breite" phonologische Route für nicht-lexikalische Prozesse zuständig. Das Multiple-Levels-System sieht somit keine lexikalischen Analogieprozesse vor, mit deren Hilfe die plausibelste Aussprachevariante gewählt werden könnte, weshalb (wie in der Modifizierten Standardversion) wiederum ein kompliziertes System von Kontrollmechanismen nötig ist. Außerdem stellt damit Rossons Befund (1983) auch für diese Variante eines Dual-Route-Modells ein Problem dar. Der größte Unterschied zwischen der Multiple-LevelsTheorie und dem Modifizierten Standardmodell betrifft den aus Abbildung 3.3 ablesbaren Verzicht auf eine lexikalisch-phonologische Route. Deren Funktionen werden von der phonologischen Route, die auch Morpheme bewältigen kann, mit übernommen. Auf diesen Aspekt wird in Kapitel 4 im Zusammenhang mit der semantischen Dyslexie ausführlicher zurückzukommen sein. Die Antworten, die sich aus der Multiple-Levels-Theorie auf die zu Anfang dieses Kapitels aufgeworfenen Fragen zum Lesen von Wörtern und NichtWörtern ableiten lassen, unterscheiden sich nur wenig von denen der Modifizierten Standardversion. (1) NichtWörter und unbekannte Wörter fallen in den Zuständigkeitsbereich der „breiten" phonologischen Route. (2) Für das Lesen vertrauter Wörter besteht die Möglichkeit einer direkten Verbindung vom visuellen Wortformsystem zum semantischen System. Bei „Normalbetrieb" der Lesepro-
63 zesse bei geübten Lesern wäre dies der wahrscheinlichste Weg. Grundsätzlich kann jedoch auch die phonologische Route korrekte Lesungen irregulärer Wörter bewerkstelligen. Obwohl die aus der Modifizierten Standardversion und dem Multiple-Levels-Konzept ableitbaren Annahmen über das Lesen von NichtWörtern und Wörtern nicht weit auseinander liegen, unterscheiden sich beide Modelle in ihren Vermutungen über die funktionellen Ursachen der Oberflächendyslexie.
Abbildung 3.3 Den Input-Typ der Oberflächendyslexie hatten Patterson/Morton auf eine Beeinträchtigung im visuellen Input-Logogen-System und eine dadurch bevorzugte Verwendung der nichtlexikalischen Route zurückgeführt. Im Multiple-Levels-Konzept ist die Unversehrtheit des visuellen Wortform-Systems Voraussetzung fur unbeeinträchtigtes lexikalisches und phonologisches Lesen. Wenn eine schwerwiegende Störung das visuelle Wortform-System betrifft (vgl. Abbildung 3.3.) wäre es dem Betroffenen immer noch möglich, zu „lesen": indem
64 er, wie bereits in Kapitel 1 als Charakteristikum der „reinen Alexie" erwähnt, auf die Identifikation einzelner Buchstaben ausweicht. Im Multiple-Levels-Modell steht die Route C fur diese Möglichkeit, bei der die Informationen über die einzelnen Buchstaben bzw. im Fall der gestrichelten Linie die konventionalisierten phonemischen Korrespondenzen der einzelnen Buchstaben sequentiell an das Output-Wortform-System weitergeleitet werden. Die Verwendung dieses sequentiellen Buchstabenidentifikationsprozesses, den man sich als eine Art Umkehrung des Buchstabierens vorstellen kann, macht es dem derart „Lesenden" unmöglich, größere graphematische Einheiten (also Subsilben, Silben und Morpheme) zu erkennen und zu beachten. Das Resultat einer solchen Strategie wäre buchstabierendes Lesen: vergleichbar mit dem Prozeß, mit dem ein normaler Leser versuchen würde, sich die Aussprache eines Wortes zu erschließen, welches man ihm vorbuchstabiert. Die Mühseligkeit eines solchen Vorgehens läßt sich im Selbstversuch leicht nachvollziehen. Dennoch waren die im ersten Kapitel beschriebenen reinen Alektiker zu dieser Leistung recht gut imstande, sofern ihnen die Identifikation der Buchstaben gelang. Sie hatten zumeist keine Schwierigkeiten, das Zielwort zu erkennen, sobald sie die Abfolge der Buchstaben alphabetisch identifiziert hatten. Für die folgenden Überlegungen ist zu berücksichtigen, daß das Schreib- und Buchstabiervermögen im Fall der reinen Alexie unbeeinträchtigt ist. Patterson/Kay (1982) haben Patienten beobachtet, bei denen zum typischen buchstabierenden Leseverhalten eines reinen Alektikers eine weitere Beeinträchtigung hinzutrat. Im Gegensatz zu den klassischen reinen Alektikem buchstabierten diese Patienten die Wörter nicht durch Aneinanderreihung der Buchstabennamen, sondern sprachen sich für jeden Buchstaben die gängige phonologische Entsprechung vor. Sie begingen beim Lesen phonologische orientierte Fehler, die bei den Autoren folgende interessante Assoziation wachrief: The majority of these errors are reminiscent of those made by surface dyslexic patients [...] that is, the response represents a pronunciation of the letter string which, although lexically incorrect, is either phonologically plausible or nearly so. (Patterson/Kay, 1982,430)
Zum Spektrum dieser Fehler gehörten neben Regularisierungen auch die Mißachtung der oben erwähnten rule of e, die Produktion stummer Grapheme sowie Schwierigkeiten mit weichen/ harten Konsonanten und Vokal-Digraphen. Im Rahmen des Multiple-Levels-Konzept läßt sich unter Berücksichtigung der großen Ähnlichkeit von oberflächendyslektischem Leseverhalten und dem von Kay/Patterson beobachteten letter-sound-by-letter-sound-Leseveihalten vermuten: The sounding-out procedure could be based either on explicitly learned associations between letters and their characteristic sounds or on the information that can be passed down a very impaired phonological route. In either case, a considerable amount of guessing based on the known sounds of words would be expected; it is found, as are other aspects of the surface dyslexic error pattern. (Shallice, 1988, 86)
Damit würde ein oberflächendyslektisches Fehlermuster vom Input-Typ entstehen, wenn die Betroffenen beim Lesen auf die Route C ausweichen und sich mit der Zusammensetzung der im Schriftspracherwerb erlernten, konventionalisierten Korrespondenzen fur einzelne Buch-
65 staben behelfen. Alternativ könnte die phonologische Route so gestört sein, daß sie nur noch Einheiten von Graphemgröße (was in Abbildung 3.3 B4 entspricht) verarbeiten kann. Zur Unterstützung dieser Annahme können Beobachtungen von Coltheart/Masterson/ Byng/Prior/Riddoch (1983) herangezogen werden. Die Autoren hatten, wie in Kapitel 3.1 bereits erwähnt, festgestellt, daß das Buchstabiervermögen ihrer Patienten beeinträchtigt war, so daß auch sie außerstande gewesen wären, die Strategie des klassischen Alektikers effektiv anzuwenden. Darüber hinaus berichten sie, daß in ihrem Sinne „oberflächendyslektisch" anmutende Fehler auch auftraten, wenn den Patienten die einzelnen Buchstaben auditiv präsentiert wurden (vgl. die Symptome 7 und 9, Kapitel 3.1.). Ein solcher Effekt wäre mit der von Shallice vertretenen Hypothese vereinbar, daß Oberflächendyslektiker wie J.C. und S.T. in ihrem Leseverhalten reinen Alektikern gleichen, bei denen zusätzlich das Buchstabiervermögen beeinträchtigt ist. Im Hinblick auf die reine Alexie herrscht Einigkeit darüber, daß es sich um eine periphere Störungsform handelt: die Ursache wird in einer Störung der visuellen Wortanalyse gesehen, die den Zugang zum normalen Leseprozeß verhindert. Die Patienten weichen auf eine mühsame und zeitaufwendige Kompensationsstrategie aus. Die Stichwörter „mühsam" und „zeitaufwendig" scheinen sich jedoch auch auf Oberflächendyslektiker zutreffend anwenden zu lassen. In Kapitel 3.1 war beschrieben worden, daß J.C. und S.T. ein Leseverhalten zeigen, das ebenfalls „strategische" Züge trägt. Beide lesen langsam und buchstabierend, und von S.T. wird sogar explizit berichtet, daß er versucht, sich die zu lesenden Wörter vorzubuchstabieren (vgl. Kap. 3.1.). In beiden Fällen wurde jedoch auch berichtet, daß manche Items schneller erkannt werden konnten. Bei solchen Wörtern entfiel das mühsame, strategische Vorgehen, und die dabei auftretenden Fehler wurden von Holmes (1978) als visuell klassifiziert. Da sich die Fehler möglicherweise in Abhängigkeit von der Strategie unterscheiden, könnte man argumentieren, daß die oberflächendyslektischen Fehler immer dann auftreten, wenn die Patienten wegen fehlendem Zugang zu den visuellen Wortformen auf die buchstabierende Strategie ausweichen. Mit Verweis auf die in Kapitel 3.1 ebenfalls bereits erwähnte Patientin R.O.G., der einzigen Oberflächendyslektikerin, deren Latenzdaten zu diesem Zeitpunkt verfügbar waren (durchschnittlicher Zeitbedarf für das Lesen eines einsilbigen Wortes 4,2 sec.), vermutet auch Henderson eine Kompensationsstrategie: The extremely laboured reading characteristic of surface dyslexia [...] does not suggest at all that a mechanism serving normal reading has been revealed as a consequence of selective damage to alternative pathways (Henderson, 1982, 121).
Shallice vermutet, daß Fehler, wie sie in Kapitel 3.1 für den Input-Typ der Oberflächendyslexie dokumentiert wurden, ein Epiphänomen eines letter-sound-by-letter-sound-Lesens sein könnten. Patienten, die dem Output-Typ von Oberflächendyslexie zuzurechnen sind, machen sich in ähnlicher Weise eine kompensatorische Strategie zunutze, um ihre Beeinträchtigung im Zugang zur Output-Phonologie auszugleichen (vgl. Goldblums Patientin B.F., Kapitel 3.1.).
66 Im Gegensatz zu der zu Beginn dieses Kapitels postulierten grundsätzlichen Normalität oberflächendyslektischer Fehler vertritt Shallice (1985, 1988) die Auffassung, daß es sich bei beiden Typen von Oberflächendyslexie um bewußte oder durch die Aufgabenstellung indizierte Strategien handelt. Damit stellt sich also die für die Aussagekraft der Modelle entscheidende Frage, ob man das Leseverhalten dieser Patienten als das Ergebnis isolierter Prozesse sehen kann, die Bestandteil der normalen Informationsverarbeitungsprozesse eines geübten Lesers sind. Möglicherweise ist es naheliegender, die oberflächendyslektischen Symptome als Ergebnis einer Kompensationsstrategie zu sehen, mit der Teilprozesse in einer Weise koordiniert werden, die sich vom üblichen Leseprozeß unterscheidet. Wenn diese Annahme zutrifft, dann würde auch Shallices Befürchtung zutreffen: „ If so, the disorder will probably speak little to theories of normal function" (Shallice, 1988, 86). 3.2.4 Das analogietheoretische Konzept Die bislang vorgestellten Modellversionen haben großen theoretischen Aufwand auf die Modellierung einer nicht-lexikalischen Route verwandt. Im Gegensatz zu diesen Konzepten verzichtet Aas Analogiemodell (z.B. Glushko, 1979; Marcel, 1987; Henderson, 1982) völlig auf die Route, deren bevorzugte Verwendung in den anderen Modellen als Kennzeichen oberflächendyslektischen Lesens galt. Marcels Modell verstand sich bei seinem ersten Erscheinen 1980 explizit als Gegenentwurf zur oben besprochenen Standardversion. Im Gegensatz zu der ursprünglich vertretenen, „übersichtlichen" Auffassung, daß Oberflächendyslektiker keinen lexikalischen Zugriff herstellen und deshalb nach einem regelgeleiteten Verfahren Grapheme in Phoneme umsetzen, vertrat Marcel eine viel komplexere Theorie des Leseprozesses. Ohne zu bestreiten, daß Leser über das Potential verfügen, Regeln zur Ableitung der Aussprache eines unbekannten, schriftlich präsentierten Wortes einzusetzen, gibt er zu bedenken, daß „ the mere fact that our conscious explanation of how we deal with a new word or a non-word is in terms of rules does not mean that that is how we do it" (Marcel, 1987,256). Der aus Abbildung 3.4 (Marcel, 1987, 242) ersichtlichen Auffassung Marcels, daß in Input- und Output-Lexika die phonologischen und orthographischen Versionen bekannter Wörter in segmentierbarer Form repräsentiert sind, stimmen nicht alle Vertreter von Wortverarbeitungsmodellen zu. Dies trifft besonders auf neuere PDP-Modelle zu, die in Kapitel 7 in den Fokus rücken werden. Zunächst soll jedoch Marcels Modell betrachtet werden, das sich bei seiner Entwicklung als Gegenentwurf zur eingangs diskutierten Standardversion des DualRoute-Modells verstand. Soll ein visuell präsentiertes Wort laut gelesen werden, wird es zunächst einem ParsingVorgang unterzogen und dabei als Abfolge einzelner Buchstaben visuell, aber auch konzeptuell analysiert. Das Parsen einer Buchstabenkette umfaßt normalerweise zwei Prozesse, von denen der erste kumulativ und erschöpfend ist. Er besteht in einem simultanen left-to-rightscan, wobei jeder Buchstabe als mögliches Segment registriert wird. As each new letter is encountered it is added to the previous letters and a series of ever larger segments are marked, with the previous bracketings remaining. Thus for „revise" the following segmentations would be
67 yielded (prior to the Operation of the second mechanism): (r)..., ((r)e)..., ..., ((((((r)e)v)i)s)e). (Marcel,
1987,244) Obwohl der erste Buchstabe der Bezugspunkt für die „Klammerung" bzw. Segmentierung der etwa auch Segmente wie (vis) oder Buchstabenkette ist, werden im Beispielwort revise (vise) erkannt, denn sie bleiben übrig, wenn r und e zusammengeklammert bzw. abgespalten sind.
Abbildung 3.4 Der zweite Prozeß, den Marcel auf dem Parsing-Level ansetzt, besteht im Einsatz von im visuellen Inputlexikon enthaltenen morphem-sensitiven Spezifikationen. Anhand der im visuellen Input-Lexikon gespeicherten Einträge kann entschieden werden, ob das gerade vorliegende Wort oder Morphem bekannt ist oder nicht. Wenn ein Eintrag im visuellen Input-Lexikon aktiviert worden ist - durch ein bekanntes Wort oder Morphem - dann wird die Aussprache dieses Wortes durch zwei Prozesse abgerufen, die nicht notwendig beide in Aktion treten müssen. Einer dieser Prozesse besteht in der direkten Aktivierung eines Eintrags im OutputLexikon ( Aural-Oral-Lexicon ). Der zweite Prozeß umfaßt die semantische Spezifizierung, die in Reaktion auf die im visuellen Input-Lexikon eingegangenen Informationen erfolgt. Die Beteiligung des semantischen Systems ist normalerweise Bestandteil des Lesens von Texten und Wörtern und sorgt dafür, daß bei homographen Wörtern die Wahl der Aussprachevariante in Übereinstimmung mit dem Kontext erfolgen kann. Die Repräsentation der Aussprache kann für ein Wort komplett abgerufen werden, sollte aber angesichts der in psycholingu-
68 istischer Forschung zu beobachtenden Blend-Errors (vgl. Garrett, 1984) grundsätzlich segmentierbar sein. Die orthographischen Spezifizierungen, die das Input-Lexikon vornimmt, dienen zwei Funktionen. Wenn ein im Parser aus der Buchstabenkette gelöstes Segment auf eine Entsprechung im Input-Lexikon trifft, dann wird dieses Segment als solches markiert, wobei jedoch die oben dargestellten internen „Klammern" nicht unberücksichtigt bleiben. Im Fall von revise würden also die äußeren Klammern von ((r)e) markiert, denn gebundene Morpheme wie re sind im visuellen Input-Lexikon enthalten. Die Annahme, daß gebundene grammatische Morpheme im Input-Lexikon enthalten sind, wird durch die semantische Funktion dieser Elemente gerechtfertigt - sie müssen daher einen Zugang zur Semantik finden können. Die zweite Funktion lexikalischer Spezifizierungen im Input-Lexikon besteht im Übergehen möglicher Segmentierungen. Im Falle des Wortes real würde beispielsweise das „potential bracketing" von (re) übergangen, weil -al kein Segment ist, das als lexikalischer Eintrag existiert. Auf der Suche nach kritischen Segmenten findet sich fur rea 1 keine weitere Unterteilung. Komplizierter ist der Fall von Wörtern wie relate, ream oder resin, wo sich beim Segmentieren das Morphem re ergibt, ohne das dies lexikalisch besonders sinnvoll wäre. Im Fall von ream fuhrt das sogenannte lexical overriding dazu, daß ea als zusammengehörig erkannt wird, im Fall von resin wäre ein Verschiebung des Betonungsschwerpunktes und Stimmhafitigkeit des s die Folge. Context sensitivity would then consist of three things: (a) the bracketing of segments which correspond to morphemes will be marked (b) later addition of letters can override previous bracketings, and (c) as more satisfactory accounts in terms of morphemes or words are yielded they can override bracketings. (Marcel, 1987, 245).
Dieses Übergehen von möglichen Segmenten ermöglicht die Produktion „irregulärer" oder „inkonsistenter" Wörter, für die lexikalische Einträge aufgerufen werden. Am Ende eines solchen lexikalisch gesteuerten Analogie-Prozesses steht „ the minimum 'satisfactory' number of segments" (1987, 246) und die Aussprache aller bekannter Wörter wird durch Aktivierung der entsprechenden Einträge im phonologischen Lexikon ermöglicht. Hinsichtlich des in Zweifelsfallen erforderlichen Entscheidungsprozesses zwischen den aus kleinen bzw. großen Segmenten bestehenden Versionen ist Marcel nicht sehr explizit. Grundsätzlich ist im Rahmen der Analogietheorie jedoch ebenso wie im Rahmen der Modifizierten Standardversion (vgl. die in Kapitel 3.2.2 umrissene Interferenzposition) eine Entscheidungsregelung erforderlich. Mit der Analogietheorie ist die Vorstellung verknüpft, daß lexikalische und sublexikalische Prozesse normalerweise gleichzeitig ablaufen und immer dann eine Entscheidungsinstanz beanspruchen, wenn das Resultat beider Verfahren nicht identisch ist (vgl. Henderson, 1982). In solchen Zweifelsfällen wird normalerweise die lexikalisch erzeugte Version produziert. Die Verzögerung, die auf diese Weise bei inkonsistenten Wörtern entsteht, erklärt die in 3.2.2 erwähnten Latenz-Daten. Problematisch ist an dieser Vorstellung die Frage, warum beide Versionen jeweils mit einem Herkunftsetikett versehen sein sollten, denn wenn bei der Entscheidung eine Vorfahrtsregelung fur lexikalische Lösungen gilt, dann könnte der lexikalische Kandidat auch sofort produziert werden (vgl. Patter-
69 son/Morton, 1985). Alternativ ist, wie sich aus Marcels Erklärung oberflächendyslektischer Fehler ableiten läßt, auch denkbar, daß im Konfliktfall ein Abgleich mit Einträgen des phonologischen Lexikons erfolgt. Daraus ließe sich die Vorhersage ableiten, daß ein aus sublexikalischen Segmenten „falsch" zusammengesetztes Wort beim Abgleich mit den Einträgen im phonologischen Lexikon zu längeren Latenzzeiten fuhren sollte. Im Falle von NichtWörtern oder unbekannten Wörtern erfolgt die Aussprache als Funktion zweier Faktoren. Zum einen bilden vertraute Buchstabenkombinationen oder Morpheme einen ökonomischen Anhaltspunkt für die Segmentierung (wobei die Konsonant-Vokal-Strukturen vergleichbarer existierender Wörter eine besondere Rolle spielen). Zum anderen richtet sich die Aussprache jedes Segments nach der in der Mehrzahl der Wörter gebräuchlichen Aussprache (und damit nach Konsistenzgesichtspunkten). Da es für NichtWörter keine vollständige lexikalische Spezifizierung gibt, werden die Segmentgrenzen nicht übergangen (im Gegensatz zu Wörtern wie shepherd, wo aufgrund lexikalischer Informationen das Segment ph übergangen würde). Die markierten Segmente aktivieren alle ihnen potentiell entsprechenden phonologischen Repräsentationen, wobei die für das jeweilige Segment häufigste Entsprechung „gewinnt". Dies hat zur Folge, daß NichtWörter in den meisten Fällen „regulär" gelesen werden. Das Fehlen vollständiger lexikalischer Repräsentationen ist zugleich der Grund für die längere Verarbeitungsdauer, die NichtWörter benötigen. Die Antworten der Analogietheorie auf die oben aufgeworfenen Fragen lassen sich im Sinne Marcels knapp zusammenfassen. (1) Für das Lesen von NichtWörtern ist im Rahmen der Analogietheorie kein expliziten Regeln folgendes Konversionsverfahren, sondern ein Analogieprozeß zuständig. Ein Nichtwort aktiviert die Lexikoneinträge von Wörtern und Segmenten, die dem präsentierten Nichtwort bzw. seinen Segmenten orthographisch ähneln. (2) Damit ist das Lesen von NichtWörtern ein Prozeß, der grundsätzlich dieselben Komponenten umfaßt wie sie beim Lesen von vertrauten regulären Wörtern sowie bei irregulären Wörtern beteiligt sind. Für das Auftreten von Oberflächendyslexie sind Marcels Auffassung (1987, 251) zufolge Störungen verschiedener lexikalischer Prozesse verantwortlich. Gestützt auf eine detaillierte Analyse des Fehlerkorpus der ersten Oberflächendyslektiker (wie oben erwähnt, Marshall/ Newcombes Patienten J.C. und S.T.) gelang es ihm, zu zeigen, daß die Fehler nicht so ausfielen, wie es bei einem nicht-lexikalischen Verfahren und ausschließlichem Einsatz von G-P-K-Regeln zu erwarten gewesen wäre. So machte er darauf aufmerksam, daß nur 25% der Fehler, die J.C. und S.T. begingen, zu Nichtwort-Reaktionen führten. Die Patienten tendierten dazu, als Antwort Wörter zu produzieren. Wenn - so argumentiert Marcel (1987) - ihre Fehler das Resultat von (vielleicht sogar fehlerhaften) Graphem-Phonem-Konvertierungen wären, dann bleibt zu fragen, warum NichtWörter nur einen kleinen Teil ihrer Reaktionen ausmachen. Zusätzlich wurden Verben in einigen Fällen nominalisiert, so daß etwa refresh als r e f r e s h m e n t gelesen wurde. Beide Beobachtungen könnte man als Indikator dafür werten, daß bei oberflächendyslektischen Lesern offenbar doch lexikalische Prozesse am Werk sind.
70 Selbst jene Fehllesungen, die durchgehend als Beispiel fur Fehlanwendung von GraphemPhonem-Konvertierungsregeln zitiert werden, lassen sich als Folge von beeinträchtigten lexikalischen Analogieprozessen deuten. Fehllesungen vom Typ increase für incense oder bargain für barge waren von Marshall/Newcombe sowie von Coltheart als Mißachtung der Regel „G und C vor E oder I weich, ansonsten hart" gedeutet worden. Marcel fragt jedoch: But if this was all that was wrong then why was incense not pronounced /inkens/, where did the Irl come from and why did the In/ disappear? Where has the last syllable /en/ come from in barge bargain? (Marcel, 1987, 237)
Solche Fehllesungen werden im Rahmen der Analogietheorie als Produkt der Fehleranfalligkeit von drei sukzessiv ablaufenden Prozessen verstanden: „ (1) context-insensitive left-toright-parsing, (2) the most frequent pronunciation(s) of each segment being retrieved, and (3) modification to make the result acceptable to a phonological lexicon" (1987, 251). Beim Zustandekommen vieler Fehler wirken alle drei Ursachen zusammen. Dennoch lassen sich Beispiele finden, die die vordringliche Beeinträchtigung einzelner Prozesse illustrieren. Ein Störung des visuellen Input-Lexikons kann zur Folge haben, daß die benötigten größeren orthographischen Segmente und besonders die Ganzworteinträge nicht aktivierbar sind. Für den Parsing-Prozeß hat dies zur Folge, daß es keine Anhaltspunkte fur die Nichtbeachtung von Segmentabspaltungen gibt, die den Wortanfang betreffen. Dies zieht nach sich, daß ein e oder i auf ein vorstehendes c oder g keine Auswirkung hat. Aus dem gleichen Grund wird der Einfluß mißachtet, den ein finales e normalerweise auf den vorangehenden Konsonanten hat. Eine weitere Folge kontextfreier Verarbeitung einzelner Segmente ist die Zuweisung eines phonetischen Werts fur eigentlich „stumme" Grapheme. Wenn das Parsing kontext-frei statt kontext-sensitiv verläuft, können falsche Morphemsegmente entstehen (so würde man die Lesung begging für begin als Folge der falschen Segmentierung (beg) + (in) deuten.). Wenn der Parsing-Prozeß abgeschlossen ist, wird den am Ende dieses Prozesses stehenden Segmenten die entsprechende phonologische Repräsentation zugewiesen. Dabei kann es geschehen, daß einem Segment fälschlich die phonologische Repräsentation zugeordnet wird, mit der es am häufigsten auftritt. Thus the hardened c in recent - [ rikent ] is the most frequent rendering of c, when its segmentation is not overridden by (cent) (Marcel, 1987, 251). Bei der vor der lauten Produktion des Wortes erforderlichen Montage der Segmente im Aural-Oral-Lexicon werden möglicherweise Änderungen oder Ergänzungen vorgenommen, damit das Ergebnis für das lückenhafte phonologische Lexikon plausibel wird. Dabei wird für einen Buchstaben oder ein Segment, das mehr als einen phonetischen Wert annehmen kann, eine Entsprechung gewählt, die „Sinn" ergibt (d.h. eine Entsprechung im mutmaßlich defizitären Lexikon des Betroffenen findet). Dies erklärt Fehler vom Typ phase für face oder insist fur insect. Beispiele für Ergänzungen und Auslassungen sind bargain für barge bzw. active fur attractive. Mit der Annahme eines beeinträchtigten Lexikons ist implizit die Vorhersage verknüpft, daß der Wortabruf auch in der Spontansprache oder beim Benennen beeinträchtigt ist. Demnach sollte jeder Oberflächendyslektiker, der derartige Fehler beim lauten Lesen aufweist, auch beim Benennen beeinträchtigt sein.
71 Da Marcel sich den Ablauf der Prozesse zwischen Input und Output als sequentiell vorstellt, ist jede Verarbeitungsstufe auf das Ergebnis des vorangegangenen Prozesses angewiesen. Wenn eine Störung nicht nur den ersten Prozeß (also das Parsing) betrifft, fuhrt dies zu einer Addition von Fehlermöglichkeiten, für deren Zustandekommen sich folglich keine einzelne Ursache mehr ausmachen läßt. Aus Marcels Sicht wäre der Unterschied zwischen Oberflächendyslektikern vom Input- und Output-Typ eher quantitativ als qualitativ. Insgesamt kann sich der Erklärungswert der Analogietheorie mit dem der Modifizierten Standardversion (deren Modifikationen nicht zuletzt durch Einwände von Analogietheoretikern wie Glushko, Marcel und Henderson motiviert wurden) messen. Problematisch für die von Marcel (1987) sowie von Glushko (1979) vorgeschlagene Version eines Analogiemodells ist jedoch die Beobachtung, daß „the procedures for creating the appropriate segments needed to access appropriate analogy words remain as yet underspecified" (Patterson/Morton, 1985, 355). Auch die Prozesse, die bei der Amalgamisierung der einzelnen Segmente ablaufen, werden nicht detailliert beschrieben. Besonders bedenklich scheint jedoch eine „praktische" Überlegung zu sein. Marcel nimmt an, daß beim Parsing-Prozeß jedes denkbare Segment markiert wird. Damit diese Segmente für die folgenden Prozesse zur Verfügung stehen, müssen sie zwischengespeichert werden. Für ein Wort mit sieben Buchstaben müssen bereits 28 Segmente „auf Verdacht" zwischengespeichert werden, auch wenn schließlich das aus sieben Buchstaben bestehende größte Segment als Ganzwortentsprechung alle anderen Segmentierungen aus dem Felde schlägt. Aus praktisch-ökonomischen Gründen scheint diese Annahme als Erklärung für den normalen Leseprozeß wenig befriedigend zu sein (vgl. Shallice, 1988). Während mit der Annahme eines regelgeleiteten Konversionsverfahren für „phonologische" Leseprozesse keine Aussagen über Strukturfaktoren des Lexikons verbunden sein müssen, ist eine Theorie lexikalischer Gliederung für jede Analogietheorie unverzichtbar. Für den Abruf von lexikalischen Informationen weisen Glushko und Marcel den Segmenten am Wortende besondere Bedeutung zu. Infolge dieser Gewichtung ist z.B. das Nichtwort hean in Analogie zu lean regulär. Würde das Anfangssegment betont, wäre es in Analogie zu head irregulär. Wichtig für die Analogietheorie ist das oben bereits erwähnte Konzept der Nachbarn, das einen bedeutenden Parameter lexikalischer Gliederung darstellt (vgl. Abbildung 3.4). Die Bedeutung der Nachbarschaft für das laute Lesen von Wörtern und NichtWörtern ist in Anreicherung früherer Modellvorstellungen auch von Henderson (1982) betont worden. Er nimmt an, daß jeder Buchstabenstrang alle visuell ähnlichen Wörter in einem Maße aktiviert, das in proportionalem Verhältnis zum Grad der Verwandtschaft steht. Jeder Eintrag in einem visuellen Lexikon kann seinerseits die jeweiligen phonologischen Entsprechungen aktivieren. Am Ende dieses Prozesses wird der am stärksten aktivierte Kandidat gewählt. Henderson (1982) schlägt damit eine Lexikonkonzeption vor, die u.a. Glushkos (1979) Erkenntnisse berücksichtigt. Demzufolge werden visuell, orthographisch und phonologisch ähnliche Wörter aktiviert. Auch im deutschen Sprachraum sind Befunde erhoben worden, die für die Beteiligung lexikalischer Analogieprozesse ä la Glushko (1979, vgl. 3.2.1.) am lauten Lesen einzelner Wörter und NichtWörter sprechen. Einen Überblick über entsprechende Studien geben Günther/Greese (1985). So bestätigten Befunde an deutschen Lesern, daß das laute Lesen von Eremiten wie / p r i n z / signifikant mehr Zeit beansprucht als das Lesen von Nicht-
72 Eremiten wie / h a u s / . Dies gilt auch und mit gleichem Zeitunterschied für NichtWörter, so daß / d r e m p f / (ohne Nachbarn) einen größeren Zeitaufwand erfordert als / b a u s / (mit Nachbarn wie / h a u s / , / l a u s / , /maus/ etc.).
3.3 Zusammenfassung Wie sich in Kapitel 3.1 gezeigt hat, war der Konstruktion eines oberflächendyslektischen Symptomkomplexes kein Erfolg beschieden. Es gelang nicht, die verschiedenen, oben diskutierten oberflächendyslektischen Symptome auf eine gemeinsame funktionelle Ursache zurückzufuhren, so daß diese Störung keinesfalls den in Kapitel 2 erörterten Anforderungen an ein psychologically strong Syndrome (Caramazza, 1984) genügt. Vielmehr scheint es sich (bestenfalls) um eine multi-komponentielle Störung zu handeln, die sich in Untertypen fraktionieren läßt, die ihrerseits vor der Abspaltung weiterer Unter-Untertypen nicht gefeit sind (vgl. Kapitel 2). Die Vertreter der Standardversion, der Modifzierten Standardversion und der Analogietheorie sind sich einig in ihren Bemühungen, aus der Symptomatik der Oberflächendyslexie Rückschlüsse auf den normalen Leseprozeß zu ziehen. Deshalb war das Kapitel 3.2 vordringlich mit den Mutmaßungen befaßt, die im Rahmen verschiedener neurolinguistischer Modellvorstellungen über normales und gestörtes „phonologisches" Lesen angestellt wurden. Unter Einbeziehung von an normalen Lesern erhobenen Daten wurden Hypothesen über die funktionale Architektur des für lautes Lesen visuell präsentierter Wörter zuständigen kognitiven Systems angestellt. Die Befunde erlauben jedoch keine endgültige Entscheidung darüber, ob dieser Vorgang bei Oberflächendyslektikern im Sinne der Modifizierten Standardversion auf nicht-lexikalischen Konvertierungsregeln basiert oder sich im Sinne der Analogietheorie auf analoge lexikalische Prozesse stützt. Unabhängig von der Beantwortung der Frage, ob (und in welchem Maße) Oberflächendyslektiker lexikalisch oder nicht-lexikalisch lesen, ist zu erwägen, inwieweit sich aus der Analyse dieser Störung tatsächlich Rückschlüsse über den normalen Leseprozeß ziehen lassen. Der etwa von Henderson (1982) oder Shallice (1988) gehegte Verdacht auf kompensatorische Strategien ist ein konzeptionelles Damoklesschwert für die theoretische Gültigkeit der aus neurolinguistischen Studien an Oberflächendyslektikern stammenden Annahmen über den normalen Leseprozeß. Falls etwa der in 3.2.2 als ohnehin problematisch gekennzeichnete Regularitätseffekt im Leseverhalten oberflächendyslektischer Patienten kompensationsstrategische Ursachen haben sollte, dann könnten daraus keine gültigen Aussagen über die Funktionsweise einer wichtigen Komponente des normalen Leseprozesses abgeleitet werden. Während die Annahme von Kompensationsstrategien die Gültigkeit modellgestützter Hypothesen bedroht (und vielleicht deshalb von vielen Theoretikern gar nicht erst erwogen wird), hätte andererseits auch die Analyse solcher Strategien - so es sie gibt - theoretischen Wert, indem sie die Ableitung diagnostisch und therapeutisch relevanter Erkenntnisse ermöglichen würden.
73 Obwohl sich nicht ausschließen läßt, daß Symptome oberflächendyslektischen Lesens Ausdruck einer Kompensationsstrategie sind, halten die meisten Theoretiker an der Grundannahme essentieller Normalität fest. Nur unter dieser Voraussetzung macht es Sinn, Oberflächendyslexie im Rahmen neuronaler Netzwerkmodelle zu simulieren. Nach dem Entwicklungsstand solcher Simulationsversuche im Falle der Oberflächendyslexie wird in Kapitel 7 zu fragen sein.
4 Semantische Dyslexie Mit Dual-Route-Modellen ist die Annahme verbunden, daß für das laute Lesen einzelner Wörter verschiedene Routen von der orthographischen zur phonologischen Repräsentation zur Verfugung stehen, die unabhängig voneinander störbar sind. Daher ist zu erwarten, daß die besser erhaltene Leistung nicht einfach nur „besser" als die gestörte Leistung ist, sondern daß sie in „normaler" oder annähernd „normaler" Weise möglich ist (vgl. Kapitel 2). Für den Nachweis der Dissoziierbarkeit lexikalischer und nicht-lexikalischer Leseverfahren wäre es erforderlich, zu zeigen, daß z.B. im Falle der Oberflächendyslexie der selektiven Störung lexikalischen Lesens herausragend bessere Leistungen im nicht-lexikalischen Lesen gegenüberstehen. Wie in Kapitel 3.1 geschildert, erfolgt das Lesen bei der Mehrzahl der Patienten jedoch mühsam und ist gemessen an normalen Leseleistungen keineswegs flüssig oder schnell zu nennen. Anhand der dargestellten Beobachtungen konnten die Symptome der Oberflächendyslexie weder auf eine gemeinsame funktionelle Ursache zurückgeführt werden, noch konnte der Verdacht auf Beteiligung einer Kompensationsstrategie ausgeräumt werden. Während das in Kapitel 3 geschilderte Leseverhalten von Patienten mit Oberflächendyslexie nicht in „syndromtechnisch" wünschenswertem Umfang erhaltenes nichtlexikalisches Lesen bei gestörtem lexikalischem Lesen aufweist, haben sich andererseits Patienten gefunden, deren Leseverhalten auf Wortebene flüssiges Lesen mit fehlender semantischer Vermittlung zu kombinieren scheint. Das Störungsbild, das im folgenden diskutiert werden soll, wird Semantische Dyslexie (vgl. z.B. Shallice, 1988) oder Direkte Dyslexie (vgl. z.B. Lytton/Brust, 1989; DeBleser, 1991) genannt. In Kapitel 4.1 erfolgt anhand einiger Einzelfallstudien ein Überblick über die Charakteristik der Störung, deren modelltheoretische Interpretation in Kapitel 4.2 erörtert wird. In Kapitel 4.3 findet sich eine zusammenfassende Einschätzung der Relevanz dieser Störung.
4.1 Charakteristik der Störung Nicht lange nach der Beschreibung der ersten Oberflächendyslexie (Marshall/Newcombe, 1973) machte Warrington (1975) bei der Untersuchung von Alzheimer-Patienten eher beiläufig eine Entdeckung, die für die weitere Dyslexieforschung große Bedeutung hatte. Warrington, deren hauptsächliches Interesse auf die Analyse von Störungen des semantischen Gedächtnisses bei Alzheimer-Patienten gerichtet war, stellte fest, daß ihre Patienten mit etwa normaler Geschwindigkeit lasen, keine Schwierigkeiten mit regelmäßigen Wörtern hatten und zur Regularisierung unregelmäßiger Wörter neigten. NichtWörter konnten nur in einigen Fällen gelesen werden. Hinzu kam fehlendes Verständnis für das Gelesene. Diese Beobachtungen legten die Vermutung nahe, daß es Patienten geben könnte, die eine deutliche Dissoziation zum tiefendyslektischen Störungsbild (vgl. Kapitel 5) aufweisen. Eine Patientin, bei der die Dissoziation zwischen der Fähigkeit zu flüssigem Lesen und fehlendem
75 Sinnverständnis besonders dramatisch war, beschrieben Schwartz/Marin/Saffran (1979) und Schwartz/Saffran/Marin (1987a). Die Patientin W.L.P. (Schwartz/Saffran/Marin, 1987a) war eine 62jährige Frau, die unter progressiver seniler Demenz litt. In ihrer Fähigkeit, gesprochene und geschriebene Sprache zu verstehen oder zu produzieren, war sie sehr eingeschränkt. In einer Aufgabenserie wurden ihr schriftlich einzelne Tiernamen vorgelegt. Ihre Aufgabe war es, der Wortkarte aus einer Serie von vier ausliegenden Bildern das richtige Bild zuzuordnen. Ihre Wahl war völlig zufällig, aber sie war trotzdem in der Lage, die Tiernamen mit wenig Irrtümern richtig laut zu lesen. Bei einer anderen Aufgabenserie erhielt sie einen Stapel von Wortkarten, die jeweils mit einem Tiernamen, einer Farbe oder einem Körperteil beschriftet waren. Sie wurde gebeten, die Wörter laut zu lesen und die Karten ihrer semantischen Kategorie entsprechend in drei Stapel aufzuteilen. Bei geläufigen Wörtern wie horse, red oder finger konnte sie diese Aufgabe recht gut erfüllen, aber bei weniger gebräuchlichen Wörtern wie g i r a f f e , magenta oder china fielen ihre Leistungen deutlich ab. Dennoch konnte sie auch die Wörter, die sie keiner Kategorie zuordnen konnte, gut laut lesen, einschließlich der Wörter mit unregelmäßigen Graphem-Phonem-Korrespondenzen wie leopard, beige und thumb. Bei einem Lesetest konnte sie von 40 Wörtern mit unregelmäßigen Graphem-PhonemKorrespondenzen (z.B. blood, climb, come, sugar, liquor und gone) 29 richtig laut lesen. W.L.P.s semantisches Gedächtnis war offenbar schwer gestört, und ihre Kommentare belegen ihr fehlendes Verständnis für die Wörter, die sie laut lesen konnte: „Hyena ... hyena ... what in the heck is that? " (Schwartz/Saffran/Marin, 1987, 261). Zu den auffallendsten Charakteristika des Leseverhaltens dieser Patientin gehörte ihre erhaltene Fähigkeit, einzelne Wörter flüssig und richtig, jedoch ohne Sinnverständnis zu lesen. In die Literatur ging W.L.P.s Leseverhalten als Beispiel für lexical non-semantic reading (Schwartz/Saffran/Marin, 1987) ein. Auch die Patientin M.P. (Bub/Cancelliere/Kertesz, 1985) konnte hochfrequente unregelmäßige Wörter richtig laut lesen, ohne sie zu verstehen. Wie eingehendere Tests ergaben, ließ ihre Lesegenauigkeit bei unregelmäßigen Wörtern jedoch proportional zur abnehmenden Häufigkeit der Items nach. Im Gegensatz zu diesem Leistungsprofil bei Wörtern mit irregulärer Orthographie konnte sie auch sehr seltene reguläre Wörter mit gleichbleibender Sicherheit lesen. NichtWörter las sie mit wenigen Ausnahmen unter Zuweisung regulärer Korrespondenzen. Dies galt auch für NichtWörter, die durch Austausch eines Buchstabens von existierenden irregulären Wörtern abgeleitet worden sind. Das fehlende Lesesinnverständnis wurde durch vier verschiedene Testverfahren bestätigt. Beim Peabody Test beispielsweise, bei dem u.a. eine Wortkarte einer von vier angebotenen Bildkarten zugeordnet werden mußte, erreichte M.P. ein Leistungsniveau, das dem (auditiven) Wortverständnis eines 2,8 Jahre alten Kindes entsprach. Bei einer Wort-Zuordnungsaufgabe sollte sie zu einem vorgegebenen Wort (z.B. table) das passende Wort aus vier angebotenen Wörtern auswählen. Ihre Leistungen lagen dabei auf dem Zufallsniveau (9/26). Bub/Cancelliere/Kertesz konnten zeigen, daß dies nicht einem mangelnden Verständnis für die Aufgabe zuzuschreiben war, denn die Patientin hatte unmittelbar zuvor die gleiche Aufgabe mit Bildkarten statt Wortkarten gut gelöst. Insgesamt erweckte M.P.s Leseverhalten nicht den Ein-
76 druck, als basiere es auf semantischer Vermittlung. Dennoch schien sie beim lauten Lesen von einzelnen Wörtern Zugang zu lexikalischen Informationen zu haben, denn [...] naming latency was strongly influenced by word frequency, suggesting that a lexically mediated process underlies performance. This supports the interpretation that M.P. processes many written words via direct visual access to a phonological lexicon independently of semantic representation. (Bub/Cancelliere/Kertesz, 1985, 30)
M.P.s gut erhaltene Fähigkeit, hochfrequente irreguläre Wörter schnell und richtig zu lesen, spricht dafür, daß solche Items über eine Verbindung zwischen orthographischen Repräsentationen und lexikalischer Phonologie gelesen werden können. Die Regularisierungsfehler, die sie bei niedrigfrequenten Wörtern mit irregulärer Orthographie beging, deutet auf den Einsatz einer regelgeleiteten nicht-lexikalischen Strategie in Fällen, in denen ihr die lexikalische Vermittlung zwischen geschriebenem Wort und phonologischer Repräsentation nicht zugänglich war. McCarthy/Warrington (1986) berichten von ihrem Patienten K.T. ein Leistungsprofil, das mit dem M.P.s vergleichbar ist. Er wies ein sehr gestörtes Sprachverständnis auf („ He scored below the baseline on both the spoken and the written version of the Peabody test"). Auf die Frage nach der Bedeutung eines Wortes antwortete er stets „ I do not know the word, I can only read" (McCarthy/Warrington, 1986, 363). Er konnte 86% der ihm vorgelegten regulären, 41% der irregulären und 96,5% der NichtWörter lesen. Lytton/Brust (1989) beschreiben G.H., einen 70jährigen Patienten mit Wernicke-Aphasie, der neun Monate nach seiner Aufnahme in die Klinik eine flüssige, inhaltsarme Spontansprache mit Jargon-Anteilen und intakter Prosodie aufwies. Sein Sprachverständnis war, wie in den Fällen der Patienten M.P., K.T. und W.L.P., schwer gestört. Beim Lesen von Wörtern erfolgten seine Antworten in den meisten Fällen rasch und richtig. Beim Lesen einer Liste mit zehn orthographisch komplexen Wörtern (etwa waste und tough) machte er drei Fehler. Sein Verhalten bei NichtWörtern unterschied sich deutlich von M.P.s Umgang mit diesen Items. Von 20 NichtWörtern, die aus je drei Buchstaben bestanden (z.B. f e t und mec), las er nur drei, und auch diese nur mit uncharacteristic hesitation (Lytton/Brust, 1989, 587). Auf die Präsentation von NichtWörtern reagierte er im allgemeinen mit Schweigen und machte nur dann einen Leseversuch, wenn er dazu gedrängt wurde. Dies stand in deutlichem Gegensatz zu seinem Verhalten bei Wörtern, die er prompt und gerne las. Wenn er sich zum Lesen eines Nichtwortes bewegen ließ, verwandelte er es in ein Wort, etwa c a f e für caf. Wurden ihm nach einem Durchgang mit NichtWörtern wieder Wörter vorgelegt, las er diese flüssig. Auch einen kurzen, einfachen Lesetext konnte er rasch und mit wenig Fehlern vorlesen. Der Text lautete: A boy had a dog. The dog ran into the woods. The boy ran after the dog. He wanted the dog to go home. But the dog would not go home. The little boy said, „I cannot go home without my dog". Then the boy began to cry.
77 In einem Fall kommentierte er spontan den Text mit den Worten: He probably wanted the dog to go home (vgl. Lytton/Brust, 1989, 588). Das auffälligste Merkmal des dyslektischen Verhaltens dieses Patienten war seine erhaltene Fähigkeit, orthographisch reguläre wie irreguläre Wörter zu lesen, während er keine NichtWörter lesen konnte und in seinem Lesesinnverständnis auf Wortebene sehr stark eingeschränkt war. Er konnte Wortkarten mit einzelnen Wörtern nicht richtig den entsprechenden Bildkarten zuordnen. Er wies keinen Wortarteffekt auf und beging nur sehr wenig morphologische Fehler. Die Wörter, die er nicht lesen konnte, waren wenig gebräuchlich und gehörten möglicherweise nicht zu seinem prämorbiden Wortschatz (z.B. i r e oder c o y ) . Diese schwerwiegende Lesestörung gilt als bislang „reinster" Fall einer semantischen Dyslexie. Das gemeinsame Charakteristikum im Leseverhalten aller vorstehend aufgeführten Patienten ist die Kombination von flüssigem Lesen einzelner Wörter und fehlendem Sinnverständnis. NichtWörter können - zumindest im Fall von G.H. - nur sehr eingeschränkt gelesen werden und werden lexikalisiert. Im Gegensatz dazu konnte K.T. NichtWörter ohne Schwierigkeiten lesen. Der Grad der Unregelmäßigkeit von Wörtern scheint auf G.H.s und W.L.P.s Leseleistung keinen Einfluß zu haben, während M.P.s und K.T.s Leistungen bei niedrigfrequenten irregulären Wörtern deutlich abfallen. Mit Ausnahme von G.H. traten bei allen Patienten Regularisierungsfehler beim Lesen von irregulären Wörtern auf. Die Diskussion um Charakteristik und funktionelle Ätiologie der semantischen Dyslexie basiert im wesentlichen auf den erwähnten Fallstudien. Zu erwähnen sind nur noch zwei weitere nicht-semantische Leser bzw. semantische Dyslektiker: H.T.R. (Shallice/Warrington/McCarthy, 1983) und E.M. (Warrington, 1975).
4.2 Neurolinguistische Interpretationen des Störungsmusters
4.2.1 Die Standardversion Bei der Auseinandersetzung mit der Oberflächendyslexie war im vorangegangenen Kapitel diskutiert worden, daß die Regelmäßigkeit der Graphem-Phonem-Korrespondenzen ein wichtiger Aspekt der Interpretation nicht-lexikalischen Lesens einzelner Wörter ist. In Untersuchungen an Oberflächendyslektikern hatte sich ein Regularitätseffekt herauskristallisiert, der als wichtiges Kriterium des nicht-lexikalischen Lesens über Graphem-Phonem-Korrespondenzen gewertet worden war. Coltheart/Curtis/Atkins/Haller (1993) zitieren M.P. und K.T. als besonders reine Fälle von Oberflächendyslexie. Die Ursache ihrer Störung wird entsprechend in einer funktionellen Beeinträchtigung des visuellen Eingangslexikons gesehen, die den Zugang zu lexikalischen Repräsentationen unmöglich macht. Für diesen Erklärungsansatz ist jedoch problematisch, daß die Leistungen dieser Patienten im lauten Lesen einzelner Wörter ihren Leistungen im Lesesinnverständnis offenbar deutlich überlegen sind. Eine Störung im visuellen Zugang zu lexikalischer Verarbeitung erklärt nicht das weitgehend eingeschränkte auditive Sprachverständnis, welches das Leseverhalten eher als erhaltene Leistung im Rahmen
78 einer sehr schwerwiegenden allgemeinen Sprachstörung erscheinen läßt. Im Vordergrund steht bei den Patienten M.P. und K.T. offensichtlich eine Beeinträchtigung des Sinnverständnisses. Allerdings könnte mit der Annahme einer primären semantischen Störung die These einer sekundären Beeinträchtigung der visuellen Morphemanalyse verknüpft werden, um so zu erklären, warum die Patienten manche Wörter und NichtWörter nicht laut lesen können. Während also eine Störung im Zugang zur Semantik das fehlende Lesesinnverständnis verursachen könnte, würde eine Störung der visuellen Morphemanalyse erklären, warum Patienten wie M.P. manche Wörter nicht laut lesen können. Diese Deutung hält jedoch einer genaueren Betrachtung nicht stand. Im Falle von M.P. haben Bub/Cancelliere/Kertesz (1985) mit einer eleganten Versuchsanordnung nachgewiesen, daß die Fähigkeit ihrer Patientin zu visueller Morphemanalyse keiner nennenswerten Beeinträchtigung unterliegt. Dazu wurden Wörter mit unregelmäßigen Graphem-Phonem-Korrespondenzen, die M.P. nicht richtig lesen konnte (z.B. leopoard), zusammen mit Stimuli vorgelegt, die durch den Austausch des ersten Buchstabens von einem unregelmäßigen Wort (z.B. subtle) in ein Nichtwort ( r u b t l e ) verwandelt worden waren. Im Rahmen dieser Versuchsanordnung war M.P. in über 80% der Fälle in der Lage, richtig zu entscheiden, ob ein Wort vorlag. Daraus läßt sich folgern, daß keine besondere Beeinträchtigung in der visuellen Morphemanalyse vorlag. In ähnlicher Weise konnten McCarthy/Warrington (1986) zeigen, daß ihr Patient K.T., der im Gegensatz zu G.H. Nichtwörter ohne Beeinträchtigung lesen konnte, keine Einschränkung der visuellen Morphemanalyse aufwies. Er konnte drei Wörter, die ohne Leerstellen hintereinander gedruckt waren (z.B. picturesunpotatö), abschreiben und dabei die Leerstellen einfügen. Damit scheint die Einstufung dieser Patienten als besonders „reine" Oberflächendyslektiker fragwürdig zu sein. 4.2.2 Modifizierte Standardversion Das vieldiskutierte Leistungsprofil der Patientin W.L.P. stellte die Wissenschaftler der DualRoute-Fraktion vor theoretische Probleme. Im Rahmen von Dual-Route-Modellen war die Hypothese vertreten worden, daß für das sichere Lesen orthographisch unregelmäßiger Wörter ein lexikalisches Vorgehen erforderlich ist. Lexikalisches Lesen hingegen hatte in frühen Konzeptionen stets zugleich eine Beteiligung semantischer Strategien impliziert. Das Lesen von orthographisch irregulären Wörtern kann bei Patienten wie W.L.P. jedoch nicht semantisch vermittelt sein, da es ohne Sinnverständnis erfolgt. The response of researchers who favour a phonological reading routine that operates on grapheme-phoneme correspondences and/or subsyllable correspondences is not to concede that the routine may have a broader base, but to assume that there is more than one phonological reading system. A lexical phonological routine, which deals with lexical and morphemic representations, is added to the non-lexical one, so that, within this scheme, there are three reading routes rather than two. (Kay, 1993, 256)
Wenn drei Leseverfahren - ein lexikalisch-semantisches, ein lexikalisch-phonologisches und ein nicht-lexikalisches - angenommen werden, stellt sich die Frage nach dem Zuständigkeitsbereich dieser drei Verfahren. Mit der Annahme dreier Leseverfahren ist implizit eine Dicho-
79 tomie der Regularitätsvariable verknüpft, d.h. Wörter haben entweder regelmäßige GraphemPhonem-Korrespondenzen und können daher über das G-P-K-Verfahren gelesen werden, oder sie haben unregelmäßige Graphem-Phonem-Korrespondenzen und können also nicht auf diesem Wege gelesen werden. Diese „Alles-oder-Nichts" Unterscheidung zwischen regelmäßigen und unregelmäßigen Graphem-Phonem-Korrespondenzen wird - wie in Kapitel 3.3 diskutiert - der psychologischen Realität nicht gerecht. Tatsächlich scheint es ein RegularitätsIrregularitäts-Kontinuum mit eher fließenden Übergang von Wörtern mit regelmäßigen Graphem-Phonem-Korrespondenzen über Wörter mit leicht unregelmäßigen GraphemPhonem-Korrespondenzen bis hin zu Wörtern mit sehr unregelmäßigen Graphem-PhonemKorrespondenzen zu geben. In einer Modifikation des Standardmodells war daher der Graphem-Phonem-Konvertierung ein Body-Subsystem an die Seite gestellt worden. Die solcherart aufgerüstete nicht-lexikalische Route kann mit einiger Wahrscheinlichkeit auch fur die Produktion leicht unregelmäßiger Wörter sorgen. Das Leseverhalten, das die Patientin W.L.P. im Umgang mit orthographisch sehr irregulären Wörtern zeigte, sowie das Leistungsprofil von G.H. sind auch mit der erweiterten Verarbeitungskapazität einer nicht-lexikalischen Route nicht zu vereinbaren. Die zusätzlich postulierte lexikalisch-phonologische Route übernimmt in der Vorstellung der solcherart erweiterten Dual-Route-Modelle die Umsetzung sehr unregelmäßiger Wörter auf folgende Weise: „After categorization in the visual input logogen system, information is sent directly to the output system where the appropriate phonological code is produced" (Morton/ Patterson, 1987a, 94). Das Lesen bei semantischer Dyslexie basiert demnach auf der Verwendung einer direkten, lexikalisch-phonologischen Route. Den Erwartungen, die an die isolierte Verwendung eines solchen Leseverfahrens gebunden sind, entspricht der oben beschriebene Patient G.H. Sein Leseverhalten kombinierte fehlendes Sinnverständnis (bedingt durch den Ausfall der lexikalisch-semantischen Route) mit der Unfähigkeit, NichtWörter zu lesen (bedingt durch den Ausfall der nicht-lexikalischen Route). Our patient is the first to fit the model of direct dyslexia as predicted by Newcombe and Marshall, and his retained ability to read real words aloud offers further evidence of direct, semantically independent „wordspecific print-to-sound associations." (Lytton/Brust, 1989, 590)
Diese Beobachtung bestätigt mithin nicht nur modelltheoretische Annahmen, sondern auch Colthearts Diktum, daß man für die Bestätigung neurolinguistischer Hypothesen immer [ p a s h e n t z ] (patience and patients) braucht. 4.2.3 Der Multiple-Levels-Ansatz Während die meisten Vertreter von Dual-Route-Modellen ihre Modellvorstellung zur Integration der in 4.1 geschilderten Beobachtungen um einen dritten, lexikalisch-phonologischen Weg vom schriftlich präsentierten zum laut gelesenen Wort erweitert haben, unternehmen Shallice/Warrington (1987) und Shallice (1988) den Versuch, den neuen Beobachtungen gerecht zu werden, indem sie der ursprünglichen Graphem-Phonem-Route erweiterte Kompetenzen zuschreiben.
80 Die Multiple-Levels-Hypothese, die Shallice/McCarthy (1985) und Shallice/Warrington (1987) aufstellten, knüpft an die Befunde im Zusammenhang mit dem Irregularitäts- und Worthäufigkeits-Effekt an. Die Autoren vermuteten, daß es neben der semantischen Route eine „breite" phonologische Route gibt: In our view a preferable position is to assume that only two routes are required but that phonological recoding does not just operate on graphemes, but also on larger visual units including syllables and short words. (Shallice/Warrington, 1987,123).
Die „short words" wurden allerdings später mit dem Eingeständnis zurückgenommen, daß diese Annahme nicht hinreichend theoriegeleitet gewesen sei. Der veränderten Fassung zufolge „Correspondences were held to be available at the graphemic, subsyllabic (e.g. the rhyme), syllabic and morphemic levels" (Shallice, 1988, 95, vgl. auch Kapitel 3.3). Für das Lesen „leicht unregelmäßiger Wörter" würden der Vorstellung von Shallice und McCarthy zufolge subsilbische oder silbische Korrespondenzen ausreichen, während für sehr unregelmäßige Wörter morphemische Korrespondenzen erforderlich wären. Im Hinblick auf das Störungsbild der semantischen Dyslexie wurde angenommen, daß „correspondences based on larger units are more vulnerable than those based on smaller units" (Shallice, 1988, 95) Ein progressives Leiden, wie es im Fall von W.L.P. (Schwartz/Saffran/Marin, 1987a) vorlag, würde die Größe der Korrespondenzen, die der Patientin zur Verfügung stehen, zunehmend beschränken. Dieser Annahme entsprechen die Befunde, die bei einer späteren Untersuchung erhoben wurden. Wie Shallice/Warrington/McCarthy (1983) berichten, nahmen W.L.P.s Leistungen im Umgang mit orthographisch regulären sowie irregulären Wörtern mit Fortschreiten ihrer Krankheit ab. Gegen die These, daß größere Korrespondenzeinheiten wie Morpheme störungsanfalliger seien, spricht die Entdeckung des bereits erwähnten Patienten G.H., dessen Schwierigkeiten mit NichtWörtern im Rahmen der Multiple-Levels-Hypothese als Beeinträchtigung im Umgang mit kleinen Einheiten von Graphemgröße zu deuten wäre. Dennoch kann er offenbar noch Einheiten von Morphemgröße verarbeiten. Mit der Annahme, daß phonologisches Rekodieren in multiple levels organisiert ist, läßt sich jedoch eine Beobachtung an H.T.R. (Shallice/Warrington/McCarthy, 1983) vereinbaren. Dabei wurde im Sinne Glushkos (1979) zwischen konsistenten (bzw. typischen) und inkonsistenten (bzw. untypischen) irregulären Wörtern unterschieden (vgl. Kapitel 3.3). In some words - those with „typically irregular" pronunciations - the spelling pattern was most commonly pronounced with the minor correspondence (e.g. -ead in tread, compare with bread, dread). In others atypically irregular words - the spelling pattern normally took the major correspondence (e.g. owl in bowl, consider fowl, owl). (Shallice, 1988, 95)
Der erstgenannte Typ konnte deutlich häufiger richtig gelesen werden als der letztgenannte. Dieser Effekt wird im Sinne der Multiple-Levels Position als Beleg dafür gewertet, daß Einheiten unterschiedlicher Größe an der phonologischen Rekodierung schriftlicher Stimuli beteiligt sind. Die Aussprache der konsistenten irregulären Wörter kann auf subsilbischer
81 Ebene richtig erschlossen werden. Für die inkonsistenten irregulären Wörter kann die richtige Aussprache nur durch die Verarbeitung von Einheiten in Silben- oder Morphemgröße produziert werden. Auch Venezkys (1979) Unterscheidung zwischen regelmäßigen, leicht unregelmäßigen und sehr unregelmäßigen Wörtern übertrugen Shallice/Warrington/McCarthy (1983) und McCarthy/Warrington (1986) auf die Untersuchung von semantischen Dyslektikem. Unter Berücksichtigung der Worthäufigkeit haben sie H.T.R. (Shallice/Warrington/McCarthy, 1983) und K.T. (McCarthy/Warrington, 1986) Wörter aus den drei Kategorien Venezkys vorgelegt. Die Leistungen waren bei Wörtern mit regelmäßigen Graphem-Phonem-Korrespondenzen am besten und bei sehr unregelmäßigen Wörtern am schlechtesten. Die Leistungen bei Wörtern mit leichter Unregelmäßigkeit lagen dazwischen. Auch diese Befunde lassen sich als Argumente für eine breite phonologische Route werten. Die funktionelle Ursache der semantischen Dyslexie liegt demnach darin ,, that the patients, in addition to a semantic deficit, have a loss of certain spelling-to-sound correspondences" (Shallice, 1988, 91). 4.2.4 Das analogietheoretische Konzept In Widerspruch zu Erklärungsbemühungen, die auf einer Dichotomie von lexikalischen und nicht-lexikalischen Leserouten basieren, steht die lexikalische Analogie-Theorie. Im Rahmen dieser u.a. von Marcel (1987) vertretenen Theorie wird - wie in Kapitel 3 bereits diskutiert angenommen, daß die Ableitung der phonologischen Repräsentation eines geschriebenen regelmäßigen oder unregelmäßigen Wortes stets über lexikalische Analogieprozesse erfolgt. Im Gegensatz zu den in Kapitel 3.1 beschriebenen Patienten weisen die hier beschriebenen Patienten mit Ausnahme G.H.s keine ausgeprägte Lexikalisierungs-Tendenz auf und begehen darüber hinaus zahlreiche Regularisierungsfehler. Entsprechend stellen solche Patienten ein theoretisches Problem für diese Modellversion dar. Allerdings enthält Marcels Modellvorstellung keine explizite Erklärung der Charakteristik der semantischen Dyslexie. Kay/Marcel (1981) haben an Versuchspersonen ohne hirnorganische Beeinträchtigungen gezeigt, daß die Präsentation eines irregulären Wortes das analoge Lesen eines anschließend dargebotenen ähnlichen Nichtwortes bahnt. Diesen sogenannten Priming-Effekt konnten McCarthy/Warrington (1986) bei ihrem semantisch-dyslektischen Patienten K.T. nicht finden. Er konnte zwar das irreguläre Wort richtig lesen, aber las das danach präsentierte Nichtwort nicht in Analogie dazu, sondern regularisierte es. Diese und andere Regularisierungen werden von McCarthy/Warrington als Indiz für einen nicht-lexikalischen Konvertierungsprozeß gewertet. Lesen ohne Sinnverständnis ist mit den Vorhersagen des lexikalischen Analogiemodells grundsätzlich vereinbar (vgl. Marcel, 1987, 244). Eine Beeinträchtigung der Semantic Descriptions (vgl. Abbildung 3.4) erklärt jedoch nicht, warum ein Patient wie G.H. keine NichtWörter lesen kann. Eine zusätzliche Beeinträchtigung im visuellen Input-Lexikon hatte sich für die Erklärung oberflächendyslektischer Fehler (vgl. 3.2.4) heranziehen lassen. Die Übertragung dieser Interpretation auf die semantische Dyslexie würde im Rahmen dieses Modells keine qualitative Unterscheidung zwischen beiden Dyslexieformen zulassen.
82
4.3 Zusammenfassung Auch die semantische Dyslexie läßt sich nicht als starker Symptom-Komplex auf eine funktionelle Ursache zurückführen. Vielmehr besteht das Faszinosum dieser Störung in den isolierten Leistungen, die bei schwersten Sprachstörungen erhalten sind. Aus diesem Grund schlagen Lytton/Brust vor, daß semantische Dyslexie „ may be best described as a 'lexia', a standing relic among extensive ruins" (1989, 592). Offensichtlich gibt es verschiedene Möglichkeiten, das Lesen ohne Semantik im Rahmen der bestehenden Modelle zu erklären. Während sowohl die erweiterte Standardversion als auch das Multiple-Levels-Konzept einen Großteil der Beobachtungen interpretieren konnten, war das lexikalische Analogie-Modell in der in Kapitel 4.2.4 zitierten Fassung weniger erfolgreich. Die neue Modellgeneration, die Thema von Kapitel 7 sein wird, hat sich der semantischen Dyslexie bislang noch nicht angenommen, was seine Ursache darin hat, daß beim derzeitigen Entwicklungsstand der Modelle nur Teilaspekte normaler und gestörter Lesefähigkeit auf Wortebene simulierbar sind. Grundsätzlich könnten jedoch entsprechend fortgeschrittene Netzwerk-Modelle eine neue Perspektive in der Betrachtung semantischer Dyslexien bieten: Instead of looking at the deficits that result when a single module is removed, one observes the residual function of which a network is capable after particular areas have been damaged. (Lytton/Brust, 1989, 592).
5 Tiefendyslexie Die Tiefendyslexie ist die zweite theoretisch bedeutende Lesestörung, die von Marshall/Newcombe (1966, 1973) erstmals im Rahmen eines neurolinguistischen Modells beschrieben wurde. Als Gegenbild zur Oberflächendyslexie nannten sie dieses Störungsbild Tiefendyslexie, weil die Störung im Vergleich zu den in Kapitel 1 geschilderten klassischen Formen von Dyslexie eher „tief im semantischen System angesiedelt zu sein schien. Ursprünglich wurde die Tiefendyslexie als homogene Störung gesehen, die das Lesen via semantischer Vermittlung bei gestörter Graphem-Phonem-Konvertierung reflektiert. Die eigenartige Symptomatik dieser Störung hat viele Wissenschaftler fasziniert, so daß schon 1980 eine umfangreiche Aufsatzsammlung {Deep Dyslexia, Coltheart/Patterson/Marshall) zu diesem Thema erschien. Vor einer Auseinandersetzung mit den Ursachen der Tiefendyslexie soll in Kapitel 5.1 zunächst der Versuch unternommen werden, einen Überblick über die nicht unumstrittene Charakteristik dieser Lesestörung zu vermitteln. Daran anschließend dokumentiert Kapitel 5.2 die Versuche, diese Charakteristika in verschiedene Modellvorstellungen zu integrieren. Am Ende der Auseinandersetzung mit dieser Dyslexieform steht wiederum eine Zusammenfassung (Kapitel 5.3).
5.1 Charakteristik der Störung Für die Untersuchung der neuentdeckten Lesestörung verwandten Marshall/Newcombe (1966/1973) ein Corpus von 2000 einzelnen Wörtern. Die Leseleistung ihres Patienten G.R. beeindruckte durch zwei Phänomene: durch die Eigenart der Lesefehler und durch die Abhängigkeit dieser Fehler von Wortart und Konkretheit des Stimulus. Zu den besonderen Eigentümlichkeiten im Leseverhalten des ersten sogenannten Tiefendyslektikers G.R. (Marshall/Newcombe 1973, 1987) gehörten semantische Fehler. So las er etwa das Wort dinner als f ood und das Wort close als s h u t . Ein weiterer Fehlertyp, der beobachtet werden konnte, betraf die Morphologie. Beispielsweise wurde wise als wisdom und truth als t r u e gelesen. Bei anderen Fehllesungen fiel die visuelle Ähnlichkeit zwischen Stimulus und Reaktion ins Auge, so im Fall von s t o c k für shock oder bei c r o c u s für crocodile. Darüber hinaus fiel Marshall/Newcombe auf, daß die Wahrscheinlichkeit dafür, daß G.R. ein Wort richtig lesen konnte, offenbar von der syntaktischen Klasse des Wortes abhing. Dieser sogenannte Wortarteffekt fand bei G.R. seinen Ausdruck darin, daß er 46% der Substantive, aber nur 16% der Adjektive und 6% der Verben richtig lesen konnte. Damit konnte für den Wortarteffekt bei Inhaltswörtern eine Rangfolge von Substantiven über Adjektive bis zu Verben aufgestellt werden. Das Lesen von Funktionswörtern fiel G.R. offenbar noch deutlich schwerer. Von den im Corpus enthaltenen 54 Funktionswörtern (der geschlossenen Klasse wie
84 Präpositionen u. Pronomen) konnte er nur zwei richtig lesen: I und and. Zu den Fehllesungen, die G.R. bei den von ihm sogenannten „little words" produzierte, gehörte h i s fur she. Neben dem Wortarteffekt - oder in Verbindung mit ihm - fiel auch ein Konkretheitseffekt auf, d.h. der Patient konnte konkrete Wörter besser lesen als abstrakte. Den semantischen Fehlern maßen Marshall/Newcombe besondere theoretische Bedeutung bei, denn sie waren ein starkes Argument für die Existenz eines semantischen Leseverfahrens, das ersten Interpretationen zufolge im Falle der Tiefendyslexie völlig unabhängig von phonologischen Einflüssen funktionierte. Darauf wird noch ausfuhrlicher zurückzukommen sein. Einen vergleichenden Überblick über 22 Einzelfallstudien an Tiefendyslektikem gab Coltheart (1987, Erstveröffentlichung 1980). Er analysierte die Studien im Hinblick auf die Symptome, die zusammen mit dem Schlüsselsymptom des semantischen Fehlers auftreten und kam zu dem Ergebnis, daß das Auftreten semantischer Verlesungen das Auftreten von elf weiteren Symptomen garantiert (zum Konzept des Symptom-Komplex vgl. Kap. 2). (1) Semantic errors (2) Visual errors (3) Function-word substitutions (4) Derivational errors (5) Non-lexical derivation ofphonology from print impossible (6) Lexical derivation ofphonology from print impaired (7) Low-imageability words harder to read aloud than high-imageability words (8) Verbs harder to read than adjectives which are harder than nouns in reading aloud (9) Function words harder than content words in reading aloud (10) Writing, spontaneously or to dictation, is impaired (11)Auditory-verbal short-term memory is impaired (12) Whether a word can be read aloud at all depends on its context. Diese von Coltheart (1987a, 42f) ursprünglich dem Symptom-Komplex zugerechneten Symptome sind hier nicht zuletzt deshalb vollständig aufgeführt worden, um einen Eindruck von den großen Hoffnungen zu vermitteln, die an die Homogenität und Komplexität des Störungsmusters geknüpft waren. Tiefendyslexie schien f...] unique amongst neurolinguistic syndromes. No other neurolinguistic syndrome has been characterized in such detail; nor can it be said of any other syndrome: „All and only those patients displaying symptom X| represent instances of this syndrome; in addition, these patients will also always display symptoms X2, X3, ...X„u. (Coltheart, 1987a, 43)
Anzumerken ist jedoch, daß die Symptome (5) und (6) nicht im gebräuchlichen Sinne Symptome (Merkmale), sondern schon Interpretationen der Störungsursache sind. Die Symptome (5) und (6), die Coltheart als Unfähigkeit zur Ableitung nicht-lexikalischer und lexikalischer Phonologie aus der Schrift interpretierte, finden ihren Ausdruck in der Unfähigkeit, Nichtwörter zu lesen, die den phonotaktischen Regeln der (in diesem Falle) englischen Sprache entsprechen. Weiterer Ausdruck derselben Beeinträchtigung sind nach Coltheart die Unfähigkeit,
85 anhand schriftlicher Stimuli über das Vorliegen von Reimen zu urteilen (ausgenommen sind visuelle Urteile), sowie das Fehlen eines Pseudohomophoneffekts. Im Falle der sechs berücksichtigten japanischen Dyslektiker sollen Colthearts Symptome (5) und (6) ihren Ausdruck in schlechteren Leistungen mit Kana- im Vergleich zu Kanji-Schrifitzeichen finden. Zum Pseudohomophoneffekt, dessen Ausbleiben Coltheart hier (1987a) als Indiz für die Störung phonologisch-lexikalischen Zugriffs deutet, sind einige Anmerkungen erforderlich. Der Pseudohomophoneffekt (vgl. Kap. 3) besteht darin, daß Normalleser in lexikalischen Entscheidungsexperimenten bei Pseudohomophonen längere Nein-Latenzen aufweisen als bei nicht homophonen NichtWörtern. Obwohl das Auftreten eines Pseudohomophoneffekts seit Rubenstein/Lewis/Rubenstein (1971) wiederholt - u.a. auch für die deutsche Sprache (vgl. Scheerer, 1986) - nachgewiesen werden konnte, besteht über die Deutung dieses Effekts keine Einigkeit, zumal die Befunde Widersprüchlichkeiten enthalten (vgl. Gfroerer/Günther/Weiss, 1984). Darüber hinaus liegen nur für sieben von 22 Patienten überhaupt Informationen zu diesem Punkt vor, und in fünf von diesen sieben Fällen basieren diese Informationen nicht auf der jeweiligen Studie, sondern auf „persönlicher Kommunikation" mit den Verfassern. Zusätzliche Kritik übte Henderson (1981) am Einbezug von (zudem noch unvollständigen) Daten zum Leseverhalten japanischer Patienten. Bei ihnen stützte Coltheart seine Diagnose einer „inability to derive phonology front print" nur auf die Information, daß sie KanaSchriftzeichen schlechter lesen konnten als Kanji-Schrifitzeichen. Bei der Deutung dieser Beobachtung sind zwei Faktoren zu bedenken. Der Vergleich von Leistungen beim Lesen von Kana- und Kanji-Schrifitzeichen wird grundsätzlich von den unterschiedlichen Funktionen zweier nebeneinander verwendeter Schriftsysteme überlagert. Die Kana-Schrifitzeichen bilden das Inventar eines Silbenalphabets, welches in der japanischen Schriftsprache vornehmlich der Verschrifitung von Funktionswörtern dient. Mit den logographischen Kanji-Schrifitzeichen werden Inhaltswörter geschrieben. Differenziertere Untersuchungen an japanischen Lesern haben gezeigt, daß eine schlichte Zweiteilung zwischen phonologisch zu lesenden Kana-Zeichen und nicht-phonologisch, sondern nur „direkt" semantisch zu lesenden Kanji-Zeichen, entschieden zu kurz greift (vgl. Graap, 1993). Zusätzlich kann bei den zitierten japanischen Patienten nicht - wie Coltheart impliziert von einer völligen Unfähigkeit zum Lesen von Kana-Schriftzeichen die Rede sein, da beispielsweise einer der Patienten die mit Kana-Schriftzeichen geschriebenen Wörter immerhin zu 50% lesen konnte (vgl. Sasanuma, 1987, 58). Auch ohne Spitzfindigkeit lassen sich in Colthearts Überblick noch weitere Punkte finden, an denen der Umgang mit dem Datenmaterial und die Interpretationen gewagt erscheinen, so daß letztlich auch die Schlußfolgerungen hinsichtlich des Symptom-Komplex „Tiefendyslexie" mindestens kühn genannt werden müssen. Gegen die Annahme eines „Symptom-Komplex" Tiefendyslexie, bei dem in Begleitung des Schlüsselsymptoms „semantischer Fehler" elf weitere Symptome auftreten, sind verschiedene Argumente vorgebracht worden. Coltheart selbst hat die Zahl der Symptome, die zusätzlich zum semantischen Fehler auftreten, später auf acht reduziert (vgl. Coltheart/Patterson/ Marshall, 1987b).
86 Ein Kronzeuge der Argumentation gegen Colthearts Symptom-Komplex-Theorie ist der Patient A.R. (beschrieben von Warrington/Shallice, 1979). A.R. beging beim Lesen - wenn auch in geringem Umfang - semantische Fehler und sollte deshalb per definitionem auch in seinem sonstigen Leseverhalten das tiefendyslektische Muster aufweisen. Die Erwartungen, die an das Auftreten des semantischen Fehlers geknüpft sind, erfüllte A.R. jedoch in mehrfacher Hinsicht nicht. (1) Er war in der Lage, NichtWörter zu lesen (bei zwei Durchgängen je 25 bzw. 28 %). (2) Zwischen seinen Leistungen beim Lesen von Funktions- und Inhaltswörtern war kein Unterschied festzustellen. (3) Es trat kein Wortarteffekt auf. (4) Seine Leistungen im lexikalischen Entscheiden waren deutlich schlechter als die der Vergleichspatienten. Je nach Auslegung dieser Befunde bringt A.R. die Annahme eines homogenen tiefendyslektischen Syndroms in ernste Schwierigkeiten. Es sind jedoch verschiedene Argumentationslinien denkbar, mit denen die Reinheit des Syndroms verteidigt werden kann. Eine Variante besteht darin, A.R. aus der Reihe der Tiefendyslektiker wegzudefinieren. Im Hinblick auf die geringe Zahl seiner semantischen Fehler (nur etwa 5%) könnte man fordern, daß ein ausgewiesener, „echter" Tiefendyslektiker ein Minimum semantischer Fehler begehen muß, das über dieser Schwelle liegt. Folgerichtig müßte jedoch begründet werden, welche Quote semantischer Fehler als qualifizierendes Kriterium gelten soll. Außerdem müßte man konsequenterweise einen weiteren Fall von Tiefendyslexie ausmustern, denn ein Patient von Andreewsky/Seron (1975) wies einen ähnlich geringen Prozentsatz semantischer Fehler auf, entsprach im übrigen aber den Erwartungen des Syndroms. Eine andere Möglichkeit der Verteidigung des Syndrom-Ansatzes besteht in einer Neudefinition, die das gemeinsame Auftreten zweier Symptome als conditio sine qua non annimmt. Problematisch ist dabei jedoch die Frage, welches zweite Symptom in Begleitung des semantischen Fehlers die kritische Symptomkombination darstellen könnte. Jedes der Symptome, die bei A.R. fehlen, käme dafür grundsätzlich in Frage, also: -
die Unfähigkeit, NichtWörter zu lesen die überproportionalen Schwierigkeiten beim Lesen von Funktionswörtern der Wortarteffekt.
Grundsätzlich würde jedes dieser drei Symptome zusammen mit dem semantischen Fehler ein „Symptompaar" ergeben, das in allen übrigen von Coltheart (1987a) analysierten Fällen auftritt. Die Schwierigkeit besteht allerdings darin, theoretisch stringent zu begründen, warum ein solches Paar gemeinsam auftreten sollte. Eine andere Variante schlägt Shallice (1988) vor. Der Wortarteffekt, der bei praktisch allen Tiefendyslektikern auftritt, sei
87 [...] not an inevitable concomitant of the occurrence of semantic errors. It would be possible to delete the word class effects from the properties of deep dyslexia in order to try to maintain the logic of a „psychologically strong syndrome". (Shallice, 1988, 103)
Eine solche Linie würde dazu führen, daß - durch analoge Argumentation in analogen Fällen das einst geschlossene Syndrom seine theoretische Bedeutung verlöre und zu einer bläßlichen Ansammlung semantischer und visueller Fehler würde. Eine weitere, in der Literatur allerdings nicht diskutierte Möglichkeit besteht in der Annahme, daß A.R. eine funktional abweichende Störung hat, die zufällig ebenfalls zu semantischen Fehlern führt. Tiefendyslektiker sind zumeist nicht nur in ihrem Leseverhalten beeinträchtigt. Häufig, wenn auch nicht immer, haben sie außerdem eine Broca-Aphasie. Dies führt unmittelbar zu der Frage, inwieweit Tiefendyslexie - oder einige Elemente dieser Störung - Ausdruck einer allgemeineren Sprachstörung ist. Ist Tiefendyslexie das, was bei den Leseversuchen eines Broca-Aphasikers herauskommt? Fast alle Patienten mit Tiefendyslexie weisen zugleich eine agrammatische Spontansprache auf. Zwischen den Charakteristika des Agrammatismus und denen des tiefendyslektischen Lesens fallen allerdings Ähnlichkeiten auf. Agrammatische Sprache besteht hauptsächlich aus konkreten Inhaltswörtern, enthält wenig flektierte Verben und auffallend wenig Funktionswörter. These considerations led to our earlier view that the reading deficit in deep dyslexia was the product of two underlying disturbances: (1) a syntactic disorder, which compromises „syntactically related" lexical items (which we took to include abstract words), as well as the morphemes and rules of the grammar; and (2) a loss of the ability to use spelling-sound correspondence rules, which, if functional, would allow the agrammatic reader to bypass his deficient lexicon when reading aloud. (Saffran/Boygo/Schwartz/Marin, 1987, 382)
Die Vermutung, daß das Auftreten von Tiefendyslexie an eine Broca-Aphasie gebunden ist, läßt sich anhand einiger Patienten mit Tiefendyslexie ohne Broca-Aphasie zurückweisen. Zu ihnen gehört einer von Kremins Patienten, L.E.C. (Kremin, 1981), der eine ungestörte Spontansprache aufwies sowie auch Howards Patient N.T. (Howard, 1985). In beiden Fällen fiel bei den Patienten die typischen Fehlermuster der Tiefendyslexie auf. Umgekehrt weisen Patienten mit Broca-Aphasie nicht notwendig tiefendysiektische Störungen auf. In den meisten Fällen sind Broca-Aphasiker in den schriftsprachlichen Modalitäten ähnlich gestört wie in den lautsprachlichen. Ihre Schwierigkeiten beim Lesen von Wörtern verteilen sich relativ gleichmäßig auf die verschiedenen Wortarten (vgl. z.B. Caramazza/Berndt/Hart, 1981). Einer vorläufigen Charakterisierung des Störungsmusters „Tiefendyslexie" soll die Definition von Kremin (1984) dienen, da sie - sozusagen als kleinster Nenner - den Minimalbestand von Symptomen umfaßt, der von den meisten mit Tiefendyslexie befaßten Wissenschaftlern akzeptiert wird. Es sind dies (Kremin, 1984, 279):
(1) The occurrence of semantic, derivational, and visual paralexias; omissions do also occur (2) Severe or total impairment of grapheme-to-phoneme conversion as shown by poor reading of nonsense syllables
88
(3) Influence of the part-of-speech dimension: nouns are read best, function words worst (4) Influence of the concreteness/imageability dimension on word reading. Auf der Basis dieser Definition sollen die verschiedenen Interpretationen des Störungsmusters gesichtet werden.
5.2 Neurolinguistische Interpretationen der Störung In der Diskussion um die funktionellen Ursachen der Tiefendyslexie nehmen wiederum jene Interpretationen den breitesten Raum ein, die auf verschiedenen Versionen von Dual-RouteModellen basieren. Dabei sind zwei Hypothesen grundsätzlich zu unterscheiden. Nach Ansicht von Newcombe/Marshall (1987b) spiegelt Tiefendyslexie den im wesentlichen normalen Verarbeitungsmodus der semantischen Route, wenn sie gezwungen ist, isoliert zu arbeiten. Der zweiten Hypothese zufolge ist die isolierte semantische Route zusätzlich selbst gestört. Diese Auffassung wird z.B. von Morton/Patterson (1987a) vertreten, Beide Hypothesen basieren auf der gleichen Modellvorstellung, die allerdings unterschiedlich interpretiert wird. 5.2.1 Standardversion nach Marshall/Newcombe Im Rahmen ihrer Theorie der normal funktionierenden, aber isolierten semantischen Route nehmen Marshall/Newcombe an, daß bei Tiefendyslexie ein grundsätzlich normaler (Dekodierungs-) Mechanismus am Werk ist, der beim ungestörten Leser deshalb nicht zu entdecken ist, weil schon ein Minimum phonologischer Information zur Vermeidung semantischer Fehler ausreicht. Das semantische System steht im Zentrum von Newcombe/Marshalls Modellvorstellung und „is characterized by 'spread of activation' among semanticallyrelated entries once one entry has been addressed via its input logogen" (1987b, 179). Daher würde ein Stimulus-Wort wie sick nicht nur den Lexikoneintrag sick, sondern auch i l l , unwell etc. aktivieren. Semantische Fehler würden demnach entstehen, wenn keine phonologischen Informationen über das Zielwort die Wahl des richtigen Lexikoneintrags beeinflussen können. Das semantische System ist demnach [...] intrinsically unstable, unless it is „corrected" or „checked" by its various peripheral devices. By unstable we mean, that the product of the input logogen system following categorization of e.g. sick is the availability of the semantic codes not only for sick but also for ill, unwell etc. (Newcombe/Marshall, 1987b, 184)
Semantische Fehler, wie sie Tiefendyslektiker begehen, treten folglich auf, wenn die peripheren, stabilisierenden Mechanismen gestört sind. Im Falle des Lesens dient die visuell-graphemische Rekodierung der Stabilisierung. Da das semantische System in dieser Vorstellung an sich instabil ist, erfordert nicht nur das Lesen einzelner Wörter eine periphere Stabilisie-
89 rung, sondern auch das auditive Verstehen einzelner Wörter. Der Stabilisierung des auditiven Verstehens einzelner Wörter dienen normalerweise auditiv-phonologische Rekodierungsmechanismen. Die Ergebnisse dieser peripheren Rekodierungsprozesse stehen im Normalfall dem semantischen System zu Verfugung und stabilisieren so die Wahl des richtigen Lexikoneintrags. G.R. weist semantische Fehler nicht nur beim Lesen einzelner Wörter, sondern auch bei einer anderen transkodierenden Leistung, beim Diktatschreiben, auf. Hingegen sind seine Leistungen bei Aufgaben, die keine Transkodierung erfordern (wie Nachsprechen und Nachschreiben einzelner Wörter), deutlich besser. Angesichts dieses Leistungsprofils müssen Newcombe/Marshall zwei funktionelle Läsionen annehmen. „ Ex hypothesi, the stabilizing functions of phonologic-to-graphemic and graphemic-to-phonologic conversion are impaired" (Newcombe/Marshall, 1987b, 181). Dabei erklärt die erste funktionelle Läsion die Beeinträchtigung des Diktaktschreibens einzelner Wörter, die zweite die Störung des Lesens einzelner Wörter. In einer zusammenfassenden Deutung bieten Newcombe und Marshall an, daß die schon im Normalfall gegebene Instabilität des semantischen Systems bei G.R. durch die Hirnschädigung noch verstärkt worden ist. In the case of G.R., however, severe and extensive brain-damage would appear (a) to have destroyed totally one set of stabilizing mechanisms, and (b) to have raised drastically the level of „noise" within the semantic system which would serve to accentuate the normal instability of the semantic system. (Newcombe/Marshall, 1987b,185)
Schon diese vergleichsweise schlichteste Erklärung der Tiefendyslexie, die morphologische Fehler, Wortart- und Konkretheitseffekte nicht erklärt, muß zwei explizite funktionelle Läsionen und eine erhöhte Instabilität des semantischen Systems postulieren. Die Annahme innerer Instabilität des semantischen Systems blieb nicht unwidersprochen (vgl. Morton/Patterson, 1987a, Nolan/Caramazza, 1982). Es fanden sich zum einen Patienten, die einige NichtWörter lesen konnten und trotzdem semantische Fehler begingen (was ihnen nicht widerfahren sollte, da ihre semantischen Fehler dank der noch zugänglichen, da für NichtWörter einsetzbaren phonologischen Informationen, vermeidbar sein müßten). Zum anderen machte Saffran (1984) darauf aufmerksam, daß das Ausmaß innerer Instabilität sehr großzügig bemessen sein müßte, um als Erklärung für Fehler wie crocodile für turtle oder babies für genealogist hinreichend zu sein. Auf die Erklärung semantischer Fehler wird noch zurückzukommen sein. Zuvor soll die zweite Hypothese betrachtet werden, der zufolge die isolierte semantische Route zusätzlich selbst gestört ist. Diese Auffassung wird z.B. von Morton/Patterson (1987a, b) vertreten. 5.2.2 Standardversion nach Morton/Patterson Der Interpretation von Morton/Patterson (1987a) liegt hauptsächlich das Datenmaterial zweier Patienten, D.E. und P.W., zugrunde. Ihr Anspruch ist explizit nicht die Identifizierung von Tiefendyslektikern durch eine qualifizierende Untersuchung, sondern die eingehende Analyse
90 von Einzelfallen. Demgemäß ist ihr Ziel auch nicht der Entwurf einer Erklärung, die sich auf alle tiefendyslektischen Patienten übertragen läßt, sondern it is only required that our accounts be self-consistent for each individual (1987a, 97). Aus der Sicht von Morton/Patterson wird das tiefendyslektische Störungsmuster durch mehrere funktionelle Läsionen verursacht. Mit dieser Annahme unterscheiden sie sich nur geringfügig von der Interpretation, die im Rahmen des Multiple-Levels-Konzepts etwa von Shallice/Warrington (1987) vertreten wird. Im Hinblick auf die semantischen Fehler weisen sie Marshall/Newcombes These einer isolierten, aber normal funktionierenden semantischen Leseroute zurück, unter anderem mit dem Argument, daß bei einer intrinsischen Instabilität des semantischen Systems auch bei unbeeinträchtigten Sprechern semantische Fehlleistungen in großer Zahl auftreten sollten. Wenn das instabile semantische System zur Vermeidung von Fehlbenennungen beim Hören und Lesen von Wörtern der Stabilisierung bedarf, wie sind dann semantische Fehler beim Benennen zu vermeiden? Oder, besser formuliert von Coltheart/Patterson/Marshall: „ Why are we not always asking our friends to pass the claret when the decanter contains burgundy (and it is not a blind tasting)? " (1987b, 421). Die alternative Erklärung semantischer Fehler im Sinne von Morton/Patterson vermutet Beeinträchtigungen der semantischen Route selbst, und zwar in Form von „1) response blocking and 2) problems with the semantic code " (1987a, 99). Semantische Fehler wie present fur g i f t entstehen demnach, wenn „the output logogens for certain items have outputs which are blocked, or at least have greatly raised thresholds. " In diesem Fall hat das semantische System g i f t richtig identifiziert, aber das OutputLogogen (die phonologische Repräsentation) ist nicht aktivierbar bzw. hat eine stark erhöhte Reizschwelle. Deshalb wird diejenige phonologische Repräsentation aktiviert, deren Reizschwelle der Aktivierung am nächsten ist. In solchen Fällen ist der semantische Fehler dem angestrebten Wort i. d. R. sehr ähnlich. Semantische Fehler dieser Art bemerken die Patienten häufig nicht. Wenn das Zielwort im semantischen System nur einen Eintrag aktiviert, also durch g i f t nur present aktiviert wird, ist der Fehler nicht als solcher zu identifizieren. Interessanterweise kommt es allerdings auch vor, daß der Patient auf der Suche nach dem Zielwort das richtige Wort trifft, ohne es zu bemerken. P.W., trying to read the word pilot said „air or pilot or navigator..."; reading the word twisted, he said „tight or little or twisted or...". He makes no sign on these occasions that the correct response has any special status for him. (1987a, 100)
Diese Vorkommnisse sind jedoch selten und Morton/Patterson verzichten auf die Interpretation dieses Phänomens, weil es die Erklärung der übrigen semantischen Fehler nicht unwahrscheinlicher macht. Wenn der semantische Unterschied zwischen Zielwort und semantischer Paralexie größer ist, können die Patienten mit größerer Wahrscheinlichkeit angeben, daß ihnen ein semantischer Fehler unterlaufen ist. Dieses Phänomen deuten Morton/Patterson als Beleg dafür, daß keine allgemeine Schädigung des kognitiven Systems (also des Wissens um Wortbedeutungen und syntaktische Strukturen) vorliegt.
91 Als Ursachen für semantische Fehler kommen in Morton/Pattersons Interpretation demnach mehrere funktionelle Beeinträchtigungen in Frage. Unbemerkte semantische Fehler entstehen in Fällen, in denen das semantische System nur ein Output-Logogen aktiviert. „For patients, who have no other code, abstract words and words with close synonyms will yield semantic paralexias which are unidentifiable as errors" (Morton/Patterson, 1987a, 114). Semantische Fehler, die die Patienten selbst als solche identifizieren können, werden dadurch verursacht, daß entweder die phonologischen Repräsentationen für einige Wörter erhöhte Reizschwellen haben oder dadurch, daß der Informationsfluß vom semantischen System zu den phonologischen Repräsentationen beeinträchtigt ist. Im Hinblick auf die unterschiedlichen Ursachen, die semantischen Fehlern zugrundeliegen können, schlägt Shallice (1988) vor, drei Typen von Tiefendyslexie zu unterscheiden. Shallice/Warrington (1987, 138) hatten schon früher argumentiert: „Any unitary account of deep/phonemic dyslexia seems to have difficulty in accounting for this great variability in error patterns." Zu unterscheiden wären diesem Vorschlag nach Input-Tiefendyslexie, Output-Tiefendyslexie und Zentrale Tiefendyslexie. Den Input-Typ kennzeichnet ein „primary deficit consisting of an inability to access the semantic representation of abstract words. " Ein Patient, der dem damit vorhergesagten Störungsmuster entsprach, war P.S. (Shallice/Coughlan, 1980). Seine Leistungen im Lesesinnverständnis waren deutlich schlechter als seine Leistungen bei auditiven Wortverständnis. Der Output-Typ, z.B. vertreten durch Morton/Pattersons Patienten P.W., hat bei schriftlich präsentierten Stimuli Zugriff auf die semantischen Repräsentationen. Er begeht vergleichsweise mehr semantische als visuelle Fehler. Die semantischen Fehler entstehen, weil die phonologischen Repräsentationen im phonologischen Ausgangslexikon nicht aktivierbar sind. Eine ähnliche Interpretation ist von Hillis/Rapp/Romani/Caramazza (1990) für ihren Patienten R.G.B, vorgeschlagen worden. Die dritte, zentrale Form von Tiefendyslexie liegt bei Patienten vor, deren semantische Fehler nicht - wie im Fall von P.W. - schwerpunktmäßig eine Modalität betreffen. G.R., der von Marshall/Newcombe beschrieben wurde, beging auch beim Nachsprechen einzelner Wörter oder beim Zuordnen von Bildern zu Wörtern semantische Fehler. „ This suggests that there is a third sort of deep dyslexic who has a central disorder within the semantic system " (Shallice, 1988, 111). Ein weiteres erklärungsbedürftiges Phänomen der Tiefendyslexie sind die Wortarteffekte, die allerdings nicht alle Tiefendyslektiker aufweisen. Nolan/Caramazza (1982) beobachteten, daß ihr tiefendyslektischer Patient keinen Wortarteffekt aufwies, wenn die zu lesenden Nomen, Verben, Adjektive, Adverbien und Funktionswörter nach Wortlänge, Worthäufigkeit und Abstraktheit parallelisiert wurden. Morton/Patterson (1987a) berichten von ihren Patienten P.W. und D.E., daß sie beim lexikalischen Entscheiden Funktionswörter stets als Wörter einstufen konnten. Wenn Funktionswörter ersetzt wurden, war das Ersatzwort häufig ein anderes Funktionswort. Der Patient P.W. wies, im Gegensatz zu seinem eingeschränkten Vermögen, Funktionswörter laut zu lesen, ein großes Maß an lexikalischem bzw. semantischem Wissen über Funktionswörter auf. Ihm wurde unter anderem die Aufgabe gestellt, Reihen von sieben Funktionswörtern unter dem Aspekt der Quantität zu ordnen. Dazu wurden ihm die Wortkarten in gemischter Reihenfolge vorgelegt. Eine von ihm erstellte Reihung von sieben
92 Funktionswörtern lautete: „none one few some several many all" (vgl. Morton/Patterson, 1987b, 279). Im Gegensatz dazu hatte P.W. große Schwierigkeiten, nach rein syntaktischen Kriterien zu entscheiden, ob zwei Funktionswörter zueinander paßten. Zur Erklärung des Wortarteffekts stellen Morton/Patterson die Hypothese auf, daß [...] without an input-output logogen connection, and unlike content words for which a purely semantic specification will suffice, functions words cannot be produced or acted upon unless there is structural relational information forthcoming from the linguistic processor. (Morton/Patterson, 1987a, 113)
DeBleser/Bayer/Luzzatti (1987) machen darauf aufmerksam, daß es bei ihrer deutschsprachigen Patientin mit Tiefendyslexie im Gegensatz zu englischen Tiefendyslektikern einen wenig ausgeprägten Unterschied zwischen verschiedenen Typen von Inhaltswörtern gibt. Hingegen fiel ihnen ein deutlicher Unterschied zwischen verschiedenen Typen von Funktionswörtern auf. Von insgesamt 80 Funktionswörtern konnte die Patientin HJ. 36 % richtig lesen. Die Prozentzahlen richtiger Lesungen verteilten sich folgendermaßen auf die verschiedenen Arten von Funktionswörtern: -
Präpositionen Konjunktionen Pronomina Modalverben
57% 33% 29% 13%
Diese Funktionswortunterschiede erklären DeBleser/Bayer/Luzzatti (1987, 139) mit dem referentiellen Gehalt, der bei Präpositionen ausgeprägter als bei Konjunktionen ist. Bei HJ. waren die Schwierigkeiten mit Funktionswörtern wie bei den Patienten von Morton/Patterson nicht auf eine allgemein-phonologische Abrufstörung zurückzuführen, denn die Patientin konnte jedes Funktionswort mühelos nachsprechen. Obwohl - wie Morton/Patterson zeigen konnten - semantische Entscheidungen über Funktionswörter getroffen werden können, scheint - wie die Funktionswortunterschiede andeuten auch die Abstraktheit ein Faktor zu sein, der sich auf die Leistungen bei Funktionswörtern auswirkt. Die Abstraktheit der Stimuli scheint nicht nur die Leistungen bei Funktionswörtern zu beeinflussen, sondern auch das Lesen von Inhaltswörtern, weshalb die Konkretheits-Abstraktheits-Dimension für die Erklärung semantischer Fehler insgesamt von Interesse ist. Ein anderer Faktor, dessen Bedeutung für das Zustandekommen semantischer Fehler verschiedentlich erwogen worden ist, ist die Bildhaftigkeit (Imageability) des Stimulus. Semantische Fehler vom Typ s p o t s fur Dalmatian haben den Gedanken nahegelegt, daß bestimmte schriftlich präsentierte Wörter eine visuelle Vorstellung wecken, die dann paraphasisch benannt wird. [...] the response of our patients to abstract targets frequently suggested mediation by imagery. For example, in reading the word success, patient V.S. said „Son...college...doctor...", raising her hand to indicate successive levels of achievement. (Marin/Saffran/Schwartz, 1975)
93 Allerdings kann nur ein kleiner Teil semantischer Verlesungen auf diese Weise erklärt werden. Außerdem lassen sich jene Verlesungen, die die Imageability-Deutung nahelegen, ebenso einleuchtend mit einer beeinträchtigten Aktivierbarkeit des semantischen Systems erklären. Darauf wird noch zurückzukommen sein. Eine Erklärung für semantische Fehler, die zugleich dem Wortarteffekt und dem Konkretheitseffekt Rechnung trägt, haben Saffran/Schwartz/Marin (1979, unveröffentlicht, daher zitiert nach Shallice, 1988, 106) zur Diskussion gestellt. Der Mechanismus, auf den Tiefendyslektiker beim lauten Lesen von Wörtern zurückgeworfen sind, dient ihrer Auffassung nach eigentlich dem Verständnis geschriebener Wörter, nicht ihrer Produktion. „ It is in the nature of comprehension mechanisms, we believe, that a word will elicit a broad representation, rather than a narrow specification of its meaning. " Beim Versuch, laut zu lesen, stehen dem Tiefendyslektiker nur die durch das Zielwort evozierten semantischen Repräsentationen zur Verfügung. Auf Grundlage dieser (eher allgemeinen) semantischen Repräsentation muß er sich für eine der Wahlmöglichkeiten entscheiden. Dieses Verfahren des „Benennens post definitionem" ist ganz offenkundig sehr fehleranfällig. Man kann sich leicht vorstellen, daß die Schwierigkeit dieses Verfahrens stark von der Art des Stimulus abhängt. Ein konkretes Wort hat i.d.R. eine Kernbedeutung, die weniger kontextabhängig ist als die eines abstrakten Wortes. Während für ein konkretes Wort etwa „eine Rose ist eine Rose" gelten kann, gilt für ein abstraktes Wort noch keineswegs „eine Vorstellung ist eine Vorstellung". Entsprechend schwierig ist es, eine allgemeine Definition des Wortes „Vorstellung" zu formulieren. Barnard/Hammond/MacLean/Morton (1982) haben in einer Studie mit Normallesern nachzuweisen versucht, daß die Schwierigkeit, ein gesuchtes Wort nach seiner Definition zu bestimmen, von der Konkretheit vs. Abstraktheit des Items abhängig ist. So wurde zum Beispiel die Definition „a round wooden Container for liquids, usually bulging in the middle" von 77% der Probanden als barrel erkannt, während nur 23% der Probanden „to break trust or allegiance by double-crossing, revealing secrets or spying" als betray erkannten. Insgesamt spiegelten die Beobachtungen, daß niedrigfrequente konkrete Substantive mit deutlich größerer Sicherheit (78%) korrekt zugeordnet werden konnten als niedrigfrequente Abstrakta (38%). Wenn es schon bei konkreten Substantiven Schwierigkeiten bereitet, das richtige Zielwort zu finden, ist folgerichtig bei Funktionswörtern eine noch größere Fehleranfälligkeit zu erwarten, denn diese tragen wenig Bedeutung an sich, sondern dienen mehr der Differenzierung der Bedeutung. Je abstrakter eine aktivierte Vorstellung auf der Ebene nicht-lexikalischer Semantik ist, desto größer ist auch die Variabilität bei der Auswahl des Wortes, das diese Vorstellung ausdrücken soll. Barry (1984) schlug daher vor, daß „concreteness limits the ränge of semantic activation that a stimulus word produces " (323). Bei weniger konkreten Wörtern „ there will be a greater ränge still, and a larger and more varied sei of units activated about threshold. " Eine weiter gefächerte, aber schwächere Aktivierung lexikalischer Items bei zunehmender Abstraktheit hätte eine zunehmende Zahl semantischer Fehler zur Folge. Bei sehr abstrakten Wörtern schließlich
94 [...] the range is assumed to be really quite large, but with no clearly distinguished units within the range being activated to a sufficient degree to uniquely specify any word as a candidate response. (Barry, 1984, 325)
Dieser Erklärung nach wäre zu erwarten, daß semantische Fehler bei Tiefendyslektikern am häufigsten bei Wörtern auftreten, die in der Mitte zwischen konkreten Stimuli (deren Aktivierungsprofile einen deutlichen Gipfel aufweisen) und abstrakten Stimuli (deren Aktivierungsprofile niedrig und flach verlaufen) liegen. Für den Patienten G.R., den zuerst Marshall/ Newcombe beschrieben hatten, konnte diese Annahme statistisch belegt werden (vgl. Jones, 1985). Warrington (1981) beschrieb einen Patienten, dessen Leseverhalten diesen Erwartungen widersprach. Der Patient C.A.V. unterscheidet sich in auffalliger und bislang einzigartiger Weise von anderen Tiefendyslektikern, denn das Lesen abstrakter Wörter fällt ihm leichter als das Lesen konkreter Wörter. Bei der ersten Untersuchung erweckte er den Eindruck einer weitgehend vollständigen Unfähigkeit zu lesen. Von den 10 leichtesten Wörtern eines Standard-Lesetests (Schoneil) konnte er kein einziges lesen. Es handelte sich dabei hauptsächlich um hochkonkrete Wörter wie milk und tree. Eher zufallig zeigte sich, daß er einige sehr abstrakte Wörter wie applause, evidence und inferior lesen konnte. Daraufhin wurde ihm an vier verschiedenen Tagen eine Liste von je 36 abstrakten und konkreten Wörtern, die nach Länge und Häufigkeit parallelisiert worden waren, vorgelegt. Vom ersten bis zum vierten Versuchsdurchgang besserten sich seine Leistungen allmählich, während der Unterschied zwischen konkreten und abstrakten Wörtern erhalten blieb. (Im ersten Durchgang konnte er 5 von 36 konkreten, aber 15 von 36 abstrakten Wörtern lesen). Die besseren Leistungen mit abstrakten Wörtern blieben auch erhalten, als sie mit einer weit umfangreicheren Wortliste überprüft wurde. Die Angabe der Wortkategorie hat seine Leseleistung deutlich begünstigt. Allerdings besserte sich seine Lesestörung rasch, wobei sich der Unterschied zwischen konkreten und abstrakten Wörtern abschwächte. Warringtons Interpretation lautet: ,,[...] there is some form of categorical specificity within the semantic system, and in CA V, the regions within it responsible for abstract word comprehension were more easily accessed" (Warrington, 1981, 193). C.A.V.s bessere Leistungen im Umgang mit abstrakten Wörtern waren nicht auf das Lesen beschränkt, sondern zeigten sich auch, wenn die Wörter bei Wort-Bild-Zuordnungsaufgaben auditorisch präsentiert wurden. C.A.V. unterscheidet sich damit in mehreren Punkten von anderen Tiefendyslektikern. Die Ursache seiner Sprachstörung war ein Tumor in der linken parieto-temporalen Region, seine Spontansprache war flüssig und er beging nur wenige semantische Fehler (2% der Fehllesungen). Sein Fall läßt sich mit der gebotenen Vorsicht immerhin als Hinweis auf eine Form von „ categorical specialisation " des semantischen Systems deuten. So nehmen auch Shallice/ Warrington (1987, 133) an: „[...] the organisation of the semantic representation of words is categorical (using the term 'categorical' in its broadest sense), and that one major subdivision is related to the abstractness of the words. " Mit Hinweis auf die äußerst geringe Zahl semantischer Fehler und die zahlreichen visuellen Fehler, die ebenfalls eine Umkehrung der ansonsten bei Tiefendyslektikern zu erkennen-
95 den Tendenz zu größeren Schwierigkeiten bei abstrakten Stimuli zeigten, weist Barry (1984, 329) die Deutung des Leseverhaltens von C.A.V. im Rahmen des tiefendyslektischen Paradigmas zurück. Dabei ist auch zu berücksichtigen, daß sich C.A.V. im Gegensatz zur überwiegenden Mehrheit der tiefendyslektischen Patienten im Akutstadium seiner Krankheit befand. Zur Annahme einer kategorienspezifischen Organisation des Lexikons, wie sie Warrington (1981) und Shallice (1984, 1988) vorgeschlagen haben, hat Hillert jüngst in einer Auseinandersetzung mit der Lexikonorganisation die Auffassung vertreten, daß die bisherigen Befunde „nicht die These belegen, daß sich das konzeptuelle System aus multiplen Subsystemen zusammensetzt. Vielmehr werden durch den durch Motivation und Erfahrung geprägten mentalen Wortschatz kategorienspezifische Zugriffsprozesse entwickelt" (Hillert, 1993, 227). Fehler wie t y p i n g für tying und now für own werden als visuelle Fehler eingestuft. In der Terminologie des Logogen-Modells muß die Ursache dieser visuellen Fehler im Interface zwischen Logogen-System und Cognitive System zu suchen sein. „ The possibilities are the Visual analysis system, the Visual logogen system or the entry to the cognitive system" (Morton/Patterson, 1987a, 103). Wenn eine Beeinträchtigung der visuellen Analyse geschriebener Wörter vorliegen würde, wäre zu erwarten, daß es den Patienten schwerfällt, bei schriftlich präsentierten Stimuli zu entscheiden, ob es sich um Wörter oder NichtWörter handelt. Tatsächlich ist jedoch zu beobachten, daß die Leistungen der Patienten beim lexikalischen Entscheiden vorgelegter schriftlicher Stimuli generell gut sind. Auch die teilweise zu beobachtende relative Unempfindlichkeit für schlechte Qualität der Stimuli spricht gegen ein frühes visuelles Defizit. Morton/ Patterson berichten in diesem Zusammenhang, daß P.W. gelegentlich die Handschrift eines der Autoren lesen konnte, obwohl der Ko-Autor sie unleserlich fand (vgl. Morton/Patterson, 1987a, 103). Darüber hinaus konnten Saffran/Marin (1977) zeigen, daß Tiefendyslektiker auch aLtErNiErEnD gesetzte Wörter oder Wörter, bei denen ein P+l+u+s-Zeichen die Aufeinanderfolge der Buchstaben unterbricht, lesen konnten. Zu bedenken ist in diesem Zusammenhang die Möglichkeit, daß Tiefendyslektiker in Einzelfallen auch über das im vorangegangenen Kapitel am Beispiel semantischer Dyslektiker diskutierte nicht-semantische lexikalische Verfahren lesen können. Diese Auffassung wird z.B. von Howard (1985, 1987) und von Goldblum (1985) im Hinblick darauf vertreten, daß die Leseleistung bei einigen Patienten besser erhalten ist als die Fähigkeit zum Benennen von Bildern. Diese Überlegenheit wird darauf zurückgeführt, daß beim Lesen zusätzliche Informationen aus dem nicht-semantischen lexikalischen Leseverfahrens zur Verfügung stehen. Patterson (1978, 1979) hat auch die Annahme erwogen, daß die sogenannten Input-Logogene für manche Morpheme aufgrund abnorm erhöhter Reizschwellen nicht aktivierbar seien. In solchen Fällen könnte ein anderes Logogen, das mit dem blockierten Logogen visuelle bzw. graphemische Merkmale teilt, an seiner Stelle die Reizschwelle zur Aktivierung überwinden. This account does require that some (yet unspecified) control mechanism knows that a particular logogen exists and would have responded if it could have done. Otherwise it would be impossible to distinguish between the State of the input logogen system following presentation of a blocked item and the State following presentation of a similar nonsense word. (Morton/Patterson, 1987a, 104)
96 Wenn man also versuchen würde, die visuelle Fehllesung Sandale für Skandale damit zu erklären, daß das visuelle Logogen für Skandale unzugänglich oder nicht aktivierbar ist, hätte man zu erwarten, daß auch ein Nichtwort wie Smandale beim lexikalischen Entscheiden für ein Wort gehalten und bei schriftlicher Präsentation die Reaktion Sandale hervorrufen würde. Da auf Ebene des visuellen Input-Logogen-Systems keine semantischen Informationen zur Verfügung stehen, sollten sich bei visuellen Fehlern keine Effekte von Wortart oder Konkretheit vs. Abstraktheit finden. Tatsächlich verteilen sich die visuellen Fehler jedoch nicht gleichmäßig auf abstrakte und konkrete Stimuli und auf die Wortarten. Insgesamt bieten die Beobachtungen eine starke Tendenz dafür, daß am Zustandekommen visueller Fehllesungen auch semantische Faktoren beteiligt sind, was es unwahrscheinlich macht, daß das verursachende Defizit das visuelle Logogen-System betrifft. Der Zugang zum „kognitiven System" wird also mutmaßlich nicht schon durch eine Störung im Visuellen Logogen System behindert. Damit ist die Semantik die wahrscheinlichste Ursache für visuelle Fehler. Offenbar sind die semantischen Informationen für einige - hauptsächlich abstrakte - Wörter nicht verfügbar. Dafür spricht die Beobachtung, daß die Patienten dazu tendieren, ihre visuellen Paralexien für korrekt zu halten. Auch bei einer Versuchsanordnung, bei der sie das auditiv präsentierte Zielwort einer von zwei Wortkarten zuordnen sollen, neigen sie dazu, sich für ihren visuellen Fehler zu entscheiden. Keines dieser beiden Phänomene wäre zu erwarten, wenn ihnen semantische Informationen über das Zielwort zur Verfügung stünden. Deshalb sind visuelle Fehler auch in der Einschätzung von Shallice (1988, 110) wahrscheinlicher auf „aprocess dependent on the failure of the stimulus word to access an adequate semantic representation " zurückzuführen. An einem Beispiel illustrieren Morton/Patterson ihre vorläufige Erklärung für das Zustandekommen visueller Fehler: The Visual input logogen corresponding to the stimulus word (e.g. moment) responds but cannot provoke a semantic code from the cognitive system; the reading response („monument") is the result of a second attempt by the logogen system to produce an understandable outcome. (1987a, 106)
Bei diesem Prozeß kann es - etwa wenn auch der zweite Anlauf nicht zu einem Ergebnis führt - auch zu Auslassungen kommen. Morphologische Fehllesungen, z.B. direct für directing oder bite für bi t, sind dem Zielwort häufig sowohl visuell als auch semantisch ähnlich, was in der Interpretation berücksichtigt werden muß. Morton/Patterson gehen von der Annahme aus, daß Stammorpheme und Affixe getrennt gespeichert und verarbeitet werden. Als Beleg für diese, in Anlehnung an die Transformationsgrammatik auch von Taft/Forster (1975) vertretene, allerdings umstrittene Auffassung (vgl. Günther, 1988) gilt die Beobachtung, daß Versuchspersonen, denen man tachistoskopisch das Wort seen zeigt, anschließend leichter ein Wort wie sees als ein Wort wie seed erkennen. Der Priming-Effekt wirkt sich demnach auf ein semantisch verwandtes Wort, aber nicht auf ein Wort mit gleicher visueller Ähnlichkeit aus. Auch andere Untersuchungen haben Anhaltspunkte dafür geliefert, daß die morphologische Komplexität visuell präsentierter Wörter bei normalen Lesern zu längerer Verarbeitungszeit und höherer Fehleran-
97 fálligkeit führt. Dies wird auf einen Zerlegungsprozeß zurückgeführt, bei welchem Stammmorpheme und Affixe getrennt behandelt werden. Die These, daß das Lexikon auf Morphembasis organisiert ist, bedeutet in der Anwendung auf Tiefendyslektiker: [...] that the system produces (albeit unreliably) a „plus-affix" tag; but the linguistic part of the cognitive system which is sensitive to affixes is impaired in the patients, and the tag often results in production of the wrong affix. (Morton/Patterson, 1987a, 102)
Auffallig ist in diesem Zusammenhang, daß die in diesem Prozeß irrtümlich montierten Affixe stets zum Stammorphem passen. Von einer deutschen Patientin mit Tiefendyslexie berichten DeBleser/Bayer/Luzzatti (1987), daß sie Diminutivendungen wie -chen gelegentlich semantisch paraphasierte, z.B. „Briefchen: Brief, kleines, chen." (vgl. DeBleser/Bayer/Luzzatti, 1987, 142). In ähnlicher Weise lautete die Reaktion auf unmutig nicht mutig. Dies deuten die Autoren als Indiz dafür, daß zumindest Teile der Affix-Information des graphematischen Stimulus das kognitive System erreichen., Dies gilt besonders für Affixe mit referenz-semantischem Gehalt. Die Ursache für morphologische Fehler und für die Beeinträchtigung bei Funktionswörtern sehen Morton/Patterson in der Schädigung des Mechanismus, den sie „ linguistic processing" nennen und der für die Verarbeitung syntaktischer Informationen zuständig ist (Morton/ Patterson, 1987a, 116). Die Unfähigkeit, NichtWörter zu lesen, gilt als Indiz für den Verlust der GraphemPhonem-Konvertierungs-Mechanismen. Im Gegensatz zu Normallesern, deren Geschwindigkeit beim lexikalischen Entscheiden über NichtWörter durch die Wortähnlichkeit gesenkt wird, sind solche Effekte bei den von Morton/Patterson untersuchten Tiefendyslektikern nicht zu beobachten. In Reaktion auf ein präsentiertes Nichtwort bieten sie reale Wörter als Antwort an oder sagen, daß sie den Stimulus nicht lesen können. Von einer deutschen Tiefendyslektikerin berichten DeBleser/Bayer/Luzzatti (1987, 141), daß sie aus NichtWörtern Buchstabenketten herauslöste, die sich als Wörter lesen lassen. Im Fall von Gasenläher lautete die Antwort beispielsweise Gas. Als Ursache für diese Beeinträchtigung wäre eine Störung in der Übertragung der graphemischen Informationen zu jenem Mechanismus denkbar, der für die Anwendung der GP-K-Regeln zuständig ist. Da - wie schon im Zusammenhang mit den visuellen Fehlern erörtert wurde - keine Beeinträchtigung in der visuellen Analyse vorzuliegen scheint, betrifft die Störung offenbar entweder die Anwendung der G-P-K-Regeln selbst oder den Zugang zu dem dafür zuständigen Mechanismus. Zwischen beiden Möglichkeiten läßt sich kaum eine Entscheidung treffen, da beide zum gleichen Ergebnis führen würden. Eine weitere denkbare Ursache für die Beeinträchtigung der nicht-lexikalischen Verarbeitung von Buchstabenketten betrifft die Übermittlung der durch Anwendung der G-P-K-Regeln gewonnenen phonologischen Informationen in den Zwischenspeicher (Response buffer). Wenn man allerdings annimmt, daß der Zugang zu diesem Zwischenspeicher gestört ist, wäre zu erwarten, daß auch bei anderen dorthin übermittelten phonologischen Informationen an dieser Stelle Störungen entstünden. Dagegen spricht das Vermögen vieler tiefendyslektischer Patienten, bei auditorischer Präsentation von Wortpaaren über das Vorliegen von Reimen zu
98 entscheiden. Verwirrend ist jedoch die z.B. von Saffran/Marin (1977) berichtete Beobachtung, daß ihre Patienten bei schriftlichen Stimuli nur visuell über das Vorliegen von Reimen entscheiden konnten. So konnten sie angeben, daß coast und toast sich reimen, hielten aber come und sum nicht für ein Reimpaar. Da es sich bei den Stimuli um Wörter handelt, die die Patienten lesen konnten, wäre zu erwarten gewesen, daß sie auch über das Vorliegen eines Reims entscheiden könnten. Denkbar wäre, daß ihnen zwar die phonologische Form der Wörter zu Verfügung stand, sie aber eine visuelle Entscheidungsstrategie vorzogen. Die Beobachtungen an Morton/Pattersons Patienten führen im Hinblick auf die Beeinträchtigung des Lesens von NichtWörtern zu der Schlußfolgerung: „ The non-lexical grapheme-phoneme route is non-functional, though we cannot yet pinpoint the exact nature of the breakdown" (1987a, 114). Die Ursachen für eine Beeinträchtigung der Fähigkeit, NichtWörter zu lesen, werden im Kapitel 6 am Beispiel der phonologischen Dyslexie nochmals in größerer Ausführlichkeit zu betrachten sein. Dieser von Einwänden und Ergänzungen unterbrochene Überblick über die Interpretation von Morton/Patterson macht deutlich, daß verschiedene funktionale Ursachen das gleiche Symptom hervorrufen können. Dies gilt nicht nur für das Lesen von NichtWörtern, sondern ebenso für semantische und visuelle Fehler. Für die Erklärung dieser Fehler werden in dieser Modellvariante verschiedene Schädigungsorte in Erwägung gezogen. Insgesamt läßt sich das Syndrom Tiefendyslexie demnach nicht auf eine einzige funktionelle Beeinträchtigung zurückführen. Mehrere funktionelle Schädigungen des Sprachverarbeitungssystems verursachen die verschiedenen Fehler. Schon das Schlüsselsymptom des semantischen Fehlers selbst kann auf unterschiedliche Weise entstehen. Damit bleibt festzuhalten: „ Deep dyslexie patients are not functionally identical" (Shallice, 1988, 108). In dieser Auffassung unterscheiden sich die Interpretationen von Shallice und Morton/Patterson von dem oben dargestellten Ansatz von Marshall/Newcombe. Morton/Patterson implizieren somit zugleich eine doppelte Dissoziierbarkeit der Symptome, denn wenn den semantischen Fehlern eine andere funktionelle Läsion zugrundeliegt als der Beeinträchtigung im Lesen von NichtWörtern oder den morphologischen Fehlern, dann sollten diese Symptome theoretisch auch unabhängig voneinander auftreten können. Da das Symptom „semantische Fehler" bislang nicht in Isolation aufgetreten ist, könnte man argumentieren, daß solche Dissoziationen nicht beobachtet werden können, weil zwar die zugrundeliegenden Verarbeitungskomponenten funktionell unabhängig, aber anatomisch benachbart sind, so daß sie nicht unabhängig voneinander geschädigt werden können. Dagegen spricht allerdings die Asymmetrie im gemeinsamen Auftreten der Symptome. So ist zwar das Auftreten semantischer Fehler noch nicht einzeln beobachtet worden, aber morphologische Fehler oder die Unfähigkeit, NichtWörter zu lesen, sind schon ohne gleichzeitige semantische Fehler aufgetreten (vgl. Kap. 4.3.). Daher resümieren Coltheart/Patterson/Marshall: „ Thus the question remains: ifthese symptoms reflect independent loci of damage to the normally used language-processing system, why do they not dissociate? " (1987b, 416) Eine radikale Antwort auf diese Frage stellt die Hypothese von Coltheart (1987d) und Saffran/Boygo/Schwartz/Marin (1987) dar, daß Tiefendyslexie rechtshemisphärisches Lesen reflektiere.
99 5.2.3 Tiefendyslexie als rechtshemisphärisches Lesen Ein wesentliches Problem bei der Analyse der Tiefendyslexie läßt sich auf folgendes Dilemma zuspitzen: Entweder die verschiedenen Symptome dieses Störungsbildes sind funktional und neurologisch voneinander unabhängig und somit kein Symptom-Komplex oder alle Symptome spiegeln die Schädigung einer grundlegenden Funktion und bilden damit einen starken Symptom-Komplex. Coltheart schlägt als alternatives Erklärungskonzept vor, die tiefendyslektische Störung des Lesens sei Folge einer funktionellen Läsion [...] which abolishes access from orthography to the left-hemisphere lexicon. It is assumed that the spoken responses of these patients are generated from the left hemisphere. Thus reading aloud will require orthographic access to a right-hemisphere lexicon, interhemispheric transmission of information (which, it is argued, is semantic information) and the use of this information to access an entry in the left-hemisphere lexicon: from this entry a pronunciation is retrieved and articulated. (Coltheart, 1987d, 375)
Die rechtshemisphärische Hypothese tiefendyslektischen Lesens (Coltheart, 1983,1987d) stützt sich hinsichtlich des Sprachvermögens der rechten Hemisphäre auf Beobachtungen aus drei verschiedenen Bereichen. Auf die auch in anderer Hinsicht interessanten Studien wird hier nur insoweit Bezug genommen, als sie in direktem Zusammenhang mit der rechtshemisphärischen Hypothese stehen. 5.2.3.1
Split-brain-Sludien
Bei Split-brain-Patienten kann aufgrund der operativen Durchtrennung des Corpus Callosum die Leistung der isolierten rechten Hemisphäre untersucht werden (vgl. Sperry, 1984). Wie verschiedene Studien gezeigt haben, können Split-Brain-Patienten wie Tiefendyslektiker keine NichtWörter lesen, obwohl sie einige konkrete Substantive lesen und verstehen können (vgl. Zaidel 1982). Insgesamt wird das auditive Sprachverständnis der isolierten rechten Hemisphäre deutlich höher eingeschätzt als das visuelle. Bei zwei Split-Brain-Patienten traten bei der Zuordnung von Bildern zu schriftlich präsentierten Wörtern semantische Fehler auf (vgl. Zaidel, 1982). Diese semantischen Fehler werden von Vertretern der rechtshemisphärischen Hypothese als Analogie zum Leseverhalten bei Tiefendyslektikern gesehen. Bei Aufgaben, die das Erkennen von Reimen zwischen Objektnamen erforderten sowie beim Differenzieren zwischen Konsonant-Vokal-Silben, erwies sich weiterhin, daß die rechte Hemisphäre nicht zur phonologischen Informationsanalyse fähig ist. Der Zugriff zu Wortbedeutungen erfolgt vielmehr über die ganzheitliche Verarbeitung des Klangbildes (bei auditiver Darbietung), bzw. der visuellen Wortform (bei schriftlichen Stimuli) (vgl. Levy/Trevarthen, 1977). Unter dem Vorbehalt, daß bei den untersuchten Split-Brain-Patienten das Sprachvermögen der rechten Hemisphäre wegen früher Hirnschädigung überdurchschnittlich ausgeprägt sein könnte (vgl. entsprechende Einwände bei Gazzaniga 1983), lassen sich in diesen Befunden Ähnlichkeiten zwischen isoliert rechtshemisphärischem Lesen und Tiefendyslexie erkennen.
100 5.2.3.2 Studien an Hemisphärektomie-Vatienten Die Befunde an Hemisphärektomie-Patienten sind nur in jenen wenigen Fällen in Betracht zu ziehen, in denen die Entfernung der linken Hemisphäre nach abgeschlossener Funktionslateralisierung erfolgt ist. Diese Studien bestätigen insgesamt die Ergebnisse bei Split-BrainStudien. Die expressiven Sprachleistungen der rechten Hemisphäre bei HemisphärektomiePatienten bleiben zwar gering, sind jedoch immerhin größer als das sprachliche Ausdrucksvermögen der rechten Hemisphäre bei Split-Brain-Patienten. Der interessanteste Bericht über das Sprachvermögen eines Hemisphärektomie-Patienten stammt von Smith (1966). Sein Patient war 48 Jahre alt, als seine linke Hemisphäre entfernt wurde. Bis etwa ein Jahr vor dem Eingriff war er neurologisch unauffällig gewesen. Nach der Operation konnte er - wenn auch in sehr eingeschränktem Umfang - Sprechen und Verstehen, Lesen und Schreiben. Bei der Überprüfung seines Verständnisses für einzelne gesprochene Wörter mit dem Peabody Picture Vocabulary Test verstand er von 112 präsentierten Wörtern 85, was zumindest auf Wortebene auf ein - wenn auch eingeschränkt - erhaltenes Sprachverständnis schließen läßt. Das Lesevermögen für einzelne Wörter wurde sechs Monate nach der Operation untersucht. Im Rahmen des Experiments wurden dem Patienten fünf Buntstifte verschiedener Farben vorgelegt und dazu eine Wortkarte mit einem Farbwort. Er konnte den Stift mit der Farbe auswählen, die auf der Wortkarte angegeben war, was als Beleg für sein Lesesinnverständnis bei einzelnen kurzen und vertrauten Wörtern zu werten ist. Dieses Ergebnis gilt als weiterer Beleg für das rudimentäre Lesevermögen der rechten Hemisphäre. 5.2.3.3 Visuelle Halbfeldstudien Bei visuellen Halbfeldstudien an gesunden Versuchspersonen hat sich gezeigt, daß auch sie bei Präsentation von NichtWörtern im linken visuellen Halbfeld (also der rechten Hemisphäre) nicht in der Lage sind, solche Items zu lesen (vgl. Young/Ellis/Bion, 1984). Dieses Ergebnis unterstützt - zusammen mit ähnlichen Befunden bei Split-Brain-Patienten die These, daß die rechte Hemisphäre isoliert nicht zu phonologischer Analyse fähig ist. In einigen Untersuchungen konnte gezeigt werden, daß die Überlegenheit des rechten visuellen Halbfeldes (und damit der linken Hemisphäre) für abstrakte Wörter größer ist als für konkrete Wörter (vgl. z.B. Young/Ellis, 1985). Dies stützt die Annahme, daß die rechte Hemisphäre einen Beitrag zur Erkennung konkreter Wörter leisten kann und paßt insofern zur rechtshemisphärischen Deutung tiefendyslektischen Lesens. Allerdings konnten andere Studien diese Asymmetrie in der Verarbeitung konkreter und abstrakter Stimuli nicht finden (vgl. zum Überblick: Young, 1987b). Als Argument für die Lesefähigkeit der rechten Hemisphäre führt Coltheart (1987d) Beobachtungen über die funktionelle Hemisphärenspezialisierung bei japanischen Lesern an. Auf die strukturellen Besonderheiten des japanischen Schriftsystems ist in Kapitel 5.1 bereits verwiesen worden. Aus den Studien, die mit der Methode der gesichtsfeldabhängigen Stimulation bei Japanern durchgeführt worden sind, zieht Coltheart folgendes Resümee: „ In Japanese readers, the right hemisphere is better at processing Kanji characters than Kana characters; the left hemisphere shows the reverse specialisation" (1987d, 350). Eine differenziertere
101 Analyse der Informationsverarbeitungsstrategien, die beim Lesen im japanischen Schriftsystem angewandt werden, führt nicht zu so eindeutigen Schlußfolgerungen. Auf die Leistung der rechten Hemisphäre beim Lesen von Kanji-Zeichen haben viele Faktoren Einfluß, etwa auch die Dimension von Abstraktheit/Konkretheit und die Wortklasse, wie Elman/Takahashi/ Tohaku (1981a,b) herausgefunden haben. (1) The RH possesses an advantage over the LH for processing Kanji, which are visually complex and have no systematic phonetic associations. This advantage is a perceptual one and probably occurs at an early stage of processing. (2) The RH (but not the LH) is selectively poor at processing abstract and low-imagery stimuli. The LH does equally well with concrete and abstract words. (Elman/Takahashi/Tohsaku, 1981a, 297)
Der Vorteil der rechten Hemisphäre bei der Verarbeitung von Kanji-Stimuli geht verloren, wenn statt Nomina Adjektive oder Verben als Stimuli verwandt werden. Ein weiterer bedeutsamer Faktor, der Einfluß auf die Verarbeitung der logographischen Kanji-Zeichen hat, ist die Wortlänge. „There are indications, that while single-character Kanji yield a LVF advantage (if they are concrete nouns), two-character Kanji may always produce a RVF (left hemisphere) advantage" (Elman/Takahashi/Tohsaku (1981b, 410). 5.2.3.4 Zusammenfassung Insgesamt lassen sich aus diesen Erkenntnissen einige Argumente für die rechtshemisphärische Hypothese ableiten. Dies gilt besonders im Hinblick auf die Ähnlichkeit zwischen tiefendyslektischem Lesen und dem Lesen von Split-Brain-Patienten. Probleme bereitet dieser Argumentation allerdings die Beobachtung von Patterson/Besner (1984). Die beiden Tiefendyslektiker ihrer Studie waren in ihrem Lesevermögen allen bisher untersuchten Split-BrainPatienten deutlich überlegen. Die Leistungen der Tiefendyslektiker D.E. und P.W. in der „ visual version of the Peabody word-picture matching test using written words " wurden mit der Leistung der Split-Brain-Patienten N.G. und L.B. (Zaidel, 1978) verglichen. N.G. und L.B. sind von den insgesamt etwa 40 untersuchten Split-Brain-Patienten die mit der besten rechtshemisphärischen Sprachleistung (abgesehen von zwei anderen Patienten, bei denen aber Anlaß zu dem Verdacht besteht, daß die Sprachlateralisierung sich wegen einer frühen Hirnschädigung schon im Kindesalter nach rechts verlagert hat (Gazzaniga, 1983). Somit zeigen die Leistungen von N.G. und L.B. mutmaßlich das Optimum der Sprachleistung, die von der isolierten, rechten Hemisphäre nach abgeschlossener Lateralisierang erwartet werden kann. Dennoch sind diese Leistungen denen der Tiefendyslektiker deutlich unterlegen. Einwände hat auch die Annahme provoziert, tiefendyslektisches Lesen spiegele das Worterkennungs- und Sprachverständnispotential der normalen, unbeeinträchtigten rechten Hemisphäre. Dies zieht die Frage nach sich, welche Rolle das Lesevermögen der rechten Hemisphäre bei normalen Lesern spielt. Diese Frage fällt in den weiteren Zusammenhang der Diskussion um die funktionelle Spezialisierung der Großhirnhemisphären. Zu diesem Problem liegen verschiedene Modellvorstellungen vor, ohne daß eine Entscheidung zugunsten eines Modells mögliche wäre (vgl. Young/Bion/Ellis, 1980; Moscovitch, 1986).
102 Eine These in diesem Zusammenhang lautet, daß das sekundäre Lesesystem der rechten Hemisphäre „ is suppressed in normal, intact individuals and hence only becomes evident after brain injury" (Landis/Regard/Graves/Goodglass, 1983). Diese These hat jedoch mit Widersprüchen zu kämpfen, die über die biologische Wahrscheinlichkeit eines normalerweise unterdrückten „StaHiW?y-Ersatzsystems" hinausgehen. Es stellt sich die Frage, warum das rechtshemisphärische Sprachsystem nicht bei Globalaphasikem (mit intakter rechter Hemisphäre und ausgedehnten linkshemisphärischen Läsionen) in Aktion tritt. Zusammenfassend läßt sich sagen, daß im Sinne der rechtshemisphärischen Theorie die Ursache der Tiefendyslexie in einer Unterbrechung des Zugriffs von der Orthographie zum linkshemisphärischen Lexikon liegt. Die Basis dieser Hypothese ist nicht ohne Widerspruch geblieben. Coltheart's inferences concerning the existence and nature of a right-hemisphere lexicon rest on insecure grounds such as the evidence from patients with left hemispherectomy and commisurectomy, as well as the sinking sands of laterality studies[...] (Henderson, 1982, 517)
Bislang haben Vertreter der rechtshemisphärischen Theorie keinen Versuch unternommen, die in Kapitel 5.1 dokumentierte Variationsbreite tiefendyslektischer Störungsmuster zu erklären. Verbunden mit dieser Hypothese ist überdies der Verzicht auf die Erklärung der Tiefendyslexie im Rahmen normaler Prozesse der Schriftverarbeitung, denn die Beteiligung der rechten Hemisphäre am normalen Leseprozeß ist allen bisherigen Erkenntnissen zufolge zu vernachlässigen. 5.2.4 Das analogietheoretische Konzept Neben den bislang diskutierten Interpretationen der Tiefendyslexie im Rahmen von DualRoute-Modellen soll stellvertretend für die Vertreter der Lexikalischen-Analogie-Theorie die Auffassung von Marcel (1987) erwähnt werden. Besondere Aufmerksamkeit wird wiederum den Schwierigkeiten zugewandt, die Tiefendyslektiker beim Lesen von NichtWörtern zeigen, denn die elementaren Unterschiede zwischen beiden Modelltypen betreffen, wie in den vorangegangenen Kapiteln deutlich geworden ist, u.a. die Erklärung der Prozesse beim Lesen von NichtWörtern. The inability to read non-words and the existence of certain errors are both implied by an impairment to retrieval of phonology from orthographic descriptions, for which route a single lexical mechanism exists. (Marcel, 1987, 254)
Der Informationsfluß vom visuellen Input-Lexikon zum phonologischen Output-Lexikon ist unterbrochen oder schwer gestört, so daß NichtWörter nicht gelesen werden können. Zum Phänomen der semantischen Fehler bemerkt er nur: „ If the route which makes use of semantic descriptions remains intact, it will permit certain words to be read and allow semantic and derivational paralexias, but will not permit responses to non-words" (1987, 254).
103
5.3 Zusammenfassung Auch im Fall der Tiefendyslexie hat sich die Hoffnung, es handele sich um einen SymptomKomplex, wie ihn Coltheart in Kapitel 5.1 annahm, nicht bestätigt. Tiefendyslexie scheint, wie dieser Überblick über Charakteristik und Interpretationen gezeigt hat, eine heterogene Störung oder, mit Shallices Worten, ein „Multi-Component-Syndrome" (Shallice, 1988) zu sein. Zusätzlich läßt sich Tiefendyslexie offenbar in drei Untertypen fraktionieren (vgl. Kay, 1993). In der Auffassung, daß das Leistungsprofil der in Kapitel 5.1 beschriebenen Patienten auf unterschiedlichen funktionellen Ursachen beruht, sind sich Patterson/Morton (1987) als Verfechter der Standardversion eines Dual-Route-Modells mit Vertretern des MultipleLevels-Konzepts einig, während das Erklärungsangebot der Analogie-Theorie wie im Fall der semantischen Dyslexie auch bei Tiefendyslexie deutlich unterspezifiziert zu sein scheint. Die rechtshemisphärische Hypothese implizierte einen Verzicht auf die Betrachtung tiefendyslektischer Symptome im Rahmen von Modellen normalen Lesens und konnte darüber hinaus die Variationsbreite des Störungsbildes nur unzureichend erklären. Mittlerweile sind, wie bereits erwähnt, Modelle entwickelt worden, die sich bemühen, Prozesse normalen Lesens in Form neuronaler Netzwerkmodelle abzubilden. Auf die Frage, wie sich Aspekte tiefendyslektischen Lesens bzw. die Subtypen dieses Störungsbildes in einem solchen Modelltyp simulieren lassen, wird in Kapitel 7 zurückgegriffen. In diesem Zusammenhang wird eine erstaunliche alternative Deutung des gemeinsamen Auftretens semantischer, visueller und visuell-semantischer Fehler erörtert.
6 Phonologische Dyslexie Das Störungsmuster, das seit der ersten Fallstudie von Beauvois/Derouesne (1979) als phonologische Dyslexie bezeichnet wird, ist dadurch gekennzeichnet, daß die Patienten im Gegensatz zu ihren guten Leseleistungen bei Wörtern eine herausragende Beeinträchtigung beim Lesen von NichtWörtern aufweisen. Zentrale Lesestörungen, bei denen die Ableitung der phonologischen Repräsentation aus der orthographischen Gestalt von Wörtern beeinträchtigt oder unmöglich ist, hatten sich in den vorangegangenen Kapiteln als multi-komponentielle Störungen erwiesen. Bei der Diskussion dieser Störungsmuster ist deutlich geworden, daß sich die Dyslexie-Syndrome nicht auf einzelne funktionelle Läsionen zurückfuhren lassen. Daher ist die Entdeckung einer spezifischen Lesestörung für NichtWörter auf theoretisches Interesse gestoßen und hat die Frage provoziert, ob es möglich ist „ to fractionate deep dyslexia, say, and obtain a more selective impairment of thephonological route? " (Shallice, 1988, 119) Phonologische Dyslexie versprach vor dem Hintergrund von Dual-Route-Modellen Aufschluß über die selektive Störbarkeit der nicht-lexikalischen, phonologischen Leseprozesse, weil sich bei den beobachteten Patienten das lexikalische Lesen als weitgehend intakt erwies, sie bei der visuellen Verarbeitung von Buchstabenketten keine Einschränkung aufwiesen und mit dem Nachsprechen von NichtWörtern keine Schwierigkeiten hatten. Für das alternative Analogiekonzept warf dieses Störungsmuster die Frage auf, warum das Lesen von Nichtwörtern selektiv störbar ist, obwohl das Lesen von NichtWörtern auf dem gleichen Mechanismus basiert wie das Lesen von Wörtern. Vor der in Kapitel 6.2 enthaltenen eingehenden Diskussion der funktionellen Ursachen, die dieser Störung im Rahmen verschiedener Konzepte zugeschrieben werden, soll die Charakteristik der phonologischen Dyslexie in Kapitel 6.1 anhand einiger besonders interessanter Einzelfallstudien exemplarisch umrissen werden. Die knappe Zusammenfassung der wesentlichen Gesichtspunkte erfolgt in Kapitel 6.3.
6.1 Charakteristik der Störung Der erste Patient, der der Fachwelt als phonologischer Dyslektiker vorgestellt wurde, war der Franzose R.G. (Beauvois/Derouesne, 1979, Beauvois/Derouesne/Saillant, 1980). An die Untersuchung seines Leseverhaltens war u.a. die Frage geknüpft, ob das Muster der Lesestörung den Schluß zuläßt, daß die phonologische, nicht-lexikalische Leseroute isoliert störbar ist. Folgeuntersuchungen sollten klären helfen, welche Verarbeitungsstufe betroffen ist. R.G. wies als markantestes Merkmal seiner Lesestörung auffallige Schwierigkeiten beim Lesen von Neologismen auf. Auf die zusätzlich auftretenden morphologischen Fehler und Funktionswort-Substitutionen wird noch zurückzukommen sein. Im Rahmen der Studie wurden ihm in einer der Versuchsreihen eine Liste mit 40 Wörtern (hochfrequent und konkret, fünf bis neun Buchstaben lang) und eine Liste mit 40 Nicht-
105
Wörtern (vier bis fünf Buchstaben lang, phonotaktisch legal wie z.B. puko, dirma) vorgelegt. Alle Wörter konnten schnell und richtig gelesen werden, hingegen nur 10% der Nichtwörter. Bei einem weiteren Versuchsdurchgang wurde die Stimuluslänge variiert, wobei sich zeigte, daß die Stimuluslänge keine signifikante Auswirkung auf die Leseleistung von Wörtern hatte, während sie deutlichen Einfluß auf das Lesen von NichtWörtern hatte. Je länger die Nichtwörter waren (ein bis fünf Buchstaben), desto schlechter konnten sie gelesen werden. Nichtwörter, die aus vier bis fünf Buchstaben bestanden, konnten nur zu 10% gelesen werden. Bei der Variation der Komplexität der Silbenstruktur zeigte sich, daß Wörter mit einfacher Silbenstruktur (z.B. facilite) ebenso wie Wörter mit komplexer Silbenstruktur (z.B. zu 75% richtig gelesen werden konnten. Auf die Leseleistung bei Nichtwörtern frustre) wirkte sich die Variation der Komplexität der Silbenstruktur signifikant aus. Nichtwörter mit einfacher Silbenstruktur (z.B. vora) konnten zu 55%, Nichtwörter mit komplexer Silbenstruktur (z.B. sto) nur zu 32% gelesen werden. In der Versuchsreihe zeigte sich somit, daß die Variablen, die R.G.S Leistung beim Lesen von Nichtwörtern beeinflußten, keine Auswirkungen auf das Lesen von Wörtern hatten (i.e. Stimuluslänge, Komplexität der Silbenstruktur). Die Ergebnisse ihrer Studie fassen Beauvois/Derouesne (1979, 1120) in drei Punkten zusammen: (1) a disturbance of the phonological reading process, without disturbance of the lexical reading process; (2) a disturbance located at the level of the phonological stage that permits grapheme-phoneme correspondence, without disturbance at the perceptual and expressive stages; (3) a disturbance of reading without comparable disturbances of oral expression, oral comprehension, writing and spelling aloud.
Insgesamt wies der Patient R.G. damit eine selektive, aber nicht totale Störung seiner Fähigkeit zum Lesen von Nichtwörtern im Vergleich zu einer besser, aber nicht perfekt erhaltenen Fähigkeit zum Lesen von Wörtern auf. Beim Lesen von Wörtern war kein Konkretheitseffekt zu beobachten. Er beging keine semantischen Fehler, allerdings fielen einige morphologische Fehler und Funktionswort-Substitutionen auf. In einer Folgeuntersuchung an französischen Dyslektikern haben Derouesne/Beauvois (1979) versucht, genauer zu bestimmen, welche Verarbeitungsschritte des phonologischen Leseprozesses bei phonologischer Dyslexie gestört sind. Ihr Ziel war es: [...] to distinguish two kinds of phonological processing involved in grapheme-phoneme correspondence, one of which has been called the „graphemic processing" because it concerns the processing of graphemes, and another which has been called the „phonemic processing" because it concerns the production of the sound of phonemes. (Derouesne/Beauvois, 1979, 1125)
Um diese beiden Formen phonologischen Verarbeitens erkennbar werden zu lassen, entwarfen sie eine elegante Versuchsanordnung, mit deren Hilfe sie die Leseleistung von vier Patienten mit phonologischer Dyslexie analysierten. Alle vier Patienten konnten fehlerfrei Substantive lesen. Ihre Spontansprache war normal oder fast normal, und sie konnten ohne Schwierigkeiten Silben und Nichtwörter nachsprechen.
106 Die Versuchsanordnung umfaßte zwei einander ergänzende Experimente mit Nichtwörtern. Im ersten Experiment hatten die Patienten NichtWörter zu lesen, deren graphemische Komplexität variiert wurde. Es handelte sich zum einen um NichtWörter mit einfachen Graphem-Phonem-Korrespondenzen wie iko, bei denen jedem Graphem ein Phonem entsprach, zum anderen um NichtWörter mit komplexeren Graphem-Phonem-Korrespondenzen wie ca u, bei denen zwei Grapheme einem Phonem entsprachen. Für die Umsetzung von Graphemketten in Phonemketten ist den Annahmen von Derouesne/Beauvois zufolge die Anwendung von Ableitungsregeln erforderlich. Das Lesen der NichtWörter, bei denen zwei Grapheme ein Phonem ergeben, erfordert den Einsatz komplexerer Konversionsregeln. Bei einem zweiten Experiment bestand das Testmaterial aus NichtWörtern, von denen die Hälfte mit tatsächlichen Wörtern homophon war, sich visuell aber deutlich unterschied, etwa kok (homophon zu cog). Alle Stimuli hatten einfache Graphem-Phonem-Korrespondenzen. Die Patienten wurden daraufhingewiesen, daß einige der NichtWörter wie Wörter klingen. Die Leistungen der vier Patienten unterschieden sich in Abhängigkeit von der Versuchsanordnung. Bei zwei Patienten zeigte sich ein signifikanter Effekt der graphemischen Komplexität, d.h. sie konnten graphemisch komplexe NichtWörter deutlich schlechter lesen als NichtWörter mit einfachen Graphem-Phonem-Korrespondenzen. Die beiden anderen Patienten zeigten keine Reaktion auf die Variation der graphemischen Komplexität, wiesen jedoch in der zweiten Versuchsanordnung signifikant schlechtere Leistungen bei nicht-homophonen im Vergleich zu homophonen NichtWörtern auf. Auf diese Ergebnisse stützen Derouesne/Beauvois (1979, 1131) die These: [...] the reading impairment in the phonological reading process which is characterised by the fact that words are better read than non-words may result from either a disturbance of the graphemic or of the phonemic processing.
Demnach wären zwei Subtypen von phonologischer Dyslexie unterscheidbar. Phonologische Dyslektiker, die graphematisch komplexere NichtWörter schlechter lesen konnten als graphematisch einfache, können zwar Graphem-Phonem-Korrespondenzen aktivieren, sind aber offenbar bei der Anwendung der Konversionsregeln beeinträchtigt. Bei Patienten, deren Leistung bei homophonen NichtWörtern besser war als bei nichthomophonen NichtWörtern, betrifft die Beeinträchtigung anscheinend einen anderen Mechanismus. Darin spiegelt sich der Auffassung von Derouesne/Beauvois (1979) zufolge eine Kompensationsstrategie : This means that the possible evocation of the sound form of a word was an alternative strategy to get over the impairment of phonemic processing necessary for the phonological reading process. (Derouesne/Beauvois, 1979, 1130)
Patterson (1982) hat gegen die Schlußfolgerungen von Derouesne/Beauvois eingewandt, daß die Patienten, deren Leistungen bei Pseudohomophonen besser waren, eine visuelle Annäherungsstrategie gewählt haben könnten. Unter dieser Vorannahme würde das Ergebnis an Aussagekraft über phonologische Verarbeitungsprozesse verlieren. In einer Folgeuntersuchung
107
mit einem anderen Patienten konnten Derouesne/Beauvois (1985) zeigen, daß die besseren Leistungen mit Homophonen auch dann erhalten blieben, wenn der Faktor der visuellen Ähnlichkeit zwischen homophonem Nichtwort und dem zugehörigen Wort kontrolliert wurde. Zusätzlich wurde der Patient aufgefordert, ein homophones Nichtwort aus einzelnen auditorisch präsentierten Phonemen zu verschmelzen. Diese Aufgabe bewältigte er ohne Schwierigkeiten. Insgesamt kann man aus diesen Befunden und Einzelfallstudien schließen, daß die besseren Leistungen bei Pseudohomophonen kein Artefakt sind. Sie scheinen vielmehr darauf hinzudeuten, daß die phonologische Verarbeitung geschriebener Wörter unabhängig von der phonologischen Verarbeitung gesprochener Wörter gestört sein kann. Ein weiteres Merkmal, das bei der Untersuchung von R.G.s Leseverhalten auffiel, war wie bereits erwähnt - das zusätzliche Auftreten von morphologischen Fehlern und Funktionswortsubstitutionen. Da das gemeinsame Auftreten einer selektiven Beeinträchtigung im Lesen von NichtWörtern und morphologischer Fehler auch bei anderen Patienten beobachtet wurde (vgl. den Überblick, den Sartori/Barry/Job (1984) über das Störungsmuster bei 16 phonologischen Dyslektikem geben), stellte sich die theoretisch bedeutsame Frage, ob Störungen im Lesen von NichtWörtern notwendigerweise gleichzeitig mit Problemen bei der Verarbeitung freier und gebundener grammatikalischer Morpheme auftreten. Ein notwendig gemeinsames Auftreten dieser Symptome würde Rückschlüsse auf die Funktionsweise des Mechanismus zulassen, dessen Schädigung der Lesestörung zugrundeliegt. Man könnte folgern, daß der für das Lesen von NichtWörtern zuständige Mechanismus zugleich an der Verarbeitung grammatikalischer Morpheme beteiligt ist. Wenn andernfalls eine Beeinträchtigung beim Lesen von NichtWörtern nicht zwangsläufig von einer Störung im Lesen grammatikalischer Morpheme begleitet wird, würde die Vermutung naheliegen, daß beiden Leistungen unterschiedliche Verarbeitungsmechanismen zugrundeliegen (bzw. im Sinne einer einfachen Dissoziation unterschiedliche Stufen innerhalb eines Mechanismus). Aufschluß über die aus diesen Überlegungen resultierende Frage nach der Dissoziierbarkeit der bei R.G. und anderen Patienten beobachteten Symptome versprach eine weitere vielbeachtete Fallstudie. Der Patient W.B. (Funneil, 1983) war außerstande, NichtWörter zu lesen und hatte vergleichsweise geringere Schwierigkeiten beim Lesen von Affixen und Funktionswörtern. Funneil interpretierte dieses Störungsprofil als Beleg dafür, daß „ the nonword reading deficit dissociates from the grammatical marker deficit." Funnells Patient hatte aber offensichtlich eine eher schwere expressive Aphasie und war im Gegensatz zum oben erwähnten Patienten von Derouesne/Beauvois (1985) - kaum in der Lage, auditiv präsentierte Phoneme zu einem Nichtwort zu verschmelzen. Deshalb liegt die Vermutung nahe, daß die Schwierigkeit mit dem Lesen von NichtWörtern aus einer modalitätsübergreifenden Beeinträchtigung resultiert. Shallice (1988, 125) gibt zu bedenken, daß man das spezifische Muster erhaltener und gestörter Leseleistungen eines Patienten nur dann theoretisch schlüssig als Dissoziation lesespezifischer Leistungen deuten kann, wenn gesichert erscheint, daß dieser Effekt nicht auf einer grundlegenderen, modalitätsübergreifenden Störung basiert (vgl. Kapitel 2). Folglich sind theoretische Aufschlüsse über die selektive Störbarkeit phonologischer Leseprozesse nur von Patienten zu erwarten, die keine - oder nur sehr geringe - Störungen der expressiven Sprache aufweisen. Dies ist eine wichtige Vorüberlegung,
108 denn, wie Dubois (1977) in einer großangelegten Studie an Aphasikem gezeigt hat, haben 60% der Aphasiker beim Nachsprechen von NichtWörtern größere Schwierigkeiten als beim Nachsprechen von Wörtern. Eine Störung des Lesens von NichtWörtern bei einem solchen Patienten läßt demnach keine Aufschlüsse über eine lesespezifische Störung zu. Marcel und Patterson (Kongreßbericht, 1986, zitiert nach Shallice, 1988) haben gezeigt, wie problematisch dieses Kriterium bei der Analyse der phonologischen Dyslexie ist. Sie haben sechs Fälle von phonologischer Dyslexie, darunter auch W.B., auf das Vorliegen einer modalitätsübergreifenden Beeinträchtigung des phonologischen Verarbeitens untersucht. Alle Patienten waren ausgewählt worden, weil sie eine Überlegenheit beim Lesen von Wörtern im Vergleich zu NichtWörtern zeigten. Keiner dieser Patienten war in der Lage, die schriftunabhängige, rein phonologische Aufgabe zu bewältigen, die darin bestand, durch Verschmelzung von drei einzeln vorgesprochenen Phonemen ein Nichtwort zu produzieren. Zu den kritischen Symptomen, die bislang bei allen Patienten mit phonologischer Dyslexie beobachtet worden sind, zählen eine relative Beeinträchtigung im Lesen von Nichtwörtern im Verhältnis zu relativ besser erhaltenen Leistungen beim Lesen von Wörtern. Beim Lesen von Wörtern treten einige visuelle oder morphologische, jedoch keine semantischen Fehler auf. Ein Konkretheitseffekt beim Lesen von Wörtern ist nicht beobachtet worden. Die Leistungen beim Schreiben sind - soweit dies den Fallstudien zu entnehmen ist - ebenfalls nicht perfekt erhalten. Beim Lesen von Wörtern sind in fast allen Fällen morphologische Fehler und Funktionswort-Substitutionen festzustellen. Der Status dieses Fehlertyps ist umstritten, weil Patienten wie W.B. (Funneil, 1983) und Beatrice (Sartori/Barry/Job, 1984) vergleichsweise wenig morphologische Fehler begingen. Da diese Patienten zugleich unter einer schweren expressiven Aphasie litten, ist nicht auszuschließen, daß der phonologischen Lesestörung in diesen Fällen eine modalitätsübergreifende Beeinträchtigung zugrundelag.
6.2 Neurolinguistische Interpretationen des Störungsmusters 6.2.1 Die Standardversion Die Beobachtungen an tiefendyslektischen Lesern hatten eine Dissoziation zwischen den Leistungen beim Lesen von Wörtern und Nichtwörtern erkennen lassen. Newcombe/Marshall (1987a) haben im Anschluß an ihre in Kapitel 5.2.1 dargestellte Interpretation der Tiefendyslexie den Gedanken verfolgt, daß der Unterschied zwischen phonologischer Dyslexie und Tiefendyslexie quantitativer Art sei. Im Falle phonologischer Dyslexie wäre demnach die Störung phonologischen Rekodierens weniger ausgeprägt. Der Patient könnte präsentierten Buchstabenketten genügend phonologische Informationen entnehmen und damit potentielle semantische Fehler vermeiden. Die Befunde von Beauvois/Derouesne interpretieren sie „as indicating that very minimal phonological recoding can block the overt expression of semantic errors in reading" (1987a, 185).
109 Der Vergleich des phonologischen Lesevermögens - soweit es seinen Ausdruck im Lesen von Nichtwörtern findet - hat im Falle von Tiefendyslektikern und phonologischen Dyslektikern keine greifbaren quantitativen Unterschiede ergeben. Patterson (1982) hat die phonologische Leseleistung eines phonologischen Dyslektikers mit der dreier Tiefendyslektiker verglichen. Den Patienten wurde auf einer Wortkarte ein einzelnes Nichtwort vorgelegt. Dazu wurden ihnen drei NichtWörter vorgelesen, die einander entweder sehr unähnlich (z.B. fleb, trean, mide) oder sehr ähnlich (pabe, pame, pake) waren. Die Aufgabe der Patienten bestand darin, zu entscheiden, welches der drei vorgelesenen Wörter dem schriftlichen Item entsprach. Die Studie ergab keinen Anhaltspunkt dafür, daß sich der Schweregrad der Beeinträchtigung des phonologischen Lesens bei Tiefendyslektikern und phonologischen Dyslektikern unterscheidet. Die Marshall/Newcombes These zugrundeliegende Annahme der intrinsischen Instabilität des semantischen Systems war in Kapitel 5 bereits zurückgewiesen worden. Die Gesamtheit der Beobachtungen an phonologischen Dyslektikern lassen es naheliegend erscheinen, daß sich Tiefendyslexie und phonologische Dyslexie qualitativ unterscheiden. 6.2.2 Modifizierte Standardversion und Multiple-Levels-Ansatz Angesichts der oben umrissenen Befunde und der daraus abgeleiteten Charakteristika der phonologischen Dyslexie stellen sich verschiedene Fragen, die über die Erörterung der Unterschiede zwischen Tiefendyslexie und phonologischer Dyslexie hinausgehen. Am Beispiel der von Beauvois/Derouesne (1979) und Derouesne/Beauvois (1979) durchgeführten Untersuchungen ist deutlich geworden, daß der Beeinträchtigung des Lesens von NichtWörtern Störungen auf unterschiedlichen Stufen des phonologischen Verarbeitungsprozesses zugrundeliegen können. Dies wirft die Frage auf, wie der phonologische Leseprozeß im einzelnen organisiert ist. Eine andere wichtige Frage betrifft das gemeinsame Auftreten von beeinträchtigten Leistungen beim Lesen von NichtWörtern einerseits und morphologischen Fehlern sowie Funktionswort-Substitutionen andererseits. Während früher überwiegend die Auffassung vertreten wurde, nicht-lexikalisches Lesen basiere auf der Zuordnung jeweils eines Phonems zu einem Graphem, bzw. zu einer „functional spelling unit" (Venezky, 1970; Coltheart, 1978), wird heute z.B. von Patterson/Morton (1985) und Shallice/McCarthy (1985) die Auffassung vertreten, daß die nichtlexikalische Analyse von Buchstabenketten auf der Segmentierung von Einheiten unterschiedlicher Größe beruht. Die Frage, welche Größe die Einheiten haben, die in den Subsystemen der nicht-lexikalischen Route verarbeitet werden, ist bereits in Kapitel 3.2 diskutiert worden. Patterson/Morton (1985) schlagen vor, daß die phonologischen Entsprechungen von Graphemen und größeren orthographischen Einheiten (sogenannten bodies: „ terminal vowel plus consonant units" wie etwa -ead) gleichzeitig aktiviert werden. Mit einem Body wie -ead ist die Information verknüpft, daß die Mehrzahl der Wörter, die auf - e a d enden, [ - e d ] ausgesprochen werden. Damit enthalten Bodies die Information über die häufigsten Korrespondenzen der orthographischen Einheiten. Das Nichtwort vead erhielte, wenn es über Graphem-Phonem-Korrespondenzen gelesen würde, die phonologische Repräsentation
110 [ v i : d ], während die Aktivierung von Bodies zum Ergebnis [ v e d ] fuhren würde. In Fällen, in denen die beiden gleichzeitig ablaufenden Verfahren zu widersprüchlichen Ergebnissen fuhren, resultiert eine Interferenz und damit eine Verlangsamung in der Verarbeitung. Der Vorschlag von Shallice/Warrington/McCarthy (1983) geht ebenfalls davon aus, daß die nicht-lexikalische Verarbeitung von NichtWörtern simultan die phonologischen Korrespondenzen verschieden großer Einheiten einschließt. Wie an anderer Stelle bereits erwähnt, geht Shallice - im Gegensatz zu Anhängern der erweiterten Dual-Route-Modelle - davon aus, daß es neben der semantisch-lexikalischen Route eine „breite" phonologische Route gibt. Er teilt somit nicht die etwa von Morton und Patterson postulierte Annahme eines lexikalischphonologischen und eines nicht-lexikalisch phonologischen Leseverfahrens. Derouesne/Beauvois haben mit ihrem Patienten L.B. (1985) ein Experiment durchgeführt, daß Aufschluß über die Frage nach der Größe der für die phonologische Verarbeitung relevanten Einheiten verspricht. Dieses Versuchsmaterial setzte sich zur einen Hälfte aus Silben mit Konsonantenhäufung wie bre zusammen, die in der geschriebenen französischen Sprache häufig vorkommen. Zur anderen Hälfte bestand das Versuchsmaterial aus Silben, die zwar in der gesprochenen französischen Sprache vorkommen, aber praktisch nie geschrieben werden, wie die Silbe jra. Der Anfang von je ramène wird in der Spontansprache üblicherweise als j r a gesprochen. Beide Silbentypen wurden nach ihrer Häufigkeit parallelisiert. Wenn die phonologische Route bei der Informationsverarbeitung Buchstabenketten in Einheiten von Graphem- bzw. Phonemgröße segmentiert, wäre zu erwarten, daß beide Silbentypen gleich gut gelesen werden können. Tatsächlich las L.B. 83% der Silben vom bre-Typ, aber nur 10% der Silben vom j ra-Typ. Shallice (1988, 125) deutet diese Ergebnisse als Argument für die Multiple-Levels-Position: „The obvious exploitation is that information about units larger than graphemes is transmitted by the phonological route and is easier to use than information about graphemes. " Auch mit der um das Body-Subsystem ergänzten modifizierten Standardversion sind die Ergebnisse von Derouesne/Beauvois (1985) zu vereinbaren. Bei denjenigen Patienten von Beauvois/Derouesne (1979), denen graphemisch komplexe NichtWörter signifikant größere Schwierigkeiten als NichtWörter mit einfachen GraphemPhonem-Korrespondenzen bereiteten, würden Vertreter beider Varianten von Dual-RouteModellen einvernehmlich eine Beeinträchtigung vermuten, die ihre funktionelle Lokalisation vor der Aktivierung der phonologischen Korrespondenzen hat. Erst wenn die Zuordnung phonologischer Korrespondenzen erfolgt ist, kann sich der Effekt der Pseudo-Homophon-Überlegenheit einstellen, der nach Beauvois/Derouesnes Erkenntnissen den zweiten Subtyp phonologisch-dyslektischen Lesens kennzeichnet. In der Architektur der modifizierten Standardversion hat der „phonematische Subtyp" der phonologischen Dyslexie seine funktionelle Ursache in einer Beeinträchtigung des phonologischen Zwischenspeichers (Response Buffer, vgl. Abbildung 3.1.). Nicht-homophone PseudoWörter übersteigen die Speicherkapazität des Buffers. Bei homophonen Nichtwörtern steht ein Eintrag im phonologischen Ausgangslexikon zur Verfügung, der aktiviert werden kann, wodurch solche Items geringere Ansprüche an den Zwischenspeicher stellen.
Ill Demnach würden die beiden von Derouesne/Beauvois (1979) differenzierten Subtypen der phonologischen Dyslexie mit funktionellen Beeinträchtigungen korrespondieren, die jeweils unterschiedliche Verarbeitungsstufen der nicht-lexikalischen Route betreffen. Patterson (1982) hat sich der Frage zugewandt, warum phonologische Dyslektiker neben ihren charakteristischen Schwierigkeiten im Umgang mit NichtWörtern offenbar regelmäßig auch morphologische Paralexien und Fehler beim Lesen von Funktionswörtern aufweisen. Sie hat vorgeschlagen, daß die phonologischen Repräsentationen von Affixen und Funktionswörtern nicht direkt über die orthographischen Informationen aktiviert werden können, „ but must be assembled through the application of procedures in the non-lexical route." Dieser Annahme zufolge muß die Störung der nicht-lexikalischen Leseroute notwendig nicht nur zu Schwierigkeiten beim Lesen von NichtWörtern, sondern auch zu Beeinträchtigungen beim Lesen von Affixen und Funktionswörtern fuhren. Damit hat Patterson eine Erklärung vorgelegt, mit der sich beide Fehlertypen auf eine einzige funktionelle Ursache - die Störung der nichtlexikalischen Route - zurückfuhren lassen. Patterson erläutert nicht, warum die phonologischen Repräsentationen von Funktionswörtern und Affixen nicht auch über lexikalische Prozesse abgerufen werden können. Im Zusammenhang mit den morphologischen Fehlern bei Tiefendyslektikern ist in Kapitel 5.2 bereits erwähnt worden, daß der referenz-semantische Gehalt von freien und gebundenen grammatischen Morphemen das Lesen von Funktionswörtern und Affixen zu begünstigen scheint. Angesichts der dort zitierten Befunde von DeBleser/Bayer/Luzzatti (1987) scheint es zweifelhaft, daß Affixe generell und notwendig auf der Basis phonologischen Rekodierens gelesen werden. Da demnach nicht unmittelbar einsichtig ist, warum das laute Lesen von NichtWörtern einerseits und das Lesen von Funktionswörtern und Affixen andererseits auf dem gleichen Mechanismus beruhen sollten, ist in Erwägung zu ziehen, ob beide Symptome auf unterschiedlichen Schädigungen basieren könnten. Caramazza/Miceli/Silveri/Laudanna schlagen daher vor: [...] two distinct impairments are responsible for the co-occurence of the symptoms that have been considered to constitute the syndrome: an impairment to a mechanism needed in reading nonwords and an impairment to a sub-component of the lexicon needed in processing derivational morphology as well as bound and free standing grammatical markers. (1991, 58)
Die Annahme zweier distinkter Störungen als Ursache eines Syndroms zieht die Erwartung nach sich, daß beide Symptome auch unabhängig voneinander auftreten sollten. Bislang ist aber noch kein Patient gefunden worden, dessen Beeinträchtigung sich tatsächlich ausschließlich auf das Lesen von NichtWörtern beschränkte. Dieses Resümee ziehen auch Sartori/Barry/ Job (1984, 353): A „pure" case of a nonword reading impairment has yet to be discovered, and by „pure" we mean both selective, in that only nonword reading is impaired and that word reading is perfect, and total, in that no responses at all are produced to nonwords.
112 6.2.3 Analogietheoretisches Konzept In der Logik der bereits mehrfach erwähnten Lexikalischen Analogietheorie, wie sie etwa von Marcel (1987), Glushko (1979) oder Henderson (1982) vertreten wird, werden Wörter und Nichtwörter mit Hilfe desselben Mechanismus gelesen (vgl. Kapitel 3). Im Hinblick auf die phonologische Dyslexie ist daher mit Marcel (1987, 254) zu fragen: But if non-words and words are read by the same mechanism, how can phonological alexia occur? Während die Zuweisung der phonologischen Form bei Wörtern und NichtWörtern auf die gleiche Weise erfolgt, sind die Anforderungen an die Segmentierungsprozesse in beiden Fällen unterschiedlich. Wenn die orthographischen Input-Informationen für Wörter noch vollständig zur Verfugung stehen, dann kann die phonologische Form des jeweiligen Wortes aufgefunden werden. Wenn aber entweder die orthographischen Buchstabenfolgen im visuellen Input-Lexikon oder die phonologischen Repräsentationen im Output-Lexikon nicht unbeeinträchtigt segmentiert werden können, dann können Nichtwörter nicht richtig oder gar nicht gelesen werden. Bei bekannten Wörtern ist Segmentierung nicht erforderlich, weshalb sie gelesen werden können. Die Beobachtungen von Derouesne/Beauvois (1979) belegen dieser Auffassung zufolge, daß „ the distinction between impairments at the graphemic and phonological stages would map rather well onto segmentation impairments at the two stages" (Marcel, 1987, 255). Die lexikalische Analogietheorie kann somit in der Tat einleuchtend erklären, wie bessere Leistungen bei homophonen NichtWörtern im Vergleich zu nicht-homophonen Wörtern Zustandekommen. Für homophone Nichtwörter lassen sich im phonologischen Output-Lexikon wortanaloge phonologische Repräsentationen finden, weshalb sie keinen Segmentierungsaufwand erfordern und besser gelesen werden können als nicht-homophone Wörter. Zu bedenken ist jedoch, inwieweit die Störung tatsächlich auf einer Segmentierungsschwäche beruht und nicht vielmehr auf einer Beeinträchtigung bei der Verschmelzung der Elemente. Im Falle des zweiten Subtyps phonologischer Dyslexie, bei dem die Beeinträchtigung die Analyse komplexer Graphem-Phonem-Korrespondenzen signifikant stärker betrifft als die einfacher Graphem-Phonem-Korrespondenzen, ist die Deutung im Sinne der lexikalischen Analogietheorie weniger überzeugend. Wenn die Ursache dieses Leistungsmusters in einer Beeinträchtigung der Segmentierungsprozesse im visuellen Input-Lexikon besteht, wäre das umgekehrte Erscheinungsbild zu erwarten. „Einfache" Nichtwörter wie iko sollten den Betroffenen unter dem Aspekt einer segmentalen Verarbeitung größere Schwierigkeiten bereiten als komplexe Nichtwörter wie ca u, die aus weniger Segmenten bestehen. DeBastiani/Barry/ Carreras verdächtigen daher „the rules governing the overriding of smaller segments to be malfunctional" (1988, 260). Das gemeinsame Auftreten von Beeinträchtigungen beim Lesen von NichtWörtern und morphologischen Fehlern sowie Funktionswort-Substitutionen ist im Sinne der lexikalischen Analogietheorie mit der Annahme zu erklären, daß eine zusätzliche Beeinträchtigung einer Subkomponente des Lexikons die Speicherung bzw. Aktivierbarkeit von gebundenen und freien grammatikalischen Morphemen behindert. Deshalb können die phonologischen Repräsentationen von Funktionswörtern nicht als Ganzes abgerufen werden, wie es für Inhaltswörter der Fall ist.
113 Ein Problem für diese Interpretation stellen die oben bereits erwähnten, nur beschränkt aussagekräftigen Befunde Funnells (1983) dar. W.B. konnte Wörter entdecken, die in Nichtwörtem verborgen waren (z.B. alforsut: for). Diese Beobachtung deutet daraufhin, daß die Fähigkeit zu orthographischer Segmentierung intakt war. Ebenso konnte W.B. ein Wort, das ihm vorgesprochen wurde, in die es konstituierenden Morpheme zerlegen (z.B. forget: for, get) und angeben, welches der Anfangsbuchstabe eines ihm vorgesprochenen Wortes war. Diese Befunde deuten darauf hin, daß auch die Fähigkeit zur „Montage" von Phonemen erhalten war. Insgesamt kam Funneil zu dem Ergebnis, daß ihr Befund „ invalidates the claim that nonword reading is normally accomplished by lexical analogy procedures" (Funnell, 1983, 172). DeBastiani/Barry/Carreras halten dem entgegen, daß W.B. in der Lage war, auch solche Buchstabenketten nachzusprechen, die er nicht lesen konnte, weshalb sie auf die Möglichkeit verweisen, [...] that Funnell's phonological assembly tasks were performed by intact auditory-to-phonology recoding processes and not necessarily by reading specific processes of the segmentation and assembly of addressed phonology. (1988, 265)
6.3 Zusammenfassung Von den behandelten erworbenen Störungen des Lesens stellt die phonologische Dyslexie die geringste Einschränkung dar, zumal Leser vergleichsweise selten mit NichtWörtern konfrontiert werden. Die Lage, in der sich ein phonologischer Dyslektiker befindet, kann man mit einem Vergleich veranschaulichen: This situation would be similiar to a person who has learned to read some (but not all) Chinese ideographic characters. Such a person would not be able to make any response (other than one of total frustration) to totally novel characters. (Sartori/Barry/Job, 1984, 354)
Obwohl bislang kein „reiner" Fall von phonologischer Dyslexie entdeckt worden ist, sind anhand der dokumentierten Fallstudien immerhin begründete Annahmen darüber möglich, welche Prozesse bei phonologischer Dyslexie möglicherweise gestört sind. Es läßt sich aber umgekehrt nicht zwangsläufig folgern, welche Prozesse intakt sind. Zudem läßt sich das Störungsmuster ebensowenig wie Oberflächendyslexie, Tiefendyslexie oder semantische Dyslexie auf eine einzelne, für alle Patienten zutreffende funktionelle Ursache zurückfuhren. Dennoch ist phonologische Dyslexie offensichtlich das selektivste der hier diskutierten Störungsmuster. Wie die modellgestützte Interpretation der phonologischen Dyslexie ergeben hat, können sowohl das modifizierte Dual-Route-Modell und die Multiple-Levels-Hypothese als auch die lexikalische Analogietheorie eine plausible Erklärung der funktionellen Ursachen dieses Stö-
114 rungsmusters anbieten. In Kapitel 7 wird erwogen, ob - und wie - sich Aspekte der phonologischen Dyslexie im Rahmen computergängiger Modelle simulieren lassen.
7 Grenzen und Möglichkeiten neurolinguistischer Erforschung der Schriftsprache: Rück- und Ausblick 7.1 Überlegungen zum Stand der Forschung Wie die vorangegangenen Kapitel gezeigt haben, bleiben bei der Erklärung erworbener Störungen der Schriftsprache durch die verschiedenen neurolinguistischen Modelle zahlreiche Fragen offen. Keines der Modelle kann eine befriedigende Erklärung für alle beobachtbaren Störungsmuster bieten. Umgekehrt lassen sich die Störungsmuster der verschiedenen Patienten nicht zu konsistenten Syndromen oder Symptom-Komplexen zusammenfassen: It has not proved possible to give an unified account of any of the putative syndromes thus far identified. Wernicke's aphasia, Broca's aphasia, surface dyslexia, deep dyslexia, amnesia [...] all have proved heterogeneous rather than homogenous. In every case theorists wishing to hold onto the essence of syndromes have been forced to postulate subtypes in the hope that they will prove homogenous when the parent category didn't. They won't. (Ellis, 1987,404).
Je gründlicher und feinmaschiger die Untersuchung einzelner Patienten und die Analyse ihrer Fehler wurde, desto mehr Subkomponenten innerhalb der einzelnen Leserouten konnten spezifiziert werden. Je spezifizierter die Annahmen über die interne Architektur der drei Leserouten wurden, desto schwieriger wurde es andererseits, die genaue funktionelle Lokalisation der Störung (innerhalb einer Route) zu erschließen, denn funktionelle Beeinträchtigungen verschiedener Lokalisationen können zum gleichen Erscheinungsbild führen. Der Versuch, gestörte Sprachprozesse im Rahmen von Modellen normaler Sprachverarbeitung zu erklären, ist seit Wernicke das vorrangige Ziel neurolinguistischer Forschung. Dabei dienen der möglichst detaillierten Erforschung der Prozesse, die z.B. normaler und gestörter Lesefähigkeit zugrundeliegen, informationsverarbeitende Modelle als theoretisches Werkzeug. Ein Modell ist in diesem Sinne mehr als eine Illustration der jeweiligen Theorie, eine Darstellungsform, die - gemäß den in Kapitel 2 diskutierten Grundannahmen - den Rahmen und die Grenzen der Theorieentwicklung bestimmt. Nachdem die in diesem Rahmen entwickelten Interpretationen verschiedener dyslektischer Phänomene in den vorangegangenen Kapiteln dargestellt worden sind, sollen nun einige der diesem Werkzeug immanenten Grenzen zusammenfassend dargestellt werden. Wie ein Blick auf die Diagramme zeigt, werden die Verarbeitungskomponenten gewöhnlich als etikettierte und mit Pfeilen verbundene Kästchen dargestellt. Zu den Einwänden gegen diese Darstellungsform gehört, wie in Kapitel 2 bereits anklang, die etwas willkürlich scheinende Vermischung von Prozeß- und Speicherkomponenten. Ein Kästchen in einem Diagramm kann je nach Benennung und Bedarf als Zwischenspeicher (z.B. Output Buffer im Logogen-Modell) oder als Dauerspeicher (z.B. Visual-Input-Logogen-System im LogogenModell) dienen. Es kann jedoch ebenso einen Prozeß symbolisieren (z.B. Visual Analysis im Logogen-Modell). Auf diese Weise werden verschiedene Aspekte, die klar voneinander getrennt sein sollten, vermischt. Zur Überwindung dieses Mißstandes wurde eine systematischere Unterscheidung zwischen computational components und buffer systems vorgeschlagen
116 (Caramazza/Miceli/Villa, 1986). Erstere erhalten als Input eine Repräsentationsform und geben als Output eine andere Repräsentationsform weiter, letztere halten jeweils bestimmte Repräsentationsformen fur die weitere Verarbeitung bereit. Bislang hat sich eine solche Systematisierung bei der Konstruktion von Diagrammen allerdings noch nicht durchgesetzt. Ein diesen Mängeln in der „Morphologie" der Modelle verwandtes Problem betrifft die „Grammatik" der Diagramme, denn die Pfeile, die die Kästchen verbinden, symbolisieren unterschiedliche Funktionen. An arrow may indicate a flow of information from one stage of a process to a successive stage, or it may indicate what must be done next, or the fact that one box (a process box) uses the content of another box (a permanent information store box) or finally it may indicate a procedure of transforming the content of one box onto the content of another box. (Parisi/Burani, 1988, 79).
Obwohl sich Zweibahnmodelle als „informationsverarbeitende" Modelle verstehen, beschreiben sie den Vorgang der Informationsverarbeitung nicht als Prozeß im Sinne einer dynamischen Sequenz von Schritten, die von einem Anfangs- zu einem Endpunkt führen. Sie beschränken sich auf die mehr oder weniger (s.o.) dezidierte Beschreibung von Komponenten, Stufen oder Strukturen eines Prozesses. Even in the case in which a model specifies the „levels" that are involved in the execution of a task or the displaying of an ability, (a) it is not clear if these levels are to be interpreted as distinct sequential phases of a process, and in any case, (b) the operations that cause the process to go from one level to the successive level are not described. (Parisi/Burani, 1988, 80)
Weil die beschriebenen Modelle nicht wirklich mformaXionsverarbeitend, d.h. nicht dynamisch sind, läßt sich nicht überprüfen, ob ein Diagramm eine wenn nicht vollständige, so doch in ihren Bestandteilen zutreffende Beschreibung des Leseprozesses darstellt. Zur Überwindung dieses Mißstandes fordern Arbib/Caplan/Marshall (1982, 20): [...] any mechanism, that the theoretician postulates, must be able to perform, demonstrably and formally, the role in which it has been cast. [...] If we demand that mechanisms really be mechanisms, the temptation to invoke a new box or arrow in order to accommodate whatever new data are found when symptomcomplexes fractionate might become easier to resist. (Arbib/Caplan/Marshall, 1982, 20)
Wie in Kapitel 2 im Hinblick auf die Modellentwicklung bereits erwähnt wurde, erfolgt die Modifizierung der Modellvorstellungen auf induktivem Wege, also „post factum" (vgl. Morton, 1979). Die Weiterentwicklung der Modelle erfolgt, wie in Kapitel 3 bis 6 zu erkennen war, auf der Basis neuer Patientendaten und empirischer Analysen. Aus diesem Grund kritisieren z.B. Parisi/Burani (1988, 81) die Zweibahnmodelle als übermäßig data-driven und fordern: „ Theoretical models should be developed and elaborated on the basis of considerations of logic, consistency, completeness, and elegance in addition to suggestions from empirical evidence."
117 Im folgenden soll untersucht werden, inwieweit der Einsatz von Computermodellen den Problemen, die alle bislang beschriebenen Modellvarianten teilen - also Mängel in Morphologie und Grammatik, fehlende Dynamik und Beschränkung auf induktive Schlüsse -, abhelfen kann: Procedural models, expressed as Computer models, necessarily possess the precision and high level of detail that we found lacking in current neuropsychological models. Otherwise the model (the program) will simply not run on the Computer. (Parisi/Burani, 1988, 84).
Diese Erkenntnis haben sich Modellentwickler zu Herzen genommen. Die Modelle, die in diesem Kapitel beschrieben werden, sind unterschiedlicher Provenienz, was einige Vorbemerkungen erforderlich macht. Während die Entwicklung von klassischen, lokalisationstheoretischen und konnektionistischen Modellen, wie sie in Kapitel 1 beschrieben worden ist, eng mit Thesen über die Makrostrukturen des Gehirns verknüpft war, hat sich die Aufmerksamkeit der Neurowissenschaftler in den vergangenen Jahrzehnten den Mikrostrukturen des Gehirns zugewandt: den Neuronen und den Verbindungen zwischen ihnen. Ein Neuron wird dabei als kleinste informationsverarbeitende Einheit verstanden, und das Gehirn ist aus heutiger Sicht ein Netzwerk aus vielen Milliarden solcher Zellen. Jedes Neuron hat eine Eingabeeinheit, den sogenannten Dendriten, und eine Ausgabeeinheit, Axon genannt. Axone leiten über Synapsen, die als Bindeglieder zwischen den Neuronen dienen, Impulse an die Dendriten anderer Neuronen weiter. Jedes einzelne Neuron kann Signale von mehreren tausend anderer Neuronen empfangen und sein Axon kann sich unendlich oft verzweigen und wiederum Signale an mehrere tausend andere Neuronen weiterleiten. Zwei Arten von Signalen erreichen die Neuronen: aktivierende und inhibierende. Wenn bei den Impulsen, die ein Neuron erreichen, die aktivierenden die hemmenden überwiegen, „feuert" das Neuron, was in der Weiterleitung der Aktivierung an andere Neuronen resultiert. Dabei ist die Stärke der Synapsen, die für den Informationsfluß zwischen Neuronen sorgen, variabel. Vorbehaltlich der Dispute über Details besteht Einigkeit über eine allgemeine Konzeption neuronaler Grundlagen kognitiver Prozesse (vgl. Johnson, 1993). Sobald ein neuer Eindruck auf einen Menschen - und auf sein Gehirn - einwirkt, werden viele Neuronen aktiviert, die eine ganz bestimmte Struktur bilden. Ein solcher neuer Eindruck könnte z.B. in der Konfrontation mit einem neuen Gesicht bestehen. Im weitverzweigten „Neuronengeflecht" (vgl. Creutzfeldt, 1983) entspricht nur eine ganz bestimmte Aktivationsstruktur diesem Eindruck. Um diesen Eindruck „behalten" - also sich daran erinnern - zu können, werden die Verbindungen zwischen den beteiligten Neuronen gefestigt. Damit entsteht eine Art Schaltung, die symbolisch den Eindruck repräsentiert. Will man sich an das Gesicht erinnern, wird diese Schaltung bzw. das beteiligte Muster aus Neuronen mittels der Verbindungen/Synapsen zwischen ihnen wieder aktiviert. Möglicherweise ist die Erinnerung an ein nur einmal gesehenes Gesicht verschwommen, weil nicht alle Neuronen des ursprünglichen Musters aktiviert worden sind. Sich häufig wiederholende Eindrücke führen zu zunehmender Verfestigung von Schaltungsmustern, so daß solche Erinnerungen präziser sind. Vereinfacht gesagt, erregt ein Eindruck eine Neuronenkonstellation, die erst durch diesen Eindruck entsteht. Wenn neues
118
Wissen, neue Eindrücke, aufgenommen werden, entstehen neue Neuronenkonstellationen, womit sich auch die „Verkabelung" zwischen den Neuronen verändert. Schon Hebb (1949) glaubte, daß Verhaltensmuster - wie sie etwa an visueller Wahrnehmung beteiligt sind - über die Verbindung bestimmter Zellgruppen zu größeren Verbänden aufgebaut würden. Wenn im Verlauf eines Lernprozesses zwei Neuronen zur gleichen Zeit aktiv werden, dann würde seiner These nach die Verbindung (bzw. Synapse), die zwischen beiden liegt, verstärkt, so daß die Neuronen an den gleichen „Schaltkreis" oder die gleiche Konstellation angeschlossen sind. Auf diese Weise verbinden sich Neuronen zu Neuronenstrukturen, die sich in wiederum größere Strukturen, „neuronale Netze", integrieren. Bereits in Kapitel 1 war auf die Kritik eingegangen worden, die Vertreter einer eher holistischen Perspektive an der vereinfachenden Doktrin der Lokalisationstheoretiker geübt hatten. Zu den Vertretern eines holistischen Konzepts gehörte Jackson und, etwas später, Luria (1973), der die Vorstellung eines dynamisch-funktionellen Systems zerebraler Informationsverarbeitung vertrat. On this view, every behavioral or cognitive process resulted from the coordination of a large number of different components, each roughly localized in different regions of the brain, but all working together in dynamic interaction. Neither Hughlings-Jackson nor Luria is noted for the clarity of his views, but we have seen in their ideas a rough characterization of the kind of parallel distributed processing system we envision. (McClelland/Rumelhart/Hinton, 1988,41)
Auf diesen theoretischen Hintergrund berufen sich heutige Vertreter sogenannter parallelverteilter Netzwerkmodelle (kurz PDP-Modelle genannt). Die Vorstellung eines aktuell beobachtbaren kognitiven Verhaltens als Muster aktivierter Neuronen in einem neuronalen Netz inspirierte diese Entwicklung, die sich die technischen Möglichkeiten moderner Computer zunutze machte. Die künstlichen Neuronen, die in solchen Programmen eingesetzt werden, lassen sich aktivieren oder inhibieren, und über die Verbindungen zwischen ihnen lassen sich Aktivationsmuster erzeugen, die als Analogie zu Neuronenkonstellationen des Gehirns betrachtet werden. Die Grundannahmen solcher Modelle unterscheiden sich in einigen wichtigen Punkten von denen der bislang diskutierten Konzeptionen. Diese Unterschiede betreffen die Vorstellung davon, wie Wissen repräsentiert ist und wie sich Lernprozesse vollziehen. Wenn das Wissen in der Stärke der Verbindungen besteht, dann besteht Lernen darin, die richtigen Verbindungsstärken zu finden, damit unter bestimmten Umständen ein bestimmtes Aktivationsmuster erzeugt werden kann. Der Simulation von menschlichen Lernprozessen in Netzwerkmodellen erfolgt daher durch die Modulation der Verbindungsstärken zwischen den künstlichen Neuronen, und nicht durch die Formulierung expliziter Regeln: „[...] we assume it is the acquisition of connection strengths which allow a network of simple units to act as though it knew the rules." (McClelland/Rumelhart/Hinton, 1988, 32) In den herkömmlichen Modellvorstellungen wurden die Bausteine des Wissens in Speichern aufbewahrt, und der Zugang zu diesem Wissen erfolgte durch Auffinden des jeweiligen Bausteins und der Übernahme einer Kopie oder eines Tokens in einen Arbeitsspeicher.
119
Mit Netzwerkmodellen ist eine andere Vorstellung von Wissensrepräsentation und -abruf verbunden: In these models, the patterns themselves are not stored. Rather, what is stored is the connection strengths between units that allow these patterns to be recreated [...] Using knowledge in processing is no longer a matter of finding the relevant information in memory and bringing it to bear; it is part and parcel of the processing itself. (McClelland/Rumelhart/Hinton, 1988, 31)
Zusammenfassend lassen sich PDP-Modelle in verschiedenen Eigenschaften grundlegend von herkömmlichen Informationsverarbeitungsmodellen (vgl. Dittmann/Blanken/Wallesch, 1988) unterscheiden. PDP-Modelle verzichten auf Boxen oder Komponenten, womit das oben diskutierte Problem unzureichender Spezifizierung entfällt. Die unterschiedlichen Ebenen der Verarbeitung werden stattdessen durch die jeweils betroffenen, neuronenähnlichen Informationseinheiten definiert. Jede Einheit existiert nur einmal, als Typ, und die Verarbeitung erfordert nicht, daß Token in andere Repräsentationsformen überführt und weitergeleitet werden, was das „Grammatik-Problem" herkömmlicher Modelle aufhebt. Stattdessen erfolgt jeweils eine Aktivierung oder Inhibierung der Einheiten. Die neuronenähnlichen Einheiten sind in einem vom jeweiligen Netzwerktyp abhängigen Ausmaß durch eine interaktive Beziehung verbunden, d.h., Aktivierung oder Inhibierung findet nach „oben" und „unten" gleichzeitig statt, was interaktive Aktivation genannt wird und eine Möglichkeit zur Modellierung der wechselseitigen Beeinflussung verschiedener Prozesse erlaubt. Mangelnder Mut zur Deduktion ist - wie die Computer-Gehirn-Analogie nahelegt - ebenfalls kein Problem dieser Modelle. Auf diese Weise ist eine Modellgeneration entstanden, die mit keinem der oben aufgezählten Probleme der herkömmlichen informationsverarbeitenden Modelle befrachtet ist. Die informationsverarbeitenden Modelle vom Typ des Logogen-Modells haben ihre Wurzeln im Konnektionismus des 19. Jahrhunderts. Da diese Modelle in Kapitel 1 als in einem dort definierten Sinne als konnektionistisch gekennzeichnet wurden, und auch PDP-Entwürfe als konnektionistische Modelle gehandelt werden, ist an dieser Stelle eine Unterscheidung zwischen zwei Spielarten des Konnektionismus erforderlich. There are two varieties of connectionism, localist and distributed. In localist connectionism representations of a linguistic system, the individual units correspond to linguistic entities and concepts. In distributed connectionism, each linguistic entity or concept is „distributed" over many units such that the sets of units „embodying" different linguistic entities and concepts do not have to be completely distinct but may share some of their units. (Schnelle, 1989, 149)
Die informationsverarbeitenden Modelle, die in Kapitel 1 dem Konnektionismus der zweiten Generation zugerechnet worden sind, halten auch in ihrer rechnergängigen Form (vgl. Kapitel 7.3) an der Unterscheidung unterschiedlicher (und modularer) Komponenten fest. It is entirely possible for a serial-processing stage model [...] to be implemented through a number of PDP systems, each of which specifies a set of activations and inhibitions of items at each of the processing stages specified in the model. (Caplan, 1988, 339)
120 In diesem Sinne könnte von einem „lokalisationstheoretischen" Konnektionismus gesprochen werden, womit sich ein Kreis, der mit den frühen Lokalisationstheoretikern in Kapitel 1 eröffnet wurde, schließt. Die konnektionistischen Modelle der dritten Generation - die auch neokonnektionistisch genannt werden - nutzen die Assoziation - oder „Konnektion" - zwischen den Einheiten als grundlegendes Element der Informationsverarbeitung, wobei die Bestandteile des Wissens in stärkerem Maße „verteilt" sind. The basic psychological element of this model is the association. The aim of the model is to demonstrate that many different associations can be carried in parallel by connections between one set of input and another set of output neurons. (Shallice, 1988, 246)
In Kapitel 2 war die Bedeutung von einfachen und doppelten Dissoziationen für die Modellund Theorieentwicklung diskutiert worden. Daher liegt die Frage nahe, wie sich Dissoziationen mit neokonnektionistischen Modellen vertragen. Während die Möglichkeit einer Dissoziation in Kapitel 2 mit der Hypothese isolierter Störbarkeit autonomer Verarbeitungskomponenten verknüpft worden war, gibt es in einem neokonnektionistischen Modelltyp keine solchen Entitäten mehr. Für einfache Dissoziationen gilt im Rahmen solcher Modelle, daß sie aus strukturellen Gründen stets auf parallelem Input basieren. Eine einfache Dissoziation läßt sich daher folgendermaßen illustrieren: [...] two different tasks, A and B, may not be performed by means of different stages, but rather by a single set of elements with different levels of activation. Suppose the existence of three elements x, y, and z (which may be, for example, groups of neurones); task A may be performed with such levels of activations as x = 80 %, y = 20 %, z = 80 %, whereas task B may be performed with x = 20 %, y = 80 %, z = 20 %. (Sartori, 1988, 78)
Über die Frage, ob neokonnektionistische Modelle doppelte Dissoziationen zulassen, herrscht keine Einigkeit (vgl. Plaut/Shallice, 1993). Wood (1978, 1982) hat sich jedoch bemüht, die Möglichkeit doppelter Dissoziationen in einem Netzwerk zu belegen. Seine Argumentation basiert auf der Annahme, daß in einem verteilten Netzwerk bestimmte Gruppen von künstlichen Neuronen für die Verarbeitung eines bestimmten Inputs oder die Produktion eines bestimmten Outputs besonders spezialisiert sein können, z.B., wenn ein Netzwerk mehr als eine Form von Input - etwa auditorischen und visuellen - akzeptiert. Selbst wenn die Einheiten, die den visuellen Input verarbeiten, eine Rolle spielen, die der Funktion aller anderen Einheiten etwa der für den auditorischen Input spezialisierten - äquivalent ist, so spielen sie doch für die Verarbeitung des visuellen Inputs, für dessen Aufnahme sie zuständig sind, offensichtlich eine überproportional wichtige Rolle. Wenn nun diese Einheiten geschädigt werden, sind die Auswirkungen auf visuelle Aufgaben sehr viel stärker als die Folgen für Aufgaben, die auf auditorischem Input basieren. Da auch der umgekehrte Fall - die selektive Schädigung der auf auditorischen Input spezialisierten Einheiten - eintreten kann, scheinen doppelte Dissoziationen grundsätzlich auch in parallelverteilten Netzwerken denkbar zu sein.
121 Da die Entwürfe, die im folgenden diskutiert werden, durch ihren derzeitigen Entwicklungsstand bedingt, jeweils nur die Entsprechung einer „Route" der bislang diskutierten Modelle abbilden, spielt die Frage potentieller doppelter Dissoziationen in diesem Zusammenhang eine untergeordnete Rolle. Kapitel 7.2 versucht aufzuzeigen, wie der Prozeß phonologischen Lesens in einem neokonnektionistischen PDP-Modell simulierbar ist. Kapitel 7.3 illustriert den Versuch, die Grundannahmen herkömmlicher informationsverarbeitender Modelle mit den Erfordernissen computergängiger Explizitheit zu vereinbaren. Kapitel 7.4 ist der parallelverteilten Simulation semantischen Lesens gewidmet. Bei der Beschreibung der Modelle werden, wie zuvor eingeräumt werden muß, mathematische und informationstheoretische Subtilitäten ignoriert. Für eine weiterreichende Darstellung der Prinzipien parallelverteilter Informationsverarbeitung sei auf die zweibändige „Bibel der Parallelverarbeitung" von Rumelhart, McClelland und der PDP-Group (1. Auflage 1986) verwiesen.
7.2 Phonologisches Lesen im Rahmen eines PDP-Modells Seidenberg/McClelland (1989a, b) interpretieren die phonologischen Prozesse beim Lesen einzelner Wörter fundamental anders als die bisher diskutierten Konzeptionen und ziehen damit zentrale Annahmen des Dual-Route-Ansatzes in Zweifel (vgl. Besner/Twilley/McCann/ Seergobin, 1990). Our model, and others like it, offers an alternative that dispenses with this two route view in favor of a single system that also seems to do a better job of accounting for the behavioural data. (Seidenberg/McClelland, 1989b, 564)
Seine Realitätsnähe will dieses neokonnektionistische Modell demonstrieren, indem es die Verhaltensbeobachtungen an normalen Lesern (die u.a. in Kapitel 3.2.1 diskutiert worden sind) ebenso integriert wie Erkenntnisse aus dem Bereich des Schriftspracherwerbs. Auf der Basis eines solches Erklärungswerts für „normale" Phänomene will es auch Hinweise für die Deutung von Störungen des Lesens - von entwicklungsbedingten Dyslexien (die hier nicht diskutiert werden) und erworbenen Dyslexien (vgl. 7.2.2.) - geben. Am Erkennen visuell präsentierter Wörter sind im Rahmen dieses parallelverteilten Modells drei kaskadenartig angeordnete Prozesse beteiligt. Der phonologische Code für die präsentierte Buchstabenkette muß verarbeitet werden, der auf dieser Basis errechnete phonologische Code muß in Befehle für die Artikulationsmotorik umgesetzt werden, bevor es schließlich zur Artikulation des Verarbeitungsergebnisses kommen kann. Das vorliegende Modell simuliert nur den ersten dieser drei Prozesse. 7.2.1 Grundannahmen und Strukturprinzipien Das lexikalische Wissen dieses PDP-Modells besteht nicht aus Einträgen für einzelne Wörter. Das Wort-Wissen ist in der Stärke der Verbindungen zwischen den Einheiten, die für die Ver-
122 arbeitung von Graphemen und Phonemen zuständig sind, enthalten. Die Schreibweise, die Aussprache und die Bedeutung von Wörtern sind nicht in separaten Speichern aufgelistet, weshalb lexikalisches Verarbeiten nicht den Zugriff zu Speichern erfordert: Rather, these codes are computed from the input string using the knowledge stored in the network structure, which results in the activation of distributed representations. Thus, the notion of lexical access does not play a central role in our model, because it is not congruent with the model's representational and processing assumptions (Seidenberg/McClelland, 1989a, 298).
In diesem Punkt mit dem analogietheoretischen Konzept übereinstimmend, nehmen Seidenberg und McClelland (1989a, 294) an, „ that there is a single, uniform procedure for computing a phonological representation that is applicable to exception words and nonwords as well as regular words. "
1 MAKE
/mAk/
Abbildung 7.1 Abbildung 7.1 zeigt einen groben Aufriß des Modells (aus: Seidenberg/McClelland, 1989b, 526). Die stark umrandeten Ovale stehen für die implementierten Bestandteile des Modells, die aus 1060 künstlichen, in drei Schichten angeordneten Neuronen bestehen. Die Neuronen der Eingangsschicht sind auf die Kodierung des orthographischen Inputs spezialisiert, die der Ausgangsschicht sind für die Kodierung des phonologischen Outputs zuständig. Die Neuronen der mittleren, „unsichtbaren" Schicht übernehmen die Mittlerrolle zwischen den beiden anderen Schichten. Diese sogenannten „ hidden units " haben eine wichtige Funktion, indem sie die Zahl möglicher Verbindungen zwischen den Einheiten der beiden anderen Schichten vervielfachen. „Unsichtbar" ist diese Schicht, weil sie zwischen sichtbarem Input und sichtbarem Output vermittelt, ohne daß die Struktur der Verbindungen genau zu
123 erkennen wäre. Die neuronenähnlichen Einheiten sind durch 252.000 Synapsen miteinander verbunden. Dabei sind die 400 Einheiten der Eingangsschicht durch 80.000 Verbindungen mit den Einheiten der unsichtbaren Schicht verbunden. Weitere 80.000 Verbindungen verknüpfen die Einheiten der unsichtbaren Schicht mit denen der Eingangsschicht, was ein Feedback von der unsichtbaren Schicht aus ermöglicht. Für eine Feedforward-Verknüpfung der Einheiten der unsichtbaren Schicht mit denen der Ausgangsschicht sorgen nochmals 92.000 Verbindungen. Anfangs haben alle diese Verbindungen zufällige Gewichtungen, weshalb das Netzwerk zunächst ein strukturloses Gebilde ist. Die künstlichen Neuronen sind (wie es auch für natürliche Nervenzellen angenommen wird) für bestimmte Aufgaben spezialisiert, d.h., jede einzelne Einheit ist für eine bestimmte Form der Verarbeitung eines bestimmten Inputs prädestiniert. Die 400 Einheiten der Eingangsschicht haben eine tabellarische Struktur aus drei Positionen, wobei jede Einheit aus einer Liste von 10 möglichen ersten Buchstaben, einer Liste aus 10 möglichen zweiten Buchstaben und einer Liste aus 10 möglichen dritten Buchstaben besteht. Die Erstellung dieser Tabellen für jede Einheit erfolgt durch ein Zufallsprinzip. Das Buchstabeninventar konstituiert sich aus allen Buchstaben des Alphabets zuzüglich eines Symbols für Wortgrenzen. Damit kann jede orthographische Einheit 1.000 mögliche Dreier-Kombinationen von Buchstaben identifizieren. Die Aktivierung einer Einheit zeigt an, „that one of the 1.000 possible triples that could be made by selecting one member from the first list of 10, one from the second, and one from the third is present in the string being presented" (Seidenberg/ McClelland, 1989b, 528). Der Buchstabenstrang MAKE aktiviert beispielsweise die dreistelligen Buchstabenkombinationen _MA, MAK, AKE, and KE_ (wobei _ das Symbol für Wortbeginn oder Wortende ist). Eine der Eingangsschicht präsentierte Buchstabenkette aus drei Zeichen aktiviert durchschnittlich 20 orthographische Einheiten. Die Wahrscheinlichkeit, daß zwei verschiedene Buchstabenketten das gleiche Muster von Input-Einheiten aktivieren, liegt nahe Null. Die Netzwerk-Entsprechung eines Inputs besteht also aus einem charakteristischen Aktivationsmuster der Eingangsschicht. Die 460 Einheiten der Ausgangsschicht haben eine etwas andere Struktur: jede Einheit repräsentiert nur eine dreistellige Konstellation von Merkmalen, „ one feature of the first of the three phonemes in each triple, one feature of the second of the three, and one of the third" (Seidenberg/McClelland, 1989b, 528). Aus dem Aktivationsmuster der Ausgangsschicht läßt sich das Leseergebnis ablesen. The system takes letter strings as input and produces two kinds of output: a pattern of activation across the phonological units, and a recreation of the input pattern across the orthographic nodes (Seidenberg/ McClelland, 1989a, 259)
Jede Wortverarbeitung im Netzwerk beginnt mit der Präsentation eines Buchstabenstrangs, der durch das Simulationsprogramm als über die orthographischen Einheiten verteiltes Aktivationsmuster enkodiert wird. Auf dieser Basis erfolgt die Aktivation der verborgenen Einheiten. Nachdem die Verteilung der Aktivationen in der unsichtbaren Schicht berechnet worden ist, dient dies als Basis fur die Feedforward-Aktivation der phonologischen Einheiten und die Feedback-Aktivation der orthographischen Einheiten (vgl. Seidenberg/McClelland, 1989a, b).
124 Das erste Aktivationsmuster kann man sich als Erarbeitung des phonologischen Codes für eine Buchstabenkette vorstellen, während das zweite Muster einen Indikator für die Vertrautheit der Buchstabenkette darstellt. Auf der Fähigkeit des Netzwerks, diese beiden Typen von Aktivationsmustern zu produzieren, basieren die zu diskutierenden Leistungen beim Erkennen präsentierter Buchstabenketten. Zu Beginn werden den Verbindungen zwischen den Einheiten der drei Schichten zufallige Werte zugewiesen. Zu diesem Zeitpunkt erfolgen die Reaktionen auf den Input völlig willkürlich. Die Fähigkeit des Netzwerks, in Reaktion auf einen präsentierten Buchstabenstrang das richtige orthographische und phonologische Aktivationsmuster zu produzieren, entwickelt sich durch ein Training. Dabei wird dem Netzwerk eine Buchstabenkette präsentiert, worauf es mit den beschriebenen, noch willkürlichen, beiden Aktivationsmustern reagiert. Die beiden solcherart erzeugten Muster werden mit den richtigen, angestrebten Aktivationsmustern verglichen. The target for the Orthographie feedback pattem is simply the Orthographie input pattern; the target for the phonological Output is the pattem representing the correct phonological code of the presented letter string. (Seidenberg/McClelland, 1989b, 527)
Auf der Grundlage dieses Vergleichs werden die Gewichte der Verbindungen proportional zur Abweichung des tatsächlichen Outputs vom Ziel-Output neu gesetzt. Hierzu dient ein Rücklaufschema (eine sogenannte backpropagation rule), so daß die resultierende Anpassung der Verbindungsstärken allmählich zu den Zielmustern immer ähnlicheren Aktivationsergebnissen führt. Dem Training dient ein Corpus aus 2.897 einsilbigen englischen Wörtern, wobei die Länge der Stimuli zwischen drei und sieben Buchstaben schwankt. Die Frequenz, mit der diese Stimuli in der Zählung von Kucera/Francis (1967) auftraten, bewegte sich zwischen 0 und 69.971. Die Wörter wurden nach den in Kapitel 3.2.1 bereits diskutierten Kriterien von orthographischer Regularität, Konsistenz und Frequenz in Kategorien geordnet. Ein hochfrequentes irreguläres Wort ist beispielsweise foot, ein niedrigfrequentes irreguläres Wort ist pint. In der Kategorie inkonsistenter regulärer Stimuli ist base ein hochfrequentes und brood ein niedrigfrequentes Item. Als Beispiele für hoch- und niedrigfrequente Stimuluswörter, die graphotaktisch ungewöhnlich (stränge) sind, lassen sich sign und aisle anführen. Die Test-Items sind in die dichotomen Kategorien hoher vs. niedriger Frequenz eingeteilt, obwohl Frequenz tatsächlich eine kontinuierliche Variable ist (was auch für die Kategorien von Regularität und Konsistenz gilt). Das Training des Netzwerks erfolgte in 250 Durchgängen. Bei jedem Durchgang wurde dem Modell eine Zufallsauswahl von 450 bis 550 Wörtern vorgelegt, wobei die Wahrscheinlichkeit, daß ein Wort in der Zufallsauswahl enthalten war, von seiner Auftretenshäufigkeit im normalen Wortschatz abhing. Demzufolge lag die Wahrscheinlichkeit für das häufigste Wort, the, bei 0,93, während die seltensten Wörter mit einer Wahrscheinlichkeit von etwa 0.09 in der Wortauswahl eines Trainingsdurchgangs vorkamen. Nach abgeschlossenem Training hat das Netzwerk „ a set of weights" gefunden, das es ihm ermöglicht, für jedes vorgegebene Wort das optimale orthographische und phonologische Aktivationsmuster zu produzieren. Das
125 Leistungsvermögen des solcherart trainierten Netzwerks soll - im Rahmen der eingangs geschilderten Beschränkungen - das Verhalten „normaler Versuchspersonen" im Umgang mit visuell präsentierten Wörtern simulieren. Da das Netzwerk im Gegensatz zu Versuchspersonen nicht sprechen kann und auch keine einzelne Phonemkombination, sondern nur zwei Aktivationsmuster als Ergebnis präsentiert, mußte ein Maßstab für die Beurteilung dieser Muster entwickelt werden. Die angestrebten, korrekten Output-Muster wurden definiert als ein Aktivationswert von 0,9 für alle Outputunits, die „an" sein sollten, und einen Aktivationswert von 0,1 für alle Output-units, die „aus" sein sollten. Anhand dieses Maßstabs wurde für jede Reaktion des Netzwerks abgeglichen, ob der jeweils produzierte Output dem Ziel-Output entspricht. Dabei wurde ein sogenanntes Beatenby-Yjnlenwm benutzt, d.h., eine Reaktion wurde als falsch bewertet, wenn das Zielmuster von irgendeinem anderen Muster überboten wird. Außerdem wurde für jede Reaktion ein error score errechnet, der ein Indikator für die Sicherheit der Entscheidung ist. Nach Ablauf der 250 Durchgänge konnte das Netzwerk fast alle Wörter des Corpus richtig „erkennen" (indiziert durch das Feedback-Muster der orthographischen Einheiten) und „lesen" (erkennbar am Feedforward-Muster der phonologischen Einheiten). Bei 77 Wörtern (2,7 % des Corpus) wich die Reaktion des Netzwerks vom Zielmuster ab. In einigen Fällen bestanden die Fehler in Regularisierungen, etwa im Fall von spook. Hier produzierte das Netzwerk [ s p u k ] (analog zu book) statt [ s p u k ] . Regularisierungsfehler betrafen ausschließlich sehr niedrigfrequente Items, also Wörter, die dem Netzwerk im Trainingsverlauf nur selten präsentiert worden waren. In 25 Fällen produzierte das Netzwerk falsche Vokalrepräsentationen, etwa im Fall von beau [ b u ] . Dieser Fehlertyp war am häufigsten zu beobachten, was auf die besondere Rolle der Vokale für die Ambiguitäten in der Zuordnung der Orthographie zur Phonologie zurückgeführt wird. Es waren jedoch fast ebenso häufig Fehler bei Konsonanten zu verzeichnen, wenn etwa bei gel, gin und gist als Anlaut [ g ] produziert wurde (während jedoch im Fall von gene und gem die Entscheidung für den richtigen Anlaut, /d3/, fiel). Wie in Kapitel 3.2 geschildert, lassen sich in Studien an normalen Versuchspersonen in Abhängigkeit vom Worttyp unterschiedliche Latenzzeiten beobachten. Die für die Worterkennung bei Normalpersonen relevanten Dimensionen waren neben der Frequenz u.a. Regularität vs. Irregularität und Konsistenz vs. Inkonsistenz, wobei diese Kategorien nicht als Dichotomie, sondern als Kontinuum aufzufassen sind. Dem Vergleich des Netzwerk-Verhaltens mit den Ergebnissen aus Studien an Normallesern diente eine hypothetische Gleichsetzung von error scores des Netzwerks mit Latenzzeiten normaler Versuchspersonen. Unter dieser Vorannahme ergaben sich deutliche Parallelen. So zeigte das Netzwerk, wie die Teilnehmer an Latenzstudien, einen deutlichen Frequenzeffekt (d.h., häufige Wörter können schneller bzw. mit geringerem Error-Score gelesen werden). Throughout the training there is a frequency effect: The model performs better on the words to which it is exposed more often [...] Early in training, there are large regularity effects for both high- and low-frequency items; in both frequency classes, regular words produce smaller error terms than do exception words. Additional training reduces the exception effect for higher frequency words, to the point where it is
126 eliminated by 250 epochs. However, the regularity effect for lower frequency words remains. (Seidenberg/ McClelland, 1989b, 534)
Studien an erwachsenen Lesern haben eine vergleichbare Wechselwirkung von Worthäufigkeit und Regularität bzw. Konsistenz ergeben. Inkonsistente Wörter führten nur dann zu längeren Latenzzeiten, wenn sie niedrigfrequent waren. Bei niedrigfrequenten Wörtern ergab sich, wie die Studien von Taraban/McClelland (1987) und Seidenberg/Waters/Barnes/Tanenhaus (1984) zeigten, ein statistisch signifikanter Unterschied der Latenz von konsistenten und inkonsistenten Wörtern, der bei hochfrequenten Wörtern beider Kategorien verschwand.
Mean naming Latency (msec)
High
Low
Frequency
Mean squared Error
High
Low
Frequency
Abbildung 7.2 Das vorliegende Modell bietet eine bedenkenswerte Erklärung für die beobachtbaren (und im Modell replizierbaren) Auswirkungen von Frequenz, Regularität und Konsistenz. Die genannten Effekte lassen sich demnach auf den Umstand zurückführen, daß die Verbindungen zwischen den Einheiten, die an der Produktion hochfrequenter, regulärer und konsistenter Items beteiligt sind, stärker sind als die der niedrigfrequenten, irregulären und inkonsistenten Items. Der allgemeine Vorteil hochfrequenter Items beruht demnach auf ihrer häufigen Dar-
127 bietung. Der Vorteil regulärer, konsistenter Wörter basiert darauf, daß sie zum Großteil dieselben Verbindungen benutzen wie ihre ebenfalls regulären und konsistenten Nachbarn. In einer Studie haben Waters/Seidenberg (1985) an normalen Versuchspersonen die Latenzen für Wörter untersucht, die sie „ stränge " nannten. Dabei handelte es sich um Items wie corps, die keine oder wenig Nachbarn hatten, und sowohl graphotaktisch ungewöhnlich waren als auch irreguläre phonologische Repräsentationen hatten. Die Latenzen solcher Eremiten (vgl. 3.2.1) wurden - nach einer Aufteilung der Items in hoch- und niedrigfrequent - mit denen für reguläre, konsistente und irreguläre, inkonsistente (die bei Waters/Seidenberg Exception heißen) verglichen. Diese Studie wurde mit dem gleichen Corpus im Netzwerk simuliert. Aus Abbildung 7.2 (aus: Seidenberg/McClelland, 1989b, 538) läßt sich die Ähnlichkeit der Reaktionen von Versuchspersonen und Modell ablesen. Zur Überprüfung des Umgangs des Netzwerks mit NichtWörtern wurde ein in Kapitel 3 ebenfalls bereits erwähnte Experiment Glushkos simuliert. Dazu wurden dem Netzwerk NichtWörter präsentiert, die Glushko von konsistenten (regulären) und inkonsistenten (irregulären) Wörtern abgeleitet hat. So wurde nust vom regulären, konsistenten must und mave vom irregulären, inkonsistenten have abgeleitet. Das Modell verhielt sich wie die Versuchspersonen, indem die Nachbarschaft eines inkonsistenten Wortes kaum Auswirkung auf die Produktion eines regulären (und hochfrequenten) Items hatte, während sich bei NichtWörtern mit inkonsistenter Nachbarschaft signifikante Effekte erkennen ließen. Dies zeigt zugleich, daß ein auf die geschilderte Weise trainiertes Netzwerk nicht nur die Wörter lesen kann, mit denen es trainiert worden ist, sondern auch fremde Wörter sowie Nichtwörter: [...] it shows that Performance generalizes to new items; the knowledge that was acquired on the basis of exposure to a pool of words can be used to generate plausible Output for novel Stimuli. (Seidenberg/McClelland, 1989b, 540)
7.2.2 Simulation von Aspekten dyslektischen Lesens Wenn ein Modell die Beobachtungen an normalen Lesern offenbar bemerkenswert gut repliziert, liegt die Frage nahe, ob eine Schädigung des Netzwerks zu einem Leistungsprofil führt, das dem von Dyslektikern ähnelt. Beim derzeitigen Entwicklungsstand parallelverteilter Verarbeitungsmodelle sind die Simulationsmöglichkeiten in vielerlei Hinsicht eingeschränkt. Das Modell bewältigt nur einsilbige Wörter und enthält noch keinen Mechanismus für die Produktion phonologischer Repräsentationen. Bislang verfügt es über keinerlei semantisches Wissen, womit auch die Berücksichtigung von Kontexteinflüssen ausgeschlossen ist. Eine nicht zu unterschätzende Einschränkung der Möglichkeiten, erworbene Dyslexien zu simulieren, besteht in der fehlenden Übereinstimmung über die entscheidenden Charakteristika der verschiedenen Dyslexieformen und ihre funktionellen Ursachen. Für Simulationsversuche im Rahmen des vorstehend dargestellten Modells kommen - da semantische Repräsentationen fehlen - nur Teilaspekte des Leseverhaltens bei Oberflächendyslexie und phonologischer Dyslexie in Frage.
128 Da die Stärke der Verbindungen, die in den 250 Lerndurchgängen entstanden sind, die Grundlage für die „normale" Lesefähigkeit des Modells bildet, können Läsionen simuliert werden, indem die Zahl der Verbindungen reduziert wird. Seidenberg/McClelland (1989a) haben untersucht, welche Folgen verschiedene derart destruktive Eingriffe für das Leistungsvermögen des Modells haben. Zu den Schädigungsformen gehörte die Entfernung von Verbindungen zwischen den Einheiten der Eingangsschicht und denen der unsichtbaren Schicht, die Entfernung von Verbindungen zwischen Einheiten der unsichtbaren Schicht und denen der Ausgangsschicht, sowie die Reduktion des Outputs der Einheiten der unsichtbaren Schicht. Variiert wurde bei diesen Schädigungsarten jeweils das Ausmaß der Beeinträchtigung, d.h., der Anteil der entfernten Verbindungen. In allen Fällen wirkte sich die Schädigung stärker auf irreguläre Wörter und NichtWörter als auf reguläre Wörter aus. Obwohl die Leistungen bei regulären Wörtern bei Schädigung des Netzwerkes schlechter werden (indem der error score größer wird), kommt es selten vor, daß das Aktivationsmuster der Ausgangsschicht nicht dem der regulären Aussprache entspricht. Bei irregulären und inkonsistenten Wörtern zeigt das Modell ein anderes Verhalten. Hier gilt für einen signifikanten Anteil von Items (wie groß der Anteil ist, hängt vom Ausmaß der Schädigung ab), daß [...] the best fit to the computed Output is not the correct, exceptional pronunciation. In most of these cases the best fit is provided by the regularized pronunciation; for a word such as deaf, for example, the computed Output more closely approximates / d E f / than / d e f / . In other cases the best fit is provided by a pronunciation that is systematically related to the correct one but is not a strict régularisation. (Seidenberg/ McClelland, 1989a, 295)
Die Autoren nehmen einstweilen nur zu einem, wenn auch wesentlichen Aspekt oberflächendyslektischen Leseverhaltens Stellung. Sie zeigen, daß zur Erklärung besserer Leistungen bei regulären Wörtern als bei irregulären und inkonsistenten Wörtern nicht notwendig separate lexikalische und nicht-lexikalische Verfahren angenommen werden müssen. Die zugrundeliegende Vorstellung ist, daß Items mit regulären orthographisch-phonologischen Korrespondenzen über robustere Verbindungen verfügen als irreguläre und inkonsistente Wörter. Deshalb haben Schädigungen des Systems zwar eine Leistungsminderung bei allen Arten von Stimuli zur Folge, beeinträchtigen aber besonders das Erkennen irregulärer Wörter. Eine weitere Beobachtung betraf die Lexikalisierung von NichtWörtern, die in Kapitel 6 als Aspekt des Leseverhaltens phonologischer Dyslektiker erwähnt worden war. Das System wurde in geschädigtem Zustand mit NichtWörtern wie nust konfrontiert. Während das Netzwerk in ungeschädigtem Zustand für viele NichtWörter plausible Ergebnisse erzeugt, zeigt es nach der Schädigung eine Tendenz zur Lexikalisierung dieser Items. Die Reaktion ist in solchen Fällen ein dem Nichtwort orthographisch und phonologisch ähnliches Wort. Das phonologische Aktivationsmuster für nust ist beispielsweise näher an [ m u s t ] als an [ n u s t ] . Auch hier betrifft die Simulation nur einen Teilaspekt, weshalb keine weitreichenden Schlußfolgerungen möglich sind:
129 Damage to the network can produce a number of these errors, but it remains to be determined whether we can obtain a pattern of Performance that closely fits the profiles of phonological dyslexic patients. (Seidenberg/McClelland, 1989,296)
7.2.3 Einschätzung Seidenberg/McClellands parallelverteiltes Modell visueller Wortverarbeitung ist in der Lage, ein breites Spektrum der in Kapitel 3.2 diskutierten Befunde an Normallesern zu integrieren. Das Modell scheint auf die Faktoren Frequenz, Regularität und Konsistenz von Items in einer Weise zu reagieren, die dem Verhalten normaler Versuchspersonen ähnelt. Dies räumen auch Besner/Twilley/McCann/Seergobin (1990) in ihrer Kritik ein. Dennoch wehren sie sich nicht nur gegen Seidenberg/McClellands Angriff auf zentrale Annahmen traditioneller Wortverarbeitungsmodelle - was den Verzicht auf Lexika und die Beschränkung auf nur ein Verfahren für reguläre und irreguläre Wörter betrifft -, sondern kritisieren auch Mängel in der Leistungsfähigkeit des Modells, was NichtWörter betrifft. Wird ein anderes Corpus von NichtWörtern verwandt, zeigt sich deutlich, daß das Modell NichtWörter weniger gut lesen kann als Versuchspersonen. Dies gilt besonders für NichtWörter, die kaum oder keine Nachbarn unter den Wörtern des Trainingscorpus haben. Bei solchen Items sinkt die Trefferquote des Modells auf 59 % ab, während normale Versuchspersonen 94% der Stimuli bewältigen (vgl. Besner/Twilley/McCann/Seergobin, 1990). Seidenberg/McClelland halten diesem Einwand den Verweis auf den begrenzten Wortschatz ihres Modells entgegen. Während sich der Wortschatz normaler Versuchspersonen im Bereich von ca. 30.000 ein- und mehrsilbigen Wörtern bewegt, kennt das Modell nur 2.897 einsilbige Wörter. Dieser Faktor begrenzt das Leistungsvermögen bei NichtWörtern, denn die Leistungen, die das Modell beim Erkennen eines Items zeigt, hängen in hohem Maße davon ab, wie oft das betreffende Item im Trainingsverlauf aufgetaucht ist. Auch Nachbarn, die den gleichen Body haben, beeinflussen die Leistung. Mit sinkender Frequenz eines Wortes im Trainingscorpus nimmt die Abhängigkeit von Nachbarn zu. Bei NichtWörtern, die das Modell im Training nicht kennengelernt hat, hängt die Leistung ausschließlich von den Nachbarn ab. Somit hat der begrenzte Umfang des Trainingscorpus zwar nur geringen Einfluß auf das Lesen von Wörtern, aber großen Einfluß auf das Lesen von NichtWörtern (vgl. Seidenberg/McClelland, 1990). Den Simulationsversuch von Seidenberg/McClelland (1989a, b) bedenken Coltheart/Curtis/Atkins/Haller (1993, 594) mit vernichtender Kritik: ,,This attempt was not successful." Ihrer Auffassung nach produziert das geschädigte PDP-Modell einerseits nicht genug Regularisierungsfehler und zeigt andererseits unzureichende Leistungen bei NichtWörtern. Die Hintergründe für dieses harte Urteil werden deutlicher, wenn der Blick auf die dieser Kritik zugrundeliegende Interpretation der Oberflächendyslexie und der phonologischen Dyslexie fällt. Zur Oberflächendyslexie bemerken Coltheart/Curtis/Atkins/Haller: „[...]the Interpretation of this form of acquired dyslexia is very straightforward: The lexical route is damaged and the non-lexical route is relatively spared" (1993, 591). Es sei an dieser Stelle zunächst daran
130 erinnert, daß die Erörterung der Phänomene oberflächendyslektischen Lesens und ihrer funktionellen Ursache eher zu komplizierten Überlegungen als zu umkomplizierten Interpretationen Anlaß geboten hatten (vgl. Kap. 3). Als Kronzeugen dieser Argumentation werden zwei Patienten bemüht, die in Kapitel 4 dieser Arbeit unter der Überschrift „Semantische Dyslexie" beschrieben worden sind. Da sich semantische Dyslektiker in einer in Kapitel 4 näher beschriebenen Weise von Oberflächendyslektikern unterscheiden, ist der Vergleich der Simulation von Teilaspekten oberflächendyslektischen Lesens mit dem beobachteten Verhalten der genannten Patienten nicht aussagekräftig. Obwohl Coltheart/Masterson/Byng/Prior/ Riddoch (1983) die Auffassung vertreten haben, daß überlegene Leistungen bei Wörtern mit regulärer Schreibung im Vergleich zu Wörtern mit irregulärer Schreibung das Schlüsselsymptom der Oberflächendyslexie und also „necessary and sufficient for the diagnosis of surface dyslexia" seien (1983, 485), nehmen die Kritiker nicht zum interessanten Kern von Seidenberg/McClellands Simulationsversuch Stellung: zu ihrer plausiblen Erklärung der größeren Störungsanfälligkeit irregulärer, inkonsistenter Wörter im Vergleich zu regulären, konsistenten Wörtern. Mit ähnlichen Widerhaken sind auch die Einwände gegen Seidenberg/McClellands Überlegungen zur phonologischen Dyslexie bestückt. The interpretation of this form of acquired dyslexia in terms of the dual route model is of course very straightforward: The nonlexical route is damaged and the lexical route is relatively spared. (Coltheart/Curtis/ Atkins/Haller, 1993, 591)
Diese Argumentation stützen sie auf das Leistungsmuster des in Kapitel 6 bereits beschriebenen Patienten W.B. Die Aussagekraft dieser Beobachtungen war dort wegen der ausgeprägten modalitätsübergreifenden Störung dieses Patienten als zweifelhaft eingestuft worden. Zudem hatten Seidenberg/McClelland keineswegs den Anspruch erhoben, ein Leistungsmuster simulieren zu können, das in toto dem eines phonologischen Dyslektikers gleicht, da ihr Modell über keinerlei semantisches Wissen verfugt. Deshalb verfehlt der von Coltheart/Curtis/Atkins/ Haller angestellte und auf semantische Einflüsse zielende Vergleich zwischen dem Leistungsmuster eines wegen seiner expressiven Sprachstörung eher untypischen phonologischen Dyslektikers und dem Simulationsversuch sein Ziel. Daher mindert dieser Einwand nicht die Relevanz von Seidenberg/McClellands Beobachtung, daß das Modell nach Schädigung eine Tendenz zur Lexikalisierung von NichtWörtern zeigt. Insgesamt scheint die Kritik von Coltheart, Curtis, Atkins und Haller (1993) auf pikante Weise eine Beobachtung zu illustrieren, die Seidenberg und McClelland als Hindernis für Dyslexie-Simulationen anführen: ,,[... Jwe do not have a solid account of the acquired dyslexias " (1989, 299). Da das Modell bei der Simulation des Lesens verschiedener Typen einsilbiger Wörter insgesamt ein Leistungsmuster zeigt, das eine bemerkenswerte Annäherung an die Ergebnisse aus Studien an Normallesern darstellt, möchte man Seidenberg/McClellands Resümee beipflichten:
131 Obviously many questions remain to be addressed, and it is a daunting challenge to accommodate the entire range of phenomena associated with the acquired dyslexias (Seidenberg/McClelland, 1989a, 296).
7.3 Phonologisches Lesen im Rahmen eines DRC-Modells Wenn Anhänger von Dual-Route-Konzeptionen nachweisen wollen, daß ihr Konzept die Prozesse normalen und gestörten Lesens realitätsnäher abbildet als die oben beschriebene PDPKonkurrenz, ist eine technische Aufrüstung papierener Flußdiagramme erforderlich. The PDP-model of Seidenberg and McClelland has two highly desirable features that the dual-route model currently lacks: The model is computational and it learns. [...] For this reason, we have begun work on the development of a dual-route model of reading that has these two properties. (Coltheart/Curtis/Atkins/Haller, 1993,597)
7.3.1 Grundannahmen und Strukturprinzipien Weil für die Komponenten des Dual-Route-Kaskadenmodells Modularität postuliert wird, ist es möglich, Teile des Modells unabhängig voneinander zu entwickeln. Bislang ist von dem Modell in Abbildung 7.3 (aus: Coltheart/Curtis/Atkins/Haller, 1993, 598) nur der stark umrandete Teil implementiert. Das vorrangige Ziel der Modellentwicklung besteht darin, ein explizites Verarbeitungsmodell zu entwickeln, das in geschädigtem Zustand ein Leseverhalten zeigt, das dem von Dyslektikern ähnelt. Die Umsetzung des Modells hat sich bislang auf die nicht-lexikalische Route beschränkt. Für dieses Verfahren wurde ein Algorithmus entwickelt, der [...] when exposed to the printed forms of words and their pronunciations, learns the grapheme-phonemerules embodied in the training set of words and then is able to apply these rules to new letter strings it has not seen before, „reading them aloud" in the sense of outputting a string of phonemes for each input string of letters. (Coltheart/Curtis/Atkins/Haller, 1993, 601)
Die nicht-lexikalische Route des DRC-Modells übersetzt Buchstabenketten in Phonemketten. Dazu verwendet es zuvor erlernte GPK-Regeln für einzelne Grapheme und Graphemkonstellationen (bodies). Diese Graphem-Phonem-Konversionsregeln lernt das System durch Konfrontation mit dem auch von Seidenberg/McClelland verwandten Corpus aus 2.897 einsilbigen Wörtern. Die Wörter werden in Zufallsanordnung präsentiert, und zwar jeweils die orthographische zusammen mit der phonologischen Repräsentation. Für jedes Wort „ the algorithm attempts to infer all the GPC rules that describe the relationship between that word's spelling and its pronunciation" (1993, 599). Die dabei nach und nach erschlossenen Regeln werden dazu verwandt, den Regelbestand zu aktualisieren, falls eine der neuentdeckten Regeln dort noch nicht vorhanden ist.
132 Die Präsentation einer orthographischen Repräsentation wie zusammen mit der entsprechenden phonologischen Repräsentation [ m i n t ] bewirkt die Ableitung der Regeln (- [ m ] ) , ( < i > - [ i ] ) , f < n > - [ n ] ) , und ( - [ t ]). Im Regelbestand, der sogenannten „ rule base ", wird die Häufigkeit registriert, mit der die einzelnen Regeln auftreten. Wird dem System ein irreguläres Wort wie präsentiert, wird für das Graphem i auch die Regel ( < i > - [ I ]) abgeleitet und im Regelbestand vermerkt. Jede der so abgeleiteten Umsetzungsregeln für einzelne Grapheme enthält stets auch eine von drei möglichen Positionsmarkierungen. Im Falle von würde die Regel ( - [m]) durch den Vermerk erprint
< ®
Abbildung 7.3
excitory inhibitory
133 gänzt, daß sie sich auf ein initiales Graphem bezieht, die Regeln ( - [ i ] ) und ( [ n ] ) beinhalten den Hinweis auf eine mediale Position, und die Regel (< t> - [ t ] ) enthält einen Verweis auf die finale Position des Graphems. Nach einer ersten Trainingsphase, die dem Erwerb von Konvertierungsregeln für einzelne Buchstaben dient, wird das System mit Regeln für Buchstabenkonstellationen konfrontiert, wobei der Algorithmus nach und nach Regeln für Kombinationen aus zwei, drei und vier Buchstaben ableitet. Bei einigen englischen Wörtern entsprechen vier Buchstaben einem einzigen Phonem, etwa bei eight. Hier erfolgt die Ableitung der Regel ( - [A]), nachdem die Anwendung von Konvertierungsregeln für einzelne Buchstaben bzw. Konstellationen aus zwei oder drei Buchstaben nicht zum richtigen Ergebnis geführt hat. Durch das hier nur vereinfacht wiedergegebene algorithmische Verfahren lernt das System „ a set of GPC rules (including position-specific, context-sensitive, generalizable, and multiletter rules) from a database of spellings and pronunciations" (Coltheart/Curtis/Atkins/ Haller, 1993, 601). Mit Hilfe dieser Regeln kann der Algorithmus nach Ende der Trainingsphase jede Buchstabenkette in eine Phonemkette verwandeln. In seiner derzeitigen Form produziert der Lern-Algorithmus ein Sortiment von GPKRegeln, deren Einsatz für 78,17 % der 2.897 Wörter des Trainings-Corpus die Produktion korrekter Reaktionen erlaubt. Da in der Konzeption der Modellentwickler die Produktion der korrekten phonologischen Repräsentationen für Wörter mit irregulären Graphem-PhonemKorrespondenzen nicht in den Zuständigskeitsbereich eines nicht-lexikalischen, regelgeleiteten Verfahrens fällt, war eine Trefferquote von deutlich unter 100 % zu erwarten. Im Hinblick auf die irregulären/inkonsistenten Wörter des Test-Corpus, den auch Seidenberg/McClelland zur Überprüfung der Leistungsfähigkeit ihres Modells eingesetzt hatten, war demgemäß erwartet worden, daß das GPC-System keine korrekten Antworten geben würde. Tatsächlich war jedoch eine Trefferquote von ca. 10 % richtigen Antworten (5 von 47) zu verzeichnen. Bei regulären, aber inkonsistenten Wörtern sollte das GPC-System keine Fehler machen. Tatsächlich traten jedoch bei 12 von 54 Wörtern (ca. 22 %) falsche Reaktionen auf. Bei den regulären, konsistenten Wörtern des Testcorpus war bei 21 Wörtern nur ein Fehler zu beobachten. Wie Seidenberg/McClellands PDP-Modell wurde auch das DRC-Modell mit den NichtWörtern Glushkos konfrontiert. Wo das PDP-Modell 68 % der Items bewältigt, produziert das GPC-Verfahren des DRC-Modells 98 % korrekte Reaktionen. Mit diesem Ergebnis simuliert das DRC-Modell das Leistungsmuster, das normale Versuchspersonen bei Konfrontation mit Glushkos NichtWörtern aufwiesen. Coltheart, Curtis, Atkins und Haller (1993, 602) schlußfolgern daher: The very high levels of accuracy that the GPC procedure can attain in reading nonwords after being trained on the 2.897 words of the database indicate definitively that this database does contain sufficient information about letter-sound relationships to permit excellent generalization to the task of pronouncing novel, untrained stimuli. Therefore, the poor generalization exhibited by the PDP-model must be a consequence not of deficiencies in the database but of deficiencies in the PDP-model. (1993, 602)
134 7.3.2 Simulation von Aspekten dyslektischen Leseverhaltens Die Konstrukteure des DRC-Modells vertreten - wie in Kapitel 7.2.3 bereits zitiert und kommentiert - die Auffassung, daß Oberflächendyslexie aus einer Schädigung der lexikalischen Route bei relativ erhaltenen nicht-lexikalischen Konvertierungsprozessen resultiert. Folglich simuliert der bislang implementierte Teil des Modells das hypothetische Leseverhalten eines Oberflächendyslektikers, der ausschließlich auf die (hier intakte) nicht-lexikalische Route angewiesen ist. Phonologische Dyslexie läßt sich beim derzeitigen Stand der Modellentwicklung nicht simulieren, da die nicht-lexikalischen Routen noch nicht implementiert sind. If the nonlexical Route [...] was removed, we would have a System that could read all words, but no nonwords. Approximations to this pattern are seen in patients with the acquired dyslexia known as phonological dyslexia. (Coltheart/Curtis/Atkins/Haller, 1993, 606)
7.3.3 Einschätzung Die Autoren demonstrieren, daß ein nicht-lexikalisches Verfahren gut in der Lage ist, phonologische Repräsentationen für reguläre Wörter und für NichtWörter zu produzieren. Allerdings war m.E. nie bezweifelt worden, daß es möglich ist, mit einem regelgeleiteten Verfahren regelmäßige phonologische Reaktionen zu erzeugen. Zu fragen ist vielmehr, ob ein solches Verfahren psychologisch real ist und wie die phonologischen Repräsentationen irregulärer Wörter erarbeitet werden. Da irreguläre Wörter in den Zuständigkeitsbereich der noch nicht implementierten lexikalischen Route fallen, kann das Modell bei seinem derzeitigen Entwicklungsstand nicht demonstrieren, ob und wie die in Kapitel 3.2 diskutierten problematischen Beobachtungen an Normallesern - besonders die Beobachtungen zur Auswirkung von Konsistenz bzw. Inkonsistenz - integriert werden können. Als Beleg für die psychologische Realität eines nicht-lexikalischen Verfahrens verweisen die Autoren auf das Leistungsmuster oberflächendyslektischer Leser. Unglücklicherweise sind die Grundannahmen zur Entstehungsweise der beiden erwähnten Dyslexieformen angesichts des in Kapitel 3 und 5 erörterten Forschungsstandes einerseits stark vereinfachend und beziehen sich andererseits auf besonders problematische Fallstudien. Zusammenfassend läßt sich schließen, daß der derzeitige Entwicklungsstand dieses DRCModells noch keine weiterführenden Einsichten vermittelt, denn: „ The simulations will have to be dorn, of course, ifthis is to become more than a belief' (Coltheart/Curtis/Atkins/Haller, 1993, 605).
135
7.4 Semantisches Lesen im Rahmen eines Attractor-Modells Während die oben diskutierten Entwürfe mit der Modellierung des Wegs von der Orthographie zur Phonologie befaßt waren, bemühten sich Hinton/Shallice (1991) um eine explizite, netzwerkgängige Simulation des Wegs von der Orthographie zur Semantik, die sich auch in ihrem Verzicht auf Lexika wesentlich von traditionellen Dual-Route-Modellen unterscheidet. Der von Hinton und Shallice unternommene Versuch, tiefendyslektische Leistungsmuster zu simulieren, beschränkt sich zunächst auf Störungsursachen, die ihre funktionelle Lokalisation bis zur Ebene semantischer Repräsentation haben. Wie in Kapitel 5 ausgeführt, lassen sich nach derzeitigem Forschungsstand verschiedene Formen von Tiefendyslexie unterscheiden, die ihre Ursache im Fall der Output-Dyslexie auch nach der Semantik haben können. Cp (
20 cleanup units
)
(
—
Cp => P
)
Ip => p
(
s => c
33 phoneme units
40 intermediate units
)
s => Ip 60 cleanup units
J
68 sememe units
I
40 intermediate units t .
(
J
G => I [
28 grapheme units
)
Abbildung 7.4 Diese Beobachtung motivierte die Ergänzung des Modells um Verbindungen von der Ebene semantischer Repräsentationen zu einer Ebene phonologischer Repräsentation (vgl. Plaut/Shallice, 1993). Die Beschreibung des Modells (Abbildung 7.4., aus Plaut/Shallice, 1993, 416) und der Simulationsexperimente sind in einem Maße vereinfacht, das nur einen flüchtigen Eindruck von Konstruktionsprinzipien und einen ersten Einblick in aufschlußreiche Folgen von Schädigungen des Netzwerks erlaubt. 7.4.1 Grundannahmen und Strukturprinzipien Bei dem in Kapitel 7.2 diskutierten parallelverteilten Netzwerk von Seidenberg/McClelland handelte es sich um ein sogenanntes Feedforward-Netzwerk. Im Gegensatz zu diesem Modelltyp gelten für ein Attractor-Modell als sogenanntes Recurrent Network keine Beschränkungen für die Verknüpfung der Einheiten:
136 [...] enabling interactions between units within one layer, and from later to earlier layers. When presented with input, the units must repeatedly recompute their states, because changing the State of a unit may change the input to earlier units. In this way, recurrent networks can gradually settle into a stable set of unit states. (Plaut/Shallice, 1993, 400)
Mit dieser allmählichen Stabilisierung von Reaktionsmustern ist ein wesentliches Charakteristikum dieses Modelltyps verbunden, das hier erörtert werden soll, weil es den Hintergrund für die in Kapitel 7.3.3 dargestellte Interpretation tiefendyslektischer Fehlermuster bildet. Durch die Interaktion der Einheiten innerhalb einer Schicht entstehen sogenannte Anziehungsbecken (attractor basins). Die Funktion dieser Anziehungsbecken, die sich innerhalb der Schichten verschieden spezialisierter Einheiten bilden, soll am Beispiel der semantischen Repräsentationen erläutert werden. In einem hypothetischen semantischen Raum wird die Bedeutung eines Wortes durch viele Merkmale bestimmt. Semantische - wie auch orthographische und phonologische Repräsentationen - sind parallelverteilt, werden also nicht durch einen einzelnen Eintrag oder eine einzelne Einheit vertreten, sondern durch die Aktivation eines bestimmten Musters von Einheiten. Jede dieser Einheiten vertritt ein bestimmtes orthographisches, semantisches oder phonologisches Merkmal, das an vielen Aktivationsmustern beteiligt ist. Einer bestimmten semantischen Repräsentation entspricht jeweils ein charakteristisches Aktivationsmuster. Wörter wie Pfirsich und Aprikose teilen viele semantische Merkmale und unterscheiden sich nur in wenigen Merkmalen. Durch die Verknüpfung von Merkmalen, die eine semantische Repräsentation ausmachen, entstehen sogenannte Anziehungsbecken. Während man sich den semantischen Raum im „Schöpfungsstadium" als Ebene vorstellen kann, bilden sich durch die Verknüpfung semantischer Merkmale Landschaften heraus (um eine Analogie von Hopfield, 1982, zu verwenden). Die so entstehenden Täler markieren Merkmalsverdichtungen. Den tiefsten Punkt eines semantischen Tals, das im multidimensionalen Vektorraum des Modells Anziehungsbecken heißt, bildet beispielsweise die aus allen zugehörigen Merkmalen bestehende Repräsentation von Pfirsich. Ein dem Anziehungsbecken des Pfirsich benachbartes Tal oder Anziehungsbecken repräsentiert etwa den semantischen Gehalt von Aprikose. Über den gesamten semantischen Raum verteilt bilden sich zahlreiche solcher einander überlappender Anziehungsbecken. Die nach Abschluß des Trainings entstandene Landschaft hat im Fall der Schädigung die Eigenschaft der Graceful Degradation, was bedeutet, daß sie nicht verschwindet. Die Täler und die Grenzen zwischen ihnen bleiben erhalten, nur sind die Einbuchtungen nicht mehr so tief und die Erhebungen nicht mehr so hoch. Der Abruf einer semantischen Repräsentation läßt sich mit einer Murmel vergleichen, die - wenn sie mit ausreichend Hinweisen versehen ist - in das richtige Anziehungsbecken rollt (vgl. Johnson, 1991). Reichen die Informationen nicht für die Identifikation von Pfirsich, oder hat sich die Landschaft in Folge einer Schädigung abgeflacht, könnte die Murmel mit einer gewissen Wahrscheinlichkeit in eines der benachbarten Täler, etwa in das für Aprikose, kullern.
137 Normally, the representation toward which it will move, will be that corresponding to the input, but if the system is damaged, it can easily move to a nearby attractor, which will presumably correspond to the meaning of a related word. (Hinton/Shallice, 1991, 75)
In einem Netzwerk des hier beschriebenen Typs haben ähnliche Inputs die Tendenz, ähnliche Output-Muster zu verursachen. [...] generally a lot of training and large weights are required to make very similar inputs give very different outputs. Now, if each meaning has a large basin of attraction, the network is free to make the visual form of the word point to any location within this basin, so the network will, if it can, choose to make visually similar words point to nearby points in semantic space. (Hinton/Shallice, 1991, 75)
Im Modell von Plaut und Shallice bilden sich innerhalb der Schichten also nach Maßgabe orthographischer, semantischer bzw. phonologischer Ähnlichkeit Anziehungsbecken. Wie aus Abb. 7.4 zu ersehen ist, besteht das Modell aus drei Schichten jeweils spezialisierter Einheiten. Der Entstehung komplexer und interaktiver Verbindungen zwischen den Einheiten dienen, wie in Seidenberg/McCIellands Modell, unsichtbare Schichten. Die cleanup-units, die die semantische und die phonologische Schicht flankieren, stellen zusätzliche Sätze unsichtbarer Einheiten dar und dienen der Ausbildung komplexer Anziehungsbecken. Die separate Existenz mehrerer Sätze von unsichtbaren Einheiten erlaubt es diesen, sich zu spezialisieren. Neben den Schichten, die direkt zwischen Orthographie und Semantik, sowie zwischen Semantik und Phonologie vermitteln, haben die cleanup-units auf der Ebene der Semantik die Funktion, komplexere Verbindungen zwischen semantischen Merkmalen entstehen zu lassen. Um die Entwicklung von Anziehungsbecken zu begünstigen, sind eng verwandte „Sememe" innerhalb der semantischen Schicht vor dem Training direkt miteinander verbunden worden. Diese Verknüpfungen können jedoch stets nur zwei Merkmale verbinden. So haben die Sememe green und found-woods nur durch ihre Verküpfung die Implikation living. [...] higher-order semantic micro-inferences strengthen the attractors for words (i.e. increase the sizes and depth of their basins of attraction) by filling out the initially incomplete semantics generated bottom-up and only with pairwise interactions. In order to implement them there must be hidden units that receive connections from some sememe units and send connections to others. (Plaut/Shallice, 1993, 401).
Die cleanup units ermöglichen damit die Entstehung komplexerer Verbindungsstrukturen zwischen semantischen bzw. phonologischen Merkmalen. Der verteilte Wortschatz des Modells umfaßt 40 Wörter, die aus je drei bis vier Buchstaben bestehen und deren Orthographie sich mit 28 Graphemen, für die jeweils bestimmte Positionsbeschränkungen (vgl. McClelland/Rumelhart, 1981) gelten, abbilden lassen. Die Tabelle (a) in Abbildung 7.5.a. (aus: Plaut/Shallice, 1993, 385) zeigt, welche Buchstaben in welchen Positionen zugelassen waren. Die 40 Wörter wurden so gewählt, daß sie in 5 konkrete semantische Kategorien fallen, wie aus Tabelle (b) in Abbildung 7.5.a. zu entnehmen ist.
138 Zur Repräsentation der semantischen Struktur dieser Wörter wurden ihnen jeweils eine Auswahl der 68 semantischen Merkmale (Sememe) zugeordnet, über die Abbildung 7.5.b. (aus: Plaut/Shallice, 1993, 386) einen Überblick gibt. Auf jedes Wort trafen jeweils durchschnittlich 15 semantische Merkmale zu. Auf diese Weise wurde eine stark vereinfachte Simulation vernetzter semantischer Repräsentation angestrebt, wobei Wörter der gleichen Kategorie mehr semantische Merkmale miteinander teilen als Wörter unterschiedlicher Kategorien. In diesem Sinne ergab sich z.B. für die Wörter der Kategorie „Körperteile" eine große Nähe zueinander und gleichzeitig ein deutlicher Abstand zu Wörtern anderer Kategorien. (a) Letters Allowed in Each Position Pos.
Letters
1 2 3 4
BCDGHLMNPRT AEIOU BCDGKMPRTW EK
(b) Words in Each Category Indoor Objects
Animals
Body Parts
Foods
Outdoor Objects
BED CAN COT CUP GEM MAT MUG PAN
BUG CAT COW DOG HAWK PIG RAM RAT
BACK BONE GUT HIP LEG LIP PORE RIB
BUN HAM HOCK LIME NUT POP PORK RUM
BOG DEW DUNE LOG MUD PARK ROCK TOR
Abbildung 7.5.a Das Netzwerk erwirbt den Wortschatz durch Präsentation der Stimuli und durch ein modifizierendes Backpropagation-Verfahren. Im Netzwerk bilden sich dadurch semantische Strukturen. Nach Abschluß des Trainings (1000 Durchgänge) konnte das Netzwerk für jedes der 40 Wörter, deren Orthographie ihm eingegeben wurd e, das zutreffende Semem-Muster sowie die entsprechende phonologische Repräsentation produzieren. Für den „Zugang" zur semantischen Repräsentation eines Wortes war es dabei nicht erforderlich, jeweils alle semantischen Merkmale zu aktivieren. Es wurde vielmehr in Übereinstimmung mit psychologischen Theorien des semantischen Gedächtnisses angenommen, daß der semantische Zugang zu einem
139 Wort erzielt war, wenn die aktivierte Repräsentation hinreichend nahe am Ideal und näher an der angestrebten als an jeder anderen Repräsentation war. 1 2 3
21 indoors max-size-less-foot max-size-foot-to-two-yards 22 in-kitchen max-size-greater-two-yards 23 in-bedroom 24 in-livingroom
4 5
main-shape-ID main-shape-2D
6 7
cross-section-rectangular cross-section-circular
8
has-legs
9 10 11 12 13 14 15
white brown green colour-other-strong varied-colours transparent dark
16 hard 17 soft 18 sweet 19 tastes-strong 20 moves
25 26 27 28 29 30 31 32 33
on-ground on-surface otherwise-supported in-country found-woods found-near-sea found-near-streams found-mountains found-on-farms
34 35 36 37
part-of-limb surface-of-body interior-of-body above-waist
38 39 40 41 42 43 44 45
mammal wild fierce does-fly does-swim does-run living carnivore
46 made-of-metal 47 made-of-wood 48 made-of-liquid 49 made-of-othernonliving 50 got-from-plants 51 got-from-animals 52 pleasant 53 unpleasant 54 55 56 57 58 59 60 61 62 63
man-made container for-cooking for-eating-drinking for-other used-alone for-breakfast for-lunch-dinner for-snack for-drink
64 particulary-assoc-child 65 particulary-assoc-adult 66 used-for-recreation 67 human 68 component
Abbildung 7.5.b Die kritischen Merkmale und Grundannahmen des Systems lassen sich folgendermaßen zusammenfassen (vgl. Plaut/Shallice, 1993,463ff): (1) Orthographische, semantische und phonologische Repräsentationen sind über separate Schichten von Einheiten verteilt, so daß in jeder Schicht ähnliche Aktivationsmuster ähn-
140 liehe Wörter repräsentieren, während die Ähnlichkeit der Muster keinen über die Schicht hinausreichenden Einfluß hat. (2) Das Wissen des Netzwerks ist in der Stärke der Verbindungen enthalten. Die Stärke dieser Verbindungen entwickelt das Netzwerk durch ein Training. (3) Die Aktivierung semantischer Repräsentationen entsteht aus der Wirkung von Anziehungsbecken. 7.4.2 Simulation von Aspekten dyslektischen Leseverhaltens Das oben vereinfacht beschriebene Modell stellt, wie die Entwickler betonen, nur eine grobe und hypothetische Annäherung an jene Mechanismen dar, mit der Menschen sich normalerweise die Bedeutung von Wörtern erschließen. Kapazitätsbeschränkungen des schon in der umrissenen Form sehr komplizierten Modells betreffen den zwergenhaften Wortschatz und die Nichtbeachtung offensichtlich wirksamer Variablen wie Frequenz, Wortart, Wortlänge, syntaktische Einflüsse etc. Trotz dieser deutlichen Beschränktheit des Modells könnten die im folgenden zusammengefaßten Ergebnisse der Simulationen Anlaß bieten, die Interpretation tiefendyslektischen Leseverhaltens, wie sie in Kapitel 5 dargestellt wurde, neu zu überdenken. Die Simulationsergebnisse von Plaut/Shallice (1993) replizierten und ergänzten Befunde einer vorangegangenen Studie von Hinton/Shallice (1991). Die letztgenannte Studie hatte sich der Frage zugewandt, wie sich das bei Patienten mit Tiefendyslexie mit großer Regelmäßigkeit zu beobachtende gemeinsame Auftreten von visuellen, semantischen und visuell-semantischen Fehlern im Rahmen eines Attractor-Modells simulieren läßt. Dabei machten sie folgende Beobachtung: In the present concrete realization of such a model, lesions anywhere in the system [...] give rise to qualitatively the same error pattern. Thus, a straightforward explanation exists for why this error pattem is so widespread even though other aspects vary across patients. It reflects a breakdown characteristic of a network containing attractors when lesioned in various places. (Hinton/Shallice, 1991, 89)
Beide oben genannten Studien zeigen, daß eine einzelne Läsion des Systems zum Auftreten verschiedener Aspekte tiefendyslektischen Leseverhaltens führt. Die Interpretation dieser Fehler im Rahmen des Attractor-Modells wird allerdings erheblich durch die komplexe, interaktive und wenig transparente Struktur des Netzwerks erschwert. Vorbehaltlich der zukünftigen weiteren Erforschung und Interpretation von Netzwerk-Eigenschaften läßt sich jedoch feststellen, daß Attractor-Modelle nach ihrer Schädigung „Verhaltensweisen" zeigen, die in Kapitel 5 als charakteristisch für tiefendyslektisches Leseverhalten beschrieben worden sind. Es treten semantische, visuelle und gemischt visuell-semantische Fehler zusammen mit anderen, unverwandten Fehlern auf. Dieses gemeinsame Auftreten der genannten Fehlertypen kann unabhängig davon beobachtet werden, wo sich die Schädigung befindet. Besonders die gemischt visuell-semantischen Fehler, die dem Zielwort sowohl visuell als auch semantisch ähnlich sind (ca t - r a t ) haben den traditionellen Erklärungsversuchen (vgl. Kapitel 5) Kopf-
141
zerbrechen bereitet. Im allgemeinen war vermutet worden, daß solche Fehler Resultat zweier Läsionen waren, [...] producing a visual error followed by a semantic error. We demonstrate, that they occur after single lesions in our networks, when the damaged input network fails to clean-up a visual error completely, which is then misinterpreted as a semantically related word by the intact output network (Plaut/Shallice, 1993,424).
Die Ursache dieses Phänomens wird in einer Destabilisierung der Grenzen zwischen den Anziehungsbecken der semantischen Schicht gesehen. Zur Überraschung der Modellentwickler beging das Netzwerk in geschädigtem Zustand zuweilen auch Fehler, die zunächst visuell und dann semantisch verursacht schienen. Von solchen Fehlern hatten Marshall/Newcombe (1966) berichtet, denn ihr Patient las z.B. symp a t h y als o r c h e s t r a , wobei mutmaßlich symphony als Brücke zwischen Zielwort und Fehler vermittelt hat. Obwohl dieser Fehlertyp bei Patienten mit Tiefendyslexie eher selten auftritt (vgl. Coltheart, 1987a), bedarf die grundsätzliche Möglichkeit solch komplexer Fehler einer Erklärung. Im allgemeinen wird auch ihr Auftreten als Folge zweier separater Läsionen gedeutet. Deshalb ist die Beobachtung, daß das Netzwerk solche Fehler nach nur einer Läsion aufweist, besonders interessant. Fehler wie beispielsweise bog - (dog) - r a t zeigte das Modell (vgl. Abb. 7.4) im Gegensatz zur oben genannten Fehlerkonstellation nur, wenn die Schädigung die Verbindungen zwischen den orthographischen Einheiten und der unsichtbaren Schicht betraf: „ This makes sense given that, under our definition, visual-then-semantic errors consist of a visual confusion in the input network followed by a semantic confusion in the output network" (Plaut/Shallice, 1993, 426) Damit wird dieser Fehlertyp als ein visueller Fehler interpretiert, der durch semantische Einflüsse entstellt worden ist. Bei den meisten Patienten mit Tiefendyslexie läßt sich beobachten, daß konkrete Wörter besser gelesen werden können als abstrakte Wörter. Im Rahmen von Plaut/Shallices Modell diente der Untersuchung der Störungsanfalligkeit konkreter und abstrakter Wörter ein gesondertes Vorgehen. Der Wortschatz umfaßte in dieser Versuchsanordnung 20 konkrete und 20 abstrakte Wörter. Die Semantik jedes Wortes wurde durch eine Auswahl aus 98 semantischen Merkmalen bestimmt. Während der Gehalt konkreter Wörter durch durchschnittlich 18,2 Merkmale bestimmt wurde, bestand die semantische Repräsentation abstrakter Wörter aus durchschnittlich nur 4,7 Merkmalen. Unter diesen Versuchsbedingungen zeigte sich, daß abstrakte Wörter deutlich störungsanfälliger als konkrete Wörter sind. Auch diese Beobachtung konnte unabhängig von der Schädigungsstelle gemacht werden, wobei der Unterschied zwischen beiden Wortarten bei Störungen im Output-Bereich geringer war als bei Schädigungen im Input-Bereich des Netzwerks. Die geringere Störungsanfälligkeit konkreter Wörter basiert offenbar darauf, „that the greater number of active semantic features gives the cleanup units circuit more raw material on which to work, allowing stronger attractors to be built" (Plaut/Shallice, 1993,469). Aus der Vielzahl unterschiedlicher Simulationsversuche, die Plaut/Shallice in ihrer umfangreichen Arbeit beschrieben haben, soll nur noch eine weitere Beobachtung hervorgehoben werden, die die Unterscheidung verschiedener Subtypen von Tiefendyslexie betrifft.
142 Während das gemeinsame Auftreten semantischer, visueller und visuell-semantischer Fehler ein Phänomen ist, das sich unabhängig von der Lokalisation der Störung im Modell beobachten läßt, zeigen sich andererseits in Abhängigkeit vom Läsionstyp Unterschiede im „Sinnverständnis". Das Kriterium des semantischen Zugangs hatte sich - wie in Kapitel 5 dargestellt - im Rahmen traditioneller Modelle als relevant fur die Unterscheidung einer Input-, einer Output- und einer zentralen Form von Dyslexie erwiesen. Plaut/Shallice untersuchten daher, wie sich das „Verständnis" fehlgelesener Wörter in Abhängigkeit von der Lokalisation der Läsion veränderte. Betrifft die Schädigimg des Netzwerks (vgl. Abbildung 7.4.) die Verbindungen zwischen der orthographischen Eingangsschicht und der unsichtbaren Schicht von Intermediate Units (O-I) oder die Verbindungen zwischen dieser unsichtbaren Schicht und der Schicht der Sememe (I-S), kann das Modell nur 46 % der fehlgelesenen Wörter „verstehen". Befindet sich die Schädigung des Netzwerks hingegen im Bereich der Verbindungen zwischen Sememen und cleanup-units (S-C) oder der Verbindungen zwischen cleanup-units und Sememen (C-S), beziehungsweise betrifft die Semene (S) selbst, werden 81,2 % der fehlgelesenen Wörter verstanden. Werden dem Netzwerk Läsionen im Output-Bereich - also nach der Schicht der Sememe zugefugt, werden die fehlgelesenen Wörter zu 100 % verstanden (vgl. Plaut/Shallice, 1993, 473). Diese Ergebnisse scheinen zu belegen, daß das Modell innerhalb der ihm gesetzten Grenzen auch die verschiedenen Subtypen von Tiefendyslexie simulieren kann. 7.4.3 Einschätzung Die Beobachtungen, die oben unter Verzicht auf die Subtilität der Argumentation von Plaut und Shallice dargestellt worden sind, werfen ein neues Licht auf die bislang ungeklärte Ähnlichkeit der Lesefehler, die Patienten der drei tiefendyslektischen Subtypen den klinischen Beobachtungen zufolge begehen. Warum sollten Schädigungen unterschiedlicher funktioneller Lokalisation, wie sie in Kapitel 5 als Ursache der genannten Subtypen vorgeschlagen worden waren, zu qualitativ ähnlichen Fehlermustern und Wortarteffekten beim lauten Lesen einzelner Wörter fuhren? Aus den Simulationsversuchen läßt sich eine verblüffende und einfache Erklärung ableiten. Attractor-Modelle, die unter Verwendung von Anziehungsbecken die Interaktion zwischen parallelverteilten Repräsentationen orthographischer, semantischer und phonologischer Information simulieren, sind aus oben erwähnten Gründen [...] naturally sensitive to the similarities within these domains, and hence these similarities influence the errors that occur under damage. Indeed, qualitatively équivalent error pattems arise in the simulations from lésions to any stage along the semantic route, from the first set of connections after the orthographie input units to the last set before the phonological Output units. (Plaut/Shallice, 1993,474)
Die weitere Forschung wird zeigen müssen, ob diese Simulationsergebnisse mehr als ein Denkanstoß fur die Diskussion um die funktionelle Architektur menschlicher Informationsverarbeitung sind.
143
7.5 Zusammenfassung und Ausblick Nicht nur für den hier behandelten Bereich der Neurolinguistik schriftsprachlicher Phänomene, sondern für die Neuropsychologic insgesamt scheint mit der Entwicklung expliziter, computergängiger Modellentwürfe neokonnektionistischer Prägung ein Wendepunkt erreicht zu sein. Die neue Modellgeneration ist mit einer neuronal inspirierten Modellierung kognitiver Prozesse befaßt (vgl. Rumelhart/McClelland, 1988), die in ihren Grundannahmen gut mit neurobiologischen und -chemischen Erkenntnissen vereinbar zu sein scheint (vgl. Lynch, 1986). Die Entwicklung solcher Modelle ist - wie oben zu erkennen war - noch nicht sehr weit fortgeschritten. Dennoch bieten sie schon jetzt Anlaß, einige zentrale Dogmen des Konnektionismus der zweiten Generation zu überdenken. Es gelingt ihnen immerhin, unter Verzicht auf serielle Operationen, Prozessoren und Speicher, sowie ohne Regeln zur Symbolmanipulation, Teilaspekte des Leseprozesses abzubilden. Angesichts dieser Erfolge räumt auch Searle, der der Computer-Gehirn-Analogie aus philosophischer Perspektive skeptisch gegenüber steht, ein: Zumindest einige konnektionistische Modelle zeigen (und das ist nicht ihr einziger Vorzug), wie ein System einen bedeutungsvollen Output umwandeln kann, ohne daß dazwischen irgendwelche Regeln, Prinzipien, Folgerungen oder sonstige bedeutungsvolle Phänomene eingreifen. Das heißt nicht, daß derzeit vorhandene konnektionistische Modelle korrekt sind - vielleicht sind sie allesamt falsch. Es heißt aber, daß sie nicht in einer Weise offenkundig falsch bzw. inkohärent sind, wie dies bei den traditionellen kognitivistischen Modellen der Fall ist. (Searle, 1991, 270)
Zu bedenken ist allerdings, daß auch diese Modelle noch weit von einer halbwegs vollständigen Simulation menschlichen Lesevermögens auf Wortebene entfernt sind. Die zitierten Entwürfe beschränken sich auf relativ periphere bottom-up Prozesse. Wie Rumelhart/McClelland (1988) einräumen, sind komplexe Sprachfunktionen oder Denkprozesse derzeit noch nicht simulierbar. Die Deduktivität der neokonnektionistischen Methodik hat allerdings ein zentrales Problem, das auch im Fall erfolgreicher Simulation komplexerer Prozesse erhalten bleibt: [...] perhaps the most serious problem of computational models is that even when a desired human performance, or its impaired version, has been successfully simulated on a computer, one can never be certain that the computer program performs in the same way as the human. (Parisi/Burani, 1988, 85)
Eine schrittweise Annäherung an vollständigere Simulationen des Leseprozesses würde zunächst eine Verknüpfung der Leistungen erfordern, die Seidenberg/McClelland und Plaut/ Shallice simulieren. Coltheart/Curtis/Atkins/Haller (1993) halten einstweilen an den zentralen Dogmen modellgestützter neurolinguistischer Forschung fest, denn ihr Modell ist truly modular und die Informationsverarbeitung erfolgt regelgeleitet: Our ability to deal with linguistic stimuli we have not previously encountered [...] can only be explained by postulating that we have learned systems of general linguistic rules, and our ability at the same time to deal
144 correctly with exceptions to these rules [...] can only be explained by postulating the existence of systems of word-specific lexical representations. (1993,606)
Sie stimmen in diesen Grundannahmen mit Pinker/Prince (1988) überein. Wie diese vertreten sie die Auffassung, daß Neokonnektionisten sich nicht mit phonologischen oder morphologischen Einheiten, sondern nur mit Lauten beschäftigen, und ihnen daher bedeutsame, verarbeitungsrelevante Generalisierungen entgingen. Mit der computergängigen Umsetzung modularer und regelgeleiteter Informationsverarbeitung haben sich auch Coltheart/Curtis/Atkins/Haller (1993) das oben erwähnte Problem eingehandelt: auch eine (offenbar noch in weiter Ferne liegende) vollständige Simulation ihres Modells kann nicht belegen, daß es reale Prozesse simuliert. Künftige Modellentwicklung wird erweisen müssen, ob konnektionistische oder neokonnektionistische Entwürfe konsistentere Modelle des Leseprozesses auf Wortebene erbringen können. Wie beide Modelltypen in der Simulation normalen Verhaltens auf experimentelle Studien an Normallesern angewiesen sind (mit all den Problemen, die deren Validität betrifft), ist die Simulation gestörten Leseverhaltens auf klinische Studien an Dyslektikern angewiesen. Deshalb werden Studien wie die in Kapitel 3 bis 6 zitierten nicht überflüssig werden. Im Gegenteil, denn die Simulationsversuche zeigen, daß ein großes Problem in fehlenden soliden und differenzierten Darstellungen klinischer Daten besteht. Abschließend soll daran erinnert werden, daß das Ziel aller in dieser Arbeit behandelten Modelle die Erklärung und Modellierung jener Prozesse ist, die am Lesen auf Wortebene beteiligt sind. Dies ist, wie bereits Jackson (vgl. Kapitel 1) erkannt hat, kein ausgesprochen ökologisches Ziel. Dennoch scheint die Entwicklung solcher Modelle - die von vergleichbaren Forschungsprogrammen etwa im Bereich der Satzverarbeitung (Just/Carpenter, 1992) oder des Gedächtnisses (McClelland/Rumelhart, 1988) flankiert wird - die Hoffnung zu rechtfertigen, daß sich unser Wissen um Organisation und Funktionsweise kognitiver und sprachlicher Prozesse weiter vertiefen und differenzieren lassen wird. Die allerletzte Bemerkung soll den Hauptpersonen dieses Buches gelten, den Patienten, die die beschriebenen Beobachtungen ermöglicht haben. Die Auseinandersetzung mit neurolinguistischer Modellbildung hat nicht zuletzt offenbar werden lassen, daß die therapeutische Anwendbarkeit der Forschungsergebnisse eine theoretisch wie praktisch untergeordnete Rolle spielt. Dies hat seine Gründe nicht nur darin, daß der therapeutische und kommunikative Nutzen des Lesens auf Wortebene ohnehin beschränkt ist. Die Diskussion der DyslexiePhänomene hat darüber hinaus das Fehlen geschlossener, diagnostisch einsetzbarer Klassifikationen gezeigt. Es läßt sich vielfach nicht entscheiden, welche Prozesse beim Lesen auf Wortebene gestört sind, was auch die Zielgenauigkeit jener therapeutischen Interventionen beschränkt, die auf dem theoretischen Fundament modularer Organisation basieren. Derzeit läßt sich noch nicht abschätzen, welchen Einfluß die Grundannahmen parallelverteilter Informationsverarbeitung auf die theoretischen Grundlagen therapeutischer Intervention nehmen könnten. Deshalb bleibt nur zu hoffen, daß die Weiterentwicklung neurolinguistischer Forschung in breiteren Bereichen schließlich jenen nützen wird, deren Initialen die Fallstudien bevölkern.
8 Literaturverzeichnis Aitchison, J. (1987) Words in the Mind. An Introduction to the Mental Lexicon. Oxford. Albert, M. L. (1979) Alexia. In: Heilman, K./Valenstein, E. (Hrsg.) Clinical Neuropsychology. New York. Albert, M./Goodglass, H./Helms, A./Rubens, B./Alexander, M.(1970) Clinical Aspects of Dysphasia. Berlin. Allport, A./MacKay, D./Prinz, W./Scheerer, E. (Hrsg.) (1987) Language Perception and Production: Relationships between Listening, Speaking, Reading and Writing. London. Anderson, J. (1984) Neural Models and a Little About Language. In: Caplan, D./Roch Lecours, A./Smith, A. (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. S. 361 - 398. Andresen, H. (1988) Automatisiertes Sprechen und Aphasie - Reflexionen über die zugrundeliegenden Prozesse und Strukturen. In: Günther, K.-B. (Hrsg.) Sprachstörungen. Heidelberg. S. 241 - 259. Andreewsky, E./Deloche, G./Kossany, P. (1987 2 ) Analogies between Speed-Reading and Deep Dyslexia: Towards a Procedural Understanding of Reading. In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 307 - 326. Arbib, M. (1982) From Artificial Intelligence to Neurolinguistics. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 77 - 93. (1982) Perceptual-Motor Processes and the Neural Basis of Language. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 531 - 549. Arbib, M./Caplan, D./Marshall (1982) Neurolinguistics in Historical Perspective. In: Arbib, M./Caplan, D./ Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 5 - 24. (Hrsg.) (1982) Neural Models of Language Processes. New York. Ardila, A./Ostrowsky-Solis, F. (1989) (Hrsg.) Brain Organisation of Language and Cognitive Processes. New York. Bachy-Langedock, N./De Partz, M. (1989) Coordination of Two Reorganisation Therapies in a Deep Dyslexic Patient with Oral Naming Disorders. In: Seron, X./Deloche, G. (Hrsg.): Cognitive approaches in neuropsychological rehabililtation. Hillsdale, New Jersey. S. 211 - 248. Backhouse, A. E. (1984) Aspects of the Graphological Structure of Japanese. Visible Language 3: S. 219 - 227. Barnard, P./Hammond, N./MacLean, A./Morton, J. (1982) Learning and Remembering Interactive Commands in a Text Editing Task. In: Behaviour and Information Technology (1) S. 347 - 358. Barron, R. (1981) Reading Skill and Reading Strategies. In: Lesgold, A./Perfetti, M. (Hrsg.) Interactive Processes in Reading. Hillsdale. Barry, C. (1984) Consistency and Types of Semantic Errors in a Deep Dyslexic Patient. In: Malatesha, R./Withaker, H. (Hrsg.) Dyslexia. A Global Issue. The Hague. Bayer, J. (Hrsg.) (1987) Grammatik und Kognition. Linguistische Berichte, Sonderheft 1. Beauvois, M./Derouesne, J. (1979) Phonological Dyslexia: Three Dissociations. In: Journal of Neurology, Neurosurgery, and Psychiatry (42) S. 1115 -1124. (1981) Lexical or Orthographic Agraphia. In: Brain (104) S. 21 - 49. Beauvois, M./Derouesne, J./Saillant, B. (1980) Syndromes neuropsychologues et Psychologie cognitif en trois exemples: Aphasie tactile, Alexie phonologique et Agraphie lexicale. In: Cahiers de Psychologie (23) S. 211 -245. Behrmann, M./Byng, S. (1992) A Cognitive Approach to the Neurorehabilitation of Acquired Language Disorders. In: Margolin, D. (Hrsg.) Cognitive Neuropsychology in Clinical Practice. New York. S. 327 - 352. Bellugi, U./Poizner, H./Zurif, E. (1982) Prospects for the Study of Aphasia in a Visual-Gestural Language. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. 271 - 290. Bellugi, U./Tzeng, O./Klima, E./Fok, A. (1989) Dyslexia: Perspectives from Sign and Script. In: Galaburda, A. M. (Hrsg.) From Reading to Neurons. Cambridge. S. 137 -171. Berg, Th. (1988) Die Abbildung des Sprachproduktionsprozesses in einem Aktivationsmodell. Tübingen. Besner, D. (1987) On the Relationship between Orthographies and Phonologies in Visual Word Recognition. In: Allport, A./Mackay, D./Prinz, W./Scheerer, E. (Hrsg.) Language Perception and Production: Relationships between Listening, Speaking, Reading and Writing. London. S. 211 - 226.
146 Besner, D./Twilley, L./McCann, R./Seergobin, K. (1990) On the Association Between Connectionism and Data: Are a Few Words Necessary? In: Psychological Review (97) S. 432- 446. Bierwisch, M. (1976) Schriftstruktur und Phonologie. In: Hofer, A. (Hrsg.) Lesenlemen: Theorie und Unterricht. Düsseldorf. S. 50 - 81 Blanken, G. (1988) Anmerkungen zur Methodologie der Kognitiven Neurolinguistik. In: Neurolinguistik (2) S. 127 - 147. (Hrsg.) (1991a) Einführung in die linguistische Aphasiologie: Theorie und Praxis. Freiburg. (1991b) Die kognitive Neurolinguistik des Schreibens. In: Blanken, G. (Hrsg.) Einführung in die linguistische Aphasiologie: Theorie und Praxis. Freiburg (Breisgau). S. 287 - 328. Blanken, G./Dittmann, J./Wallesch, C. (Hrsg.) (1988) Sprachproduktionsmodelle. Neuro- und psycholinguistische Theorien der menschlichen Spracherzeugung. Freiburg. Blanken, G./Dittmann, J./Grimm, HVMarshall, J./Wallesch, C. (Hrsg.) (1993) Linguistic Disorders and Pathologies. Berlin, New York. Blanken, G./Dittmann, J./Sinn, H. (1993) Alte Lösungen für neue Probleme: Ein Beitrag zur Aktualität der Aphasielehre von Carl Wernicke. In: Neurolinguistik 7 (2) S. 91-104. Broadbent, W. (1878) A Case of Peculiar Affection of Speech, with Commentary. Brain (1) S. 484 - 503. Broca, P. (1861) Remarques sur le siège de la faculté du langage articule, suivies dune observation d'Aphemie. Bull. Soc. Anatom. (36) S. 330 - 357. -
(1865) Du siège de la faculté du langage articule dans l'hémisphère gauche du cerveau. Bull. Soc. Anthropol. (6) S. 373 -393. Brown, J. (1982) Hierarchy and Evolution in Neurolinguistics. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 447 - 468. Bub, D./Cancelliere, A./Kertesz, A. (1985) Whole-Word and Analytic Translation of Spelling-to-Sound in a Non-Semantic Reader. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. Bub, D./BIack, S./Howell, J./Kertesz, A. (1987) Speech Output Processes and Reading. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 79 - 110. Burani, C./Parisi, D. (1988) Observations on Theoretical Models in Neuropsychological of Language. In: Denes,
G./Semenza, C./Bisiacchi, P. (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. S. 75 - 90. Buser, P./Rougeul-Buser, A. (Hrsg.) (1974) Cerebral Correlates of Conscious Experience. Amsterdam. Butterworth, B. (Hrsg.) (1980) Language Production, Vol. 1: Speech and Talk. London. (1993) Aphasia and Models of Language Production and Perception. In: Blanken, G./Dittmann, J ./Grimm, H ./Marshall, J./Wallesch, C. (Hrsg.) Linguistic Disorders and Pathologies. Berlin, New York. S. 238 - 250. Calfee, R. (1982) Cognitive Models of Reading: Implications for Assessment and Treatment of Reading Disability. In: Malatesha, R.N./Aaron, P.G.(Hrsg.) Reading disorders. Varieties and treatment. New York. S. 151 176. Calvanio, R./Levine, D. (1982) The Neurology of Reading Disorders. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 371 - 387. Caplan, D. (1982) Reconciling the Categories: Representation in Neurology and in Linguistics. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 411 - 427. (1984) The Mental Organ for Language. In: Caplan, D./Roch Lecours, A./Smith, A. (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. S. 8 - 30. (1988) Neurolinguistics and Linguistic Aphasiology. Cambridge. Caplan, D./Roch Lecours, A./Smith, A. (1984) (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. Caramazza, A. (1984) The Logic of Neuropsychological Research and the Problem of Patient Classification in Aphasia. In: Brain and Language (21) S. 9 - 20. (1986) On Drawing Inferences about the Structure of Normal Cognitive Systems from the Analysis of Impaired Performance: The Case for Single Patient Studies. In: Brain and Cognition (5) S. 41 - 66. (1989) Cognitive Neuropsychology and Rehabilitation: An Unfullfilled Promise? In: Seron., X./Deloche, G. (Hrsg.) Cognitive Approaches in Neuropsychological Rehabilitation. Hillsdale, New Jersey. S. 383 - 398. (Hrsg.) (1991) Issues in Reading, Writing and Speaking. A Neuropsychological Perspective. Dordrecht, Boston, London.
147 Caramazza,A./Miceli, G./Villa, G. (1986) The Role of the Output-Buffer in Reading, Writing, and Repitition. In: Cognitive Neuropsychology (2) S. 81 - 114. Caramazza, A./Miceli, G.(1990) Structure of the Lexicon: Functional Architecture and Lexical Representation. In: Nespoulous, J./Villiard, P. (Hrsg.) Morphology, Phonology, and Aphasia. New York. S. 1 - 1 9 . Caramazza, A./Miceli, G./Silveri, M.C./Laudanna, A. (1991) Reading Mechanisms and the Organisation of the Lexicon: Evidence from Acquired Dyslexia. In: Caramazza, A. (Hrsg.) Issues in Reading, Writing and Speaking. A Neuropsychological Perspective. Dordrecht, Boston, London. S. 55 - 9 3 . Carlomagno, S./Parlato, V. (1989) Writing Rehabilitation in Brain-damaged Adult Patients: A Cognitive Approach. In: Seron, X./Deloche, D. (Hrsg.) Cognitive Approaches in Neuropsychological Rehabilitation. S. 175-210. Clark, A. (1980) Psychological Models and Neural Mechanisms. Oxford. Clarke, E./O'Malley, C. (1968) The Human Brain and Spinal Cord. A History Study Illustrated by Writings from Antiquity to the Twentieth Century. Berkeley. Clarke, E./Dewhurst, K. (1972) An Illustrated History of Brain Function. Oxford. Clarke, E./Jacyna L. (1987) Nineteenth-Century Origins of Neuroscientific Concepts. Berkeley. Changeaux, J./Connes, A. (1992) Gedankenmaterie. Stuttgart. Churchland, P./Sejnowski, T. (1989) Neural Representation and Neural Computation. In: Galaburda, A. M. (Hrsg.) From Reading to Neurons. Cambridge. S. 171 - 254. Code, C. (1987) Language, Aphasia, and the Right Hemisphere. Chichester. Code, C./Müller, D. J. (1989) (Hrsg.) Aphasia Therapy. London. Collings, A.(1988) Linguistische Profilanalyse und Agrammatismus. In: Günther, K.-B. (Hrsg.) Sprachstörungen. Heidelberg. S. 260 - 280. Coltheart, M. (1978) Lexical Access in Simple Reading Tasks. In: Underwood, G. (Hrsg.) Strategies of Information processing. London. (1981) Disorders of Reading and their Implications for Models of Normal Reading. In: Visible Language (15) S. 2 4 5 - 2 8 6 . (1982) The Psycholinguistic Analysis of Acquired Dyslexias: Some Illustrations. In: Philosophical Transactions of the Royal Society of London (298) S. 151 - 164. (1983) The Right Hemisphere and Disorders of Reading. In: Young, A. (Hrsg.) Functions of the Right Cerebral Hemisphere. London. (1984) Acquired Dyslexia and Normal Reading. In: Malatesha,R.N./Withaker, H. (Hrsg.) Dyslexia. A Global Issue. The Hague. S. 357 - 374. (1987 2 a) Deep Dyslexia: A Review of the Syndrome. In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 22 - 47. (1987b) The Semantic Error: Types and Theories. In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 146 - 159. (1987c) Reading, Phonological Recoding, and Deep Dyslexia. In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 197 - 225. (1987d) Deep Dyslexia: A Right-Hemisphere Hypothesis. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. London. S.326 - 380. (1987e) Functional Architecture of the Language-Processing System. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 1 - 23. (1989) Aphasia Therapy Research: A Single-Case Study Approach. In: Code, C./Müller, D. J. (Hrsg.) Aphasia Therapy. London. S. 193 - 202. Coltheart, M./Besner, D./Jonasson, J./Davelaar, E. (1979) Phonological Encoding in the Lexical Decision Task. In: Quarterly Journal of Experimental Psychology (31) 489 - 507. Coltheart, M./Masterson, J./Byng, S./Prior, M./Riddoch, J. (1983) Surface Dyslexia. In: Quarterly Journal of Experimental Psychology (35A) S. 469 - 495. Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) (1987 2 ) Deep Dyslexia. London. -
(1987) Deep Dyslexia since 1980. In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg) Deep Dyslexia. London. S. 4 0 7 - 4 5 1 .
148 Coltheart, M./Sartori, G./Job,R. (1987) (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. Coltheart, M./Byng, S. (1989) A Treatment for Surface Dyslexia. In: Seron., X./Deloche, G. (Hrsg.) Cognitive Approaches in Neuropsychological Rehabilitation. Hillsdale, New Jersey. S. 159 - 174. Coltheart, M./Curtis, B./Atkins, P./Haller, M. (1993) Models of Reading Aloud: Dual-Route and Parallel-Distributed-Processing Approaches. In: Psychological Review 100 (4) S. 589- 608. Coslett, H. (1991) Read but not Write "Idea": Evidence for a Third Reading Mechanism. In: Brain and Language (40) S. 425- 443. Coulmas, F.(1981) Über Schrift. Frankfurt. Von Cramon, D./Zihl, J. (Hrsg.) (1988) Neuropsychologische Rehabilitation. Berlin. Creutzfeldt, O.D.(1983) Cortex Cerebri. Berlin. Deacon, T. W. (1989) Holism and Associationism in Neuropsychology: An Anatomical Synthesis .In: Perecman, E. (Hrsg.) Integrating Theory and Practice in Clinical Neuropsychology. Hillsdale, New Jersey. S. 1 - 47. De Bastiani, P./Barry, C./Carreras, M. (1988) Mechanisms for Reading Non-Words: Evidence from a Case of Phonological Dyslexia in an Italian Reader. In: Denes, G./Semenza, C./Bisiacchi, P. (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. S. 253- 270. De Bleser, R. (1991) Formen und Erklärungsmodelle der erworbenen Dyslexien. In: Blanken, G. (Hrsg.) Einführung in die linguistische Aphasiologie: Theorie und Praxis. Freiburg (Breisgau) 1991. S. 329 - 348. De Bleser, R./Bayer, J./Luzatti, C. (1987) Die kognitive Neuropsychologie der Schriftsprache. In: Bayer, J. (Hrsg.) Grammatik und Kognition. Linguistische Berichte, Sonderheft 1. S. 118 - 162. De Bleser, R./Bayer, J. (1990) Morphological Reading Errors in a German Case of Deep Dyslexia. In: Nespoulous, J./Villiard, P. (Hrsg.) Morphology, Phonology, and Aphasia. New York. S. 32 - 61. De Bleser, R./Luzzatti, C. (1989) Models of Reading and Writing in Classical German Aphasiology. Cognitive Neuropsychology (6) 501 - 513. De Langen, E. G.(1988) Lesen und Schreiben. In: Von Crammon, D./Zihl, J. (Hrsg.) Neuropsychologische Rehabilitation. Berlin. Deloche, G./Andreewsky, E./Desi, M. (1981) Lexical Meaning: A Case Report, Some Striking Phenomena, Theoretical Implications. In: Cortex (17) S. 147 - 152. Deloche, G./Andreewsky, E. (1982) Surface Dyslexia: A Case Report and Some Theoretical Implications to Reading Models. In: Brain and Reading (15) S. 1 2 - 3 1 . Dejerine, M. J. (1892) Contribution a l'étude anatomo-pathologique et clinique des différentes variétés de cécité verbale. Comptes Rendus des Séances et Mémoires de la Société de Biologie (44) S. 61 - 90. Delacato, C.(1970) Diagnose und Behandlung der Sprach- und Lesestörungen. Freiburg. Denes, G./Semenza, C./Bisiacchi, P. (1988) (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. De Partz, M. (1986) Re-Education of a Deep Dyslexic Patient. Rationale of the Method and Results. In: Cognitive Neuropsychology (3) S. 149 - 177. Derouesne, J./Beauvois, M. (1979) Phonological Processing in Reading: Data from Alexia. In: Journal of Neurology, Neurosurgery, and Psychiatry (42) S. 1125 - 1132. (1985) The "Phonemic" Stage in the Non-Lexical Reading Process: Evidence from a Case of Phonological Alexia. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 399 - 458. Dittmann, J./Blanken, G./Wallesch, C. (1988) Über die Erforschung der menschlichen Sprachproduktion. In: Blanken, G./Dittmann, J./Wallesch, C. (Hrsg.) Sprachproduktionsmodelle. Neuro- und psycholinguistische Theorien der menschlichen Spracherzeugung. Freiburg. S. 1 - 1 8 . Dubois, J. (1977) L' Agraphie des aphasies sensoriels. In: Langage (47) S. 81 - 1 1 9 . Ellis, A. (Hrsg.) (1982) Normality and Pathology in Cognitive Functions. London. (1982) Spelling and Writing ( and Reading and Speaking) In: Ellis, A. (Hrsg.) Normality and Pathology in Cognitive Functions. London. -
(Hrsg.) (1985) Progress in the Psychology of Language, Vol. 2. London. (1987) Intimations of Modularity, or, the Modelarity of Mind: Doing Cognitive Neuropsychology without Syndromes. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 397 - 408.
149 -
(1988) Modelling the Writing Process. In: Denes, G./Semenza, C./Bisiacchi, P. (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. S. 189 - 212. Ellis, A./Young,A. (1988) Human Cognitive Neuropsychology. London. Elman, J./Takahashi, K./Tohsaku, Y. (1981a) Lateral Asymmetries for the Identification of Concrete and Abstract Kanji. In: Neuropsychologia (19) S. 407 - 412. (1981b) Asymmetries for the Categorization of Kanji Nouns, Adjectives and Verbs Presented to the Left and Right Visual Fields. In: Brain and Language (13) S. 290 - 300. Endo, M./Shimizu, A./Hori, T. (1977) Functional Asymmetry of Visual Fields. In: Neuropsychologia (16) S. 291 -297. Erdmann, B./Dodge, R. (1898) Psychologische Untersuchungen über das Lesen auf experimenteller Grundlage. Halle. Euler, C.v./Lundberg, I./Lennerstrand, G. (1989) (Hrsg.) Brain and Reading. Stockholm. Fodor, J. (1983) The Modularity of Mind. Cambridge. Frazier, L. (1982) Shared Components of Production and Perception. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 225 - 236. (1984) Neuropsychologie der Sprache. Stuttgart. (1986) Kognitive Strukturen des Sprachverstehens. Berlin, Heidelberg, New York. Friederici, A./Schönle, P./Goodglass, H. (1981) Mechanisms Underlying Writing and Speech in Aphasia.In: Brain and Language (13) S. 212 - 222. Frith, U. (1980) (Hrsg) Cognitive Processes in Spelling. London. Funnell, E. (1983) Phonological Processes in Reading: New Evidence from Acquired Dyslexia. British Journal of Psychology (74) S. 159 - 180 Furth; H. (1972) Denkprozesse ohne Sprache. Düsseldorf. Galaburda, A. M. (1989) From Reading to Neurons. Cambridge. Gall, F.-J. (1791) Philosophisch-medicinische Untersuchungen. Wien. Gardner, T. (1957) Fads and Fallacies in the Name of Science. Dover. Gardner, H./Zurif, E.B. (1975) Bee but not be: Oral Reading of Single Words in Aphasia and Alexia. In: Neuropsychologia (13) S. 181 - 190. Garrett, M. (1982) Remarks on the Relation between Language Production and Language Comprehension Systems. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 209 - 224. -
(1984) The Organisation of Processing Structure for Language Production: Applications to Aphasie Speech. In: Caplan, D./Roch Lecours, A./Smith, A. (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. S. 172 - 193. Gazzaniga, M. (1983) Right Hemisphere Language Following Bisection: A 20-year Perspective. In: American Psychologist (38) S. 525- 537. Gazzaniga, M./Ledoux, J. (1983) Neuropsychologische Integration kognitiver Prozesse. Stuttgart. Gelb, I. (1958) Von der Keilschrift zum Alphabet. Stuttgart. Geschwind, N. (1965) Disconnexion Syndromes in Animal and Man. Brain (88) S. 237 - 294. (1984) Neural Mechanisms, Aphasia, and Theories of Language. In: Caplan, D./Roch Lecours, A./Smith, A. (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. S. 31 - 39. Gesner, J. (1770) Die Sprachamnesie. Nördlingen. Gfroerer, S./Günther, H./Weiss, L. (1984) Zur Frage des visuellen und phonologischen Zugangs zum Mentalen Lexikon. In: Phonetica (41) S. 41 - 49. Gibson, E. (1976) Die Ontogenese des Lesens. In: Hofer, A. (Hrsg.) Lesenlemen. Theorie und Unterricht. Düsseldorf. S. 174 - 191. Gipper, H. (1978) Denken ohne Sprache? Düsseldorf. Glushko, R. (1979) The Organisation and Activation of Orthographie Knowledge in Reading Aloud. In: Journal of Experimental Psychology: Human Performance and Perception (5) S. 674 - 691. Godwin, R. (1989) The Treatment of Pure Alexia. In: Code, C./Müller, D. J. (Hrsg.) Aphasia Therapy. London. S. 146- 156.
150 Goldblum, M. (1980) Un Equivalent De La Dyslexie Profonde Dans La Modalité Auditive. In: Grammatica (7) S. 157- 177. (1985) Word Comprehension in Aphasia. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 175 - 206. Goldschneider, A./Müller, R. (1893) Zur Physiologie und Pathologie des Lesens. Zeitschrift für klinische Medizin (23) S. 131 - 167. Goldstein, K. (1927) Über Aphasie. In: Schweiz. Arch. Neurol. Psychiat. (6) S. 1 - 68 (1948) Language and Language Disturbances. Grune & Stratton, New York. Goodman, K. (1976) Die psycholinguistische Natur des Leseprozesses. In: Hofer, A (Hrsg.) Lesenlernen: Theorie und Unterricht. Düsseldorf. S. 139 - 1 5 1 . (1976) Analyse von unerwarteten Reaktionen beim oralen Lesen: Angewandte Psycholinguistik. In: Hofer, A. (Hrsg.) Lesenlernen: Theorie und Unterricht. Düsseldorf. Goody, J./Watt, I./Gough, K. (1986) Entstehung und Folgen der Schriftkultur. Frankfurt. Goody, J./Watt, 1.(1986) Konsequenzen der Literalität. In: Goody, I./Watt, I./Gough, K.: Entstehung und Folgen der Schriftkultur. Frankfurt. S. 63 - 122. Gordon, B. (1982) Confrontation Naming: Computational Model and Disconnection Simulation. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 511 - 530. Gordon, B., Caramazza, A. (1983) Closed and Open Class Lexical Access in Agrammatic and Fluent Aphasia. In: Brain and Language (19) S. 335 - 345. Graap, S. M. (1993) Aphasische Störungen der Schriftsprache im Spiegel der japanischen Zeichensysteme. Frankfurt. Graichen, J. (1989) N e u r o p s y c h o l o g i s t Perspektiven. In: Grohnfeldt, M. (Hrsg.) Handbuch der Sprachtherapie. Bd. 1: Grundlagen der Sprachtherapie. Berlin. S. 113 - 1 2 8 . Grohnfeldt, M. (Hrsg.) (1989) Handbuch der Sprachtherapie. Bd. 1: Grundlagen der Sprachtherapie. Berlin. Gruneberg, M./Morris, P. (1978) (Hrsg.) Aspects of Memory. London. Günther, H. (1988) Schriftliche Sprache. Tübingen. Günther, K. (1985) Schriftsprache bei hör- und sprachgeschädigten Kindern. In: Hörgeschädigtenpädagogik, Beiheft 9, Heidelberg. Haamann, H. (1990) Universalgeschichte der Schrift. Frankfurt. Hanke, R. (1987) Zur Therapie schriftsprachlicher Störungen. Eine modellorientierte Einzelfallstudie. In: Neurolinguistik (1) S. 41- 55. Hartje, W. (1989) Funktionelle Spezialisierung der Großhirnhemisphären. In: Poeck, K. (Hrsg.) Klinische Neuropsychologie. Stuttgart. S. 37 - 62. Hatfield, F. M. (1989) Aspects of Acquired Dysgraphia and Implications for Re-Education. In: Code, CJMüller, D. J. (Hrsg.) Aphasia Therapy. London. S. 157 - 169. Hatta, T. (1977) Recognition of Japanese Kanji in the Left and Right Visual Fields. In: Neuropsychologia (15) S. 685 - 688. Head, Henry (1926) Aphasia and Kindred Disorders of Speech. Cambridge. Hecaen, H. (1979) Right Hemisphere Contribution to Language Functions. In: Buser, P./Rougeul-Buser, A. (Hrsg.) Cerebral Correlates of Conscious Experience. Amsterdam. S. 199 - 214. Hecaen, H./Angelergues, R./Douzens, J.A. (1963) Les Agraphies. In: Neuropsychologia (1) S. 179 - 208. Hebb, D. (1949) The Organisation of Behaviour. New York. Heilman, K. M. /Valenstein, E. (Hrsg.) (1979) Clinical Neuropsychology. New York. Heilman, K./Rothi, L.(1982) Acquired Reading Disorders: A Diagrammatic Model. In: Malatesha, R./Aaron, P.G. (Hrsg.) Reading Disorders. Varieties and Treatment. New York. S. 315 - 340. Henderson, L. (1979) Holistic Models of Feature Analysis in Word Recognition: A Critical Examination. In: Kolers, P./Wrolstad, M./Bouma, H. (Hrsg.) Processing of Visible Language (Vol. 1) New York. (1982) Orthography and Word Recognition in Reading. London. (1985) Issues in the Modelling of Pronunciation Assembly in Normal Reading. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 459 - 508. Hier, D.B./Mohr, J.P. (1977) Incongruous Oral and Written Naming. Evidence for a Subdivision of the Syndrome of Wernicke's aphasia. In: Brain and Lang. (4) S. 115 - 1 2 6 .
151 Hinton, G. /Shallice, T. (1991) Lesioning an Attractor Network: Investigations of Acquired Dyslexia. In: Psychological Review 98 (1) S. 74 - 95. Hillert, D. (1993) Semantische Einträge und konzeptuelle Wissensstrukturen: psycho- und neurolinguistische Evidenz. In: Linguistische Berichte (145) S. 204 - 234. Hillis, A. E./Caramazza, A. (1992) The Reading Process and its Disorders. In: Margolin, D. (Hrsg.) Cognitive Neuropsychology in Clinical Practice. New York. S. 229 - 262. Hirose, G./Kin, T./Murakumi, E. (1977) Alexia without Agraphia Associated with Occipital Lesion. In: J. Neurol. Neurosurg. Psychiat. (40) S. 225 - 227. Hofer, A. (Hrsg.) (1976) Lesenlemen: Theorie und Unterricht. Düsseldorf. Hopfield, J. (1982) Neural Networks and Physical Systems with Emergent Collective Computational Abilities. In: Proceedings of the National Academy of Science (81) S. 3088 - 3092. Howard, D. (1987) Reading Without Letters. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 27 - 58. Howard, D. /Franklin, S. (1987) Three Ways for Understanding Written Words, and their Use in Two Contrasting Cases of Surface Dyslexia. In: Allport, D./MacKay, D./Prinz,W./Scheerer, E. (Hrsg.) Language Perception and Production. Common Processes in Listening, Speaking, Reading and Writing. London. Howard, D./Patterson, K. (1989) Models for Therapy. In: Seron., X./Deloche, G. (Hrsg.) Cognitive Approaches in Neuropsychological Rehabililtation. Hillsdale, New Jersey. S. 39 - 64. Huber, W. (1989) Alexie und Agraphie. In: Poeck, K. (Hrsg.) Klinische Neuropsychologic. Stuttgart. S. 164 188. Huber, W./Poeck, K./Weniger, D. (1989) Klinisch-neuropsychologische Syndrome. In: Poeck, K. (Hrsg.) Klinische Neuropsychologic. Stuttgart. S. 89 - 133. Huber, W./Willmes, K./Göddenhenrich, S. (1988) Die Diagnose von aphasischen Leistungsdissoziationen beim lexikalischen Diskriminieren. In: Günther, K.-B. (Hrsg.) Sprachstörungen. Heidelberg. S. 306 - 329. Jackson, J.H. (1874, 1878) Selected Writings of John Hughlings Jackson. Hrsg. v. Taylor, J. (1958)§ New York. Jakobson, R. (1969) Kindersprache, Aphasie und allgemeine Lautgesetze. Frankfurt. Jones, G. (1985) Deep Dyslexia, Imageability, and Ease of Prediction. In: Brain and Language, (24) S. 1 - 19. Just, M. /Carpenter, P.(1992) A Capacitiy Theory of Comprehension Disorders. In: Psychological Review (99) S. 122 - 149. Karanth, P. (1985) Dyslexia in a Dravidian Language. In: Patterson, K./Marshall, C./Coltheart, M. (Hrsg.) Surface Dyslexia. London. S. 251 - 260. Katz, R. (1989) Treatment Software for Aphasie Adults. In: Perecman, Ellen (Hrsg.) Integrating Theory and Practice in Clinical Neuropsychology. Hillsdale, New Yersey. S. 317 - 335. Kawahata, N./Nagata, K./Shishido, F. (1988) Alexia with Agraphia due to the Left Posterior Inferior Temporal Lobe Lesion - Neuropsychological Analysis and its Pathogenetic Mechanisms. Brain and Lang. (33) S. 296 310. Kay, J. (1982) Mechanisms of Oral Reading: a Critical Appraisal of Cognitive Models. In: Ellis, A. (Hrsg.) Progress in the Psychology of Language. Vol 2. London. (1987) Phonological Codes in Reading. In: Allport, D./MacKay, D./Prinz,W./Scheerer, E. (Hrsg.) Language Perception and Production. Common Processes in Listening, Speaking, Reading and Writing. London. (1993) Acquired Disorders of Reading. In: Blanken, G./Dittmann, J./Grimm, H./Marshall, J./Wallesch, C. (Hrsg.) Linguistic Disorders and Pathologies. Berlin, New York. S. 251 - 262. Kay, J./Marcel, A. (1981) One Process not Two in Reading Aloud: Lexical Analogies Do the Work of Non-Lexical Rules. In: Quarterly Journal of Experimental Psychology. (33A) S. 397 - 413. Kay, J./Lesser, R. (1985) The Nature of Phonological Processing in Oral Reading: Evidence from Surface Dyslexia. In: Quarterly Journal of Experimental Psychology. (37A) S. 39 - 81. Kay, J./Patterson, K.E. (1985) Routes to Meaning in Surface Dyslexia. In: Patterson, K. E./Marshall, C./Coltheart, M. (Hrsg.) Surface Dyslexia. London. S. 79 - 104. Kean, M. (1982) Three Perspecetives for the Analysis of Aphasie Syndromes. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 173 - 201. Kelter, S. (1990) Aphasien. Hirnorganisch bedingte Sprachstörungen und Kognitive Wissenschaft. Stuttgart. Kempf, K. (1888) Valerii maximi factorum et dictorum memorabilium libri novem. Leipzig.
152 Kimura, D. (1966) Dual Functional Asymmetry of the Brain in Visual Perception. In: Neuropsychologia (4) S. 275 -285. Kolers, P./Wrolstad, M./Bouma, H. (Hrsg.) (1979) Processing of Visible Language (Vol 1) New York. Kotten, A. (1991) Aphasietherapie auf neurolinguistischer Basis. In: Blanken, G. (Hrsg.) Einführung in die linguistische Aphasiologie: Theorie und Praxis. Freiburg. S. 381 - 408. Kremin, H. (1981) Deux stratégies de lecture dissociable par la pathologie: Description d'un cas de dyslexie profonde et d'un cas de dyslexie de surface. In: Nespoulos, C. (Hrsg.) Etudes Neurolinguistiques. Toulouse. (1982) Alexia: Theory and Research. In: Malatesha, R. N./Aaron, P. (Hrsg.) Reading Disorders: Varieties and Treatment. New York. (1984) Word-Recognition and Word-Production: Data from Pathology. In: Malatesha, R. /Withaker, H. (Hrsg.) Dyslexia. A Global Issue. The Hague. (1985) Routes and Strategies in Surface Dyslexia and Dysgraphia. In: Patterson, K. E./Marshall, C./Coltheart, M. (Hrsg.) Surface Dyslexia. London. S. 105 - 138. (1987) Is there more than Ah-Oh-Oh? Alternative Strategies for Writing and Repeating Lexically. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 295 - 336. -
(1988) Independence of Access to Meaning and Phonology: Arguments for Direct Non-Semenatic Pathways for the Naming of Written Words and Pictures. In: Denes, G./Semenza, C./Bisiacchi, P. (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. S. 231 - 252. Kremin, H./Ohlendorf, I. (1988) Einzelwortverarbeitung im Logogenmodell. Neurolinguistische Evidenzen. In: Neurolinguistik (2) S. 67 - 100. Kucera, H./Francis, W. (1967) Computational Analysis of Present-Day American English. Providence. Kuhn, T. (1970) The Structure of Scientific Revolution. Chicago. Landis, T./Regard, M. (1989) Relative Interactive Hemispheric Dominance in Reading. In: Euler, C.v./Lundberg, I./Lennerstrand, G. (Hrsg.) Brain and Reading. Stockholm. S. 97 - 114. Leischner, A. (1957) Die Störungen der Schriftsprache. Stuttgart. (1987) Aphasien und Sprachentwicklungsstörungen. Stuttgart. Leischner, A./Mattes, K./Mallin, U. (1980) Vergleich der oralen mit der graphischen Performanz bei 175 Aphasikem. Arch. Pychiat. Nervenkr. (228) S. 213 - 222. Lenneberg, E. (1972) Biologische Grundlagen der Sprache. Frankfurt. Lesgold, A./Perfetti, M. (Hrsg.) (1981) Interactive Processes in Reading. Hillsdale. Lesser, R. (1987) Cognitive Neuropsychological Influences on Aphasia Therapy. In: Aphasiology (1) S. 189 200. Leuninger, H. (1989) Neurolinguistik. Opladen. Leuninger, H./Miller, M./Müller, F. (1972) Psycholinguistik. Ein Forschungsbericht. Frankfurt. Levelt, W. J. M. (1989) Speaking. From Intention to Articulation. Cambridge. Levy, J./Trevarthen, C.(1977) Perceptual, Semantic and Phonetic Aspects of Elementary Language Processes in Split-Brain-Patients. In: Brain (100) S. 105- 118. Lewes, G. (1871) The History of Philosophy from Thaïes to Comte. Oxford. Liberman, A. M. (1975) The Specialization of the Language Hemisphere. In: MILNER, B. (Hrsg.) Hemispheric Specialization and Interaction. Cambridge. S. 43 - 56. Lichtheim, L. (1885) Über Aphasie. In: Dtsch. Arch. Klin. Med. (36) S. 204 - 294. List, G. (1976) Aus der Forschungsgeschichte der Aphasie: Zum Begriff der "inneren Sprache". In: PEUSER, G.(Hrsg.) Interdisziplinäre Aspekte der Aphasieforschung. Köln. (1981) Sprachpsychologie. Stuttgart. Löwenfeld, L. (1892) Über zwei Fälle amnestischer Aphasie nebst Bemerkungen über die centralen Vorgänge beim Lesen und Schreiben. Deutsche Zeitschrift für Nervenheilkunde (2) S. 1 - 41. Luria, A.R. (1970) Die höheren kortikalen Funktionen des Menschen und ihre Störungen bei örtlichen Hirnschädigungen. Berlin. (1973) The Working Brain. An Introduction To Neuropsychology. New York. (1974) Language and the Brain: Towards the Basic Problems of Neurolinguistics. In: Brain and Language (1)S. 1 - 1 4 .
153 (1976) Basic Problems ofNeurolinguistics. The Hague. ( 1977) Neuropsychological Studies in Aphasia. Amsterdam. Lynch, G. (1986) Synapses, Circuits, and the Beginnings of Memory. Cambridge. Lytton, W./Brust, J. (1989) Direct Dyslexia. Preserved Oral Reading of Real Words in Wernicke's Aphasia. In: Brain (112) S. 583 -594. Mach, E. (1905) Die Analyse der Empfindungen und das Verhältnis des Physischen zum Psychischen. 5. Aufl., Jena. Malatesha, R./Aaron, P. (Hrsg.) (1982) Reading Disorders. Varieties and treatment. New York. Malatesha, R. /Withaker, H. (Hrsg.) (1984) Dyslexia. A Global Issue. The Hague. Marcel, T. (1987) Surface Dyslexia and Beginning Reading: A Revised Hypothesis of the Pronunciation of Print and its Impairments. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S. 227 - 258. Margolin, D. (Hrsg.) (1992) Cognitive Neuropsychology in Clinical Practice. New York. Margolin, D./Marcel, J./Carlson, N. (1985) Common Mechanisms in Dysnomia and Post-semantic Surface Dyslexia: Processing Deficits and Selective Attention. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 139 - 175. Margolin, D./Goodman-Schulman, R. (1992) Oral and Written Spelling Impairments. In: Margolin, D. (Hrsg.) Cognitive Neuropsychology in Clinical Practice. New York. S. 263 - 297. Marie, P. (1906a) Révision de la question de l'aphasie: la troisième circonvolution frontale ne joue aucun rôle spécial dans la fonction du langage. Semaine Médical (26) S. 241 - 247. (1906b) Révision de la question de l'aphasie: l'aphasie de 1861 a 1866. Semaine Médical (26) S. 565 - 571. Marin, O. (1982) Brain and Language: The Rules of the Game. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 45 - 69. Marin, O/Saffran, E./Schwartz, D. (1976) Dissociations of Language in Aphasia: Implications for Normal Functions. In: Annals of the New York Academy of Sciences (280) S. 868 - 884. Marr, D. (1982) Vision: A Computational Investigation onto the Human Rperesentation and Processing of Visual Information. San Francisco. Marshall, J. (1980) The New Organology.In: Behavioural and Brain Sciences (3) S. 23- 25. (1982) What is a Symtom-Complex? In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 389 - 409. (1984) Toward a Rational Taxonomy of the Acquired Dyslexia. In: Malatesha, R./Withaker, H. (Hrsg.) Dyslexia. A Global Issue. The Hague. Marshall, J./Newcombe, F. (1966) Syntactic and Semantic Errors in Paralexia. In: Neuropsychologia (4) S. 169 176. -
(1973) Patterns of Paralexia. A Psycholinguistic Approach. In: Journal of Psycholinguistic Research (2) S. 175- 199. (1977) Variability and Constraint in Acquired Dyslexia. In: Whitaker, A./Withaker, H. (Hrsg.) Studies in Neurolinguistics (Vol. 3) New York. (1987) The Conceptual Status of Deep Dyslexia: An Historical Perspective. In: Coltheart, M./Patterson, K./ Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 1 - 21. Masterson, J./Coltheart, M./Meara, P. (1985) Surface Dyslexia in a Language Without Irregularly Spelled Words. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 215 - 224. McCarthy, R./Warrington, E. (1984) A Two-Route Model of Speech Production: Evidence from Aphasia. In: Brain (107) S. 463 -485. (1985) Category Specificity in an Agrammatic Patient: The Relative Impairment of Verb Retrieval and Comprehension. In: Neuropsychologia (23) 709 - 727. (1986) Phonological Reading: Phenomena and Paradoxes. In: Cortex (22) S. 359 - 380. McClelland, J.L. (1988) The Programmable Blackboard Model of Reading. In: McClelland, J.L. /Rumelhart, D. E. and the PDP Research Group (Hrsg.) Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Vol. 2: Psychological and Biological Models. Cambridge. S. 122 - 169. McClelland, J.L. /Rumelhart, D. E/Hinton, G. (1988) The Appeal of Parallel Distributed Processing. In: Rumelhart, D. E./McClelland, J.L. and the PDP Research Group (Hrsg.) Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Vol. 1 : Foundations. Cambridge. S. 3 - 44.
154 McClelland, J.L. /Rumelhart, D. E. (1981) An Interactive Activation Model of Context Effects in Letter Perception: Part I. An Account of Basic Findings. In: Psychological Review (88) S. 375 - 407. McClelland, J.L. /Rumelhart, D. E. and the PDP Research Group (1988) Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Vol. 2: Psychological and Biological Models. Cambridge. Mehler, J. /Walker, E. /Garrett, M. (Hrsg.) (1982) Perspectives on Mental Representations. Hillsdale. Miceli, G./Silveri, M. C./Caramazza, A. (1987) The Role of the Phoneme-to-Grapheme Conversion System and of the Graphemic Output Buffer in Writing. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 235 - 252. Miller, D./Ellis, A. W. (1987) Speech and Writing Errors in "Neologistic Jargonaphasia": A Lexical Activation Hypothesis. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 253 - 272. Milner, B. (Hrsg.) (1975) Hemispheric Specialization and Interaction. Cambridge. Monakow, C. v. (1914) Die Lokalisation im Grosshirn. Wiesbaden. Moutier, F. (1908) L'Aphasie de Broca. Paris. Morton, J. (1969) Interaction of Information in Word Recognition. Psychological Review (76) 165 - 178. (1979) Facilitation in Word Recognition Experiments Causing Changes in the Logogen Model. In: Kolers, P./Wrolstad, M./Bouma, H. (Hrsg.) Processing of Visible Language (Vol I) New York. (1984) Brain-Based and Non-Brain-Based Models of Language. In: Caplan, D./Roch Lecours, A./Smith, A. (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. S. 40 - 64. (1987) Two Auditory Parallels to Deep Dyslexia. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S.189- 197. Morton, J./Patterson, K. (1987a) A New Attempt at an Interpretation, or, an Attempt at a New Interpretation. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S. 91 - 118. (1987b) "Little words - No" In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S.270 - 285. Moscovitch, M. (1986) Afferent and Efferent Models of Visual Perceptual Asymmetries: Theoretical and Empirical Implications. In: Neuropsychologia (24) S. 91 - 1 1 4 . Neisser, U. (1974) Kognitive Psychologie. Stuttgart. (1976) Cognition and Reality. San Francisco. Nerius, D. (1975) Untersuchungen zu einer Reform der deutschen Orthographie. Berlin. Nespoulous, J./Villiard, P. (1990) (Hrsg.) Morphology, Phonology, and Aphasia. New York. Newcombe, F., Marshall, J.C. (1985) Reading and Writing by Letter Sounds. In: Patterson, K./Marshall, J.C./Coltheart, M. (Hrsg.) Surface Dyslexia. London. S.35 - 50. (1987a) Response Monitoring and Response Blocking in Deep Dyslexia. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S.160 - 175. (1987b) Transcoding and Lexical Stabilization in Deep Dyslexia. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S.176 - 188. Nolan, K./Caramazza, A. (1982) Modality-Independent Impairments in Word Processing in a Deep Dyslexic Patient. In: Brain and Language (16) 237 - 264. Obler, L. K. (1984a) The Neuropsychology of Bilingualism. In: Caplan, D./Roch Lecours, A./Smith, A. (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. S. 194 - 212. (1984b) Dyslexia in Bilinguals. In: Malatesha, R.N./Withaker, H. (Hrsg.) Dyslexia. A Global Issue. S. 477 496. Oeser, E./Seitelberger, F. (1988) Gehirn, Bewußtsein und Erkenntnis. Darmstadt. Orban, G./Singer, W./Bernsen, N. (1990) (Hrsg.) Cognitive Neuroscience. Research Directions in Cognitive Science. Hillsdale. Panse, F./Shimoyama, T. (1955) Zur Auswirkung aphasischer Störungen im Japanischen. In: Arch. Psychiat. Neurol. (193) S. 139- 145. Paradis, M./Hagiwara, H./Hildebrandt, N. (1985) Neurolinguistic Aspects of the Japanese Writing System. New York. Parkin, A.(1982) Phonological Recoding in Lexical Decision: Effects of Spelling to Sound Regularity Depend on how Regularity is Defined. In: Memory and Cognition (10) S.43 -53. (1984) Phonological Recoding and Context. Current Psychological Research (2) S. 187 - 194.
155 Parkin, A./Underwood, G.(1983) Orthographic versus Phonological Regularity in Lexical Decsion. In: Memory and Cognition (11) S. 351 - 355. Patterson, K. (1978) Phonemic Dyslexia. Errors of Meaning and Meaning of Errors. In: Quarterly Journal of Experimental Psychology (30) S. 587 - 601. (1979) What is Right with "Deep" Dyslexic Patients? In: Brain and Language (8) S. 111 - 129. (1982) The Relation between Reading and Phonological Coding: Further neuropsychological Observations. In: Ellis, A. W. (Ed.) Normality and pathology in cognitive functions. London. (1986) Lexical but Nonsemantic Spelling? Cognitive Neuropsychology (3) S. 341- 367 (1987) Derivational Errors. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S. 286 - 306. (1990) Basic Processes of Reading: Do they Differ in Japanese and English? Japanese Journal of Neuropsychology (6) 4 - 1 4 . Patterson, K./Kay, J. (1982) Letter-By-Letter-Reading: Psychological Descriptions of a Neurological Syndrome. In: Quarterly Journal of Experimental Psychology (35A) S. 411 - 441. Patterson, K./Besner, D. (1984) Is the Right Hemisphere Literate? In: Cognitive Neuropsychology (1) S. 315 342. Patterson, K./Morton, J. (1985) From Orthography to Phonology: An Attempt at an Old Interpretation. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 335 - 360. Patterson, K./Marshall, J.C/Coltheart, M. (Hrsg.) (1985) Surface Dyslexia. London. Patterson, K./Shewell, C. (1987) Speak and Spell: Dissociations and Word-Class Effects. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 273 - 292. Patterson, K./Wilson, B. (1990) A ROSE is a ROSE or a NOSE: A Deficit in Initial Letter Identification. In: Cognitive Neuropsychology 7 (5/6) S. 447 - 477. Pavlidis, G./Fisher, D. (Hrsg.) (1986) Dyslexia: Its Neuropsychology and Treatment. Chichester. Perecman, E. (Hrsg.) (1989) Integrating Theory and Practice in Clinical Neuropsychology Hillsdale,. New Jersey. Peuser, G. (Hrsg.) (1976) Interdisziplinäre Aspekte der Aphasieforschung. Köln. (Hrsg.) (1979) Studien zur Sprachtherapie. München. (1988) Einführung in die sprachwissenschaftlichen Grundlagen der Patholinguistik. Manuskript. Köln. (Hrsg.) (1990) Aufsätze zum Verhältnis von Laut- und Schriftsprache. Kölner Arbeiten zur Patholinguistik 2. Köln. Peuser, G./Leischner, A. (1974) Störungen der phonetischen Schrift bei einem Aphasiker. Neuropsychologia 12: 557 - 560; Neu abgedruckt in Peuser, G. (Hrsg.) (1990) Aufsätze zum Verhältnis von Laut- und Schriftsprache. Kölner Arbeiten zur Patholinguistik 2. Köln. Peuser, G./Winter, S. (Hrsg.) (1981) Angewandte Sprachwissenschaft. Grundfragen - Bereiche - Methoden. Bonn. Pick, A. (1913) Die agrammatischen Sprachstörungen. Berlin. Pinker, S./Prince, A. (1988) On Language and Connectionsm: Analysis of a Parallel Distributed Processing Model of Language Acquisition. In: Cognition (28) S. 73 - 193. Plaut, D./Shallice, T. (1993) Deep Dyslexia: A Case Study of Connectionist Neuropsychology. In: Cognitive Neuropsychology 10 (5) S. 377 - 500. Poeck, K. (Hrsg.) (1989) Klinische Neuropsychologic. Stuttgart. Poeck, K., Göddenhenrich, S. (1988) Standardized Tests for the Detection of Dissociation in Aphasie Language Performance. In: Aphasiology (2) S. 375 - 380. Pollow, T. A. (1988) Zur therapeutischen Relevanz von Aphasieprüfverfahren. In: Günther, K.-B. (Hrsg.) Sprachstörungen. Heidelberg. S. 281 - 305. Popper, K./Eccles, J. (1989) Das Ich und sein Gehim. München. Posner, M. (1976) Kognitive Psychologie. München. Purser, H. W. (1989) Therapeutic Implications of Neuropsychology. In: Code, C./Müller, D. (Hrsg.) Aphasia Therapy. London. S. 26 - 41. Rapp, B./Caramazza, A. (1991) Spatially Determined Deficits in Letter and Word Processing. In: Cognitive Neuropsychology 8 (3/4) S. 275 - 311.
156 Riddoch, J. (1990) Neglect and the Peripheral Dyslexias. In: Cognitive Neuropsychology 7 (5/6) S. 369 - 389 Riese, W. (1947) The Early History of Aphasia. In: Bulletin of the History of Medicine (21) S. 322 - 334. (1959) A History of Neurology. New York. Roch Lecours, A./Basso, A./Moraschini, S./Nespoulous, J. (1984) Where is the Speech Area, and Who Has Seen It? In: Caplan, D./Roch Lecours, A./Smith, A. (Hrsg.) Biological Perspectives on Language. Cambridge, Massachusetts, London. S. 220 - 246. Roch Lecours, A./Lupien, S./Bub, D. (1990) Semic Extraction Behavior in Deep Dyslexia: Morphological Errors. In: Nespoulous, J./Villiard, P. (Hrsg.) Morphology, Phonology, and Aphasia. New York. S. 60 - 71. Roeltgen, D.P./Heilmann, K.M. (1984) Lexical Agraphia. Further Support for the Two-System Hypothesis of Linguistic Agraphia. Brain (107) S. 811 - 827. Rosenthal, V. (1988) Does It Rattle When You Shake it? Modularity of Mind and the Epistemology of Cognitive Research. In: Denes, G./Semenza, C./Bisiacchi, P. (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. S. 31 - 5 8 . Rosson, M. (1983) From SOFA to LOUCH: Lexical Contributions to Pseudoword Pronunciation. In: Memory and Cognition (11) 152 - 160. Rubenstein, H./Lewis, S./Rubenstein, M. (1971) Evidence for Phonemic Recoding in Visual Word Recognition. In: Journal of Verbal Learning and Verbal Behaviour (10) 645 - 657. Rumelhart, D. E./McClelland, J.L. (1981) An Interactive Activation Model of Context Effects in Letter Perception: Part II. The Contextual Enhancement Effect and Some Tests and Extensions from the Model. In: Psychological Review (89) S. 60 - 94. Rumelhart, D. E./McClelland, J.L. and the PDP Research Group (1988) Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Vol. 1: Foundations. Cambridge. Rumelhart, D. E/Hinton, G./Mcclelland, J.L. (1988) A General Framework for Parallel Distributed Processing. In: Rumelhart, D. E./McClelland, J.L. and the PDP Research Group (Hrsg.) Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Vol. 1: Foundations. Cambridge. S. 45 - 76. Saffian, E. (1980) Reading in Deep Dyslexia is Not Ideographic. Neuropsycholgia (18) S. 219 - 223. -
(1984) Acquired Dyslexia: Implications for Models of reading. In: Mackkinnon, G./Waller, T. (Hrsg.) Reading Research: Advances in Theory and Practice. New York. (1985) Lexicalization and Reading Performance in Surface Dyslexia. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 53 - 72. Saffran, E./Marin, O. (1977) Reading without Phonology. In: Quarterly Journal of Experimental Psychology (29) S. 515 -525. Saffran, E./Schwartz, M./Marin, O. (1980) Evidence from Aphasia: Isolating the Components of a Production Modell. In: Butterworth, B. (Hrsg.) Language Production, Vol. 1: Speech and Talk. London. Saffran, E./Boygo, L./Schwartz, M./Marin, O. (1987) Does Deep Dyslexia Reflect Right Hemisphere Reading? In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 381 - 406. Sartori, G. (1988) From Model to Neuropsychological Data and Vice Versa. In: Denes, G./Semenza, C./Bisiacchi, P. (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. S. 59 - 74. Sartori, G./Barry, C./Job, R. (1984) Phonological Dyslexia: A Review. In: Malatesha, R./Withaker, H. (Hrsg.) Dyslexia: A global issue. The Hague. Sartori, G./Masterson, J./Job, R. (1987) Direct-Route Reading and the Locus of Lexical Decision. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London, Hillsdale, New Jersey. S. 5 9 - 7 8 . Sasanuma, S. (1975) Kana and Kanji Processing in Japanese aphasics. In: Brain and Lang. (2) S. 369 - 383. (1985) Surface Dyslexia and Dysgraphia. How are they Manifested in Japanese? In: Patterson, K./Marshall, J.C./Coltheart, M. (Hrsg.) Surface Dyslexia. London. S. 225- 250. (1987) Acquired Dyslexia in Japanese. In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 4 8 - 9 1 . (1988) Cognitive Neuropsychology Approach to the Study of Aphasia: A Case of Reading Impairment. In: Aphasiology 2 (3/4) 395 - 400. Sasanuma, S./Fujimura, O. (1971) Selective Impairment of Phonetic and Nonphonetic Transcription of Words in Japanese Aphasie Patients: Kana vs Kanji in Visual Recognition and Writing. Cortex (7) S. 1 - 18.
157 -
(1972) An Analysis of Writing Errors in Japanese Aphasie Patients: Kanji versus Kana Words. In: Cortex (8) 265 - 282. Sasanuma, S./Monoi, H. (1975) The Syndrome of Gogi (Word Meaning) Aphasia. Neurology (25) S. 627 - 632. Sasanuma, S./Itoh, M./Mori, K./Kobayashi, Y. (1977) Tachistoscopic Recognition of Kana and Kanji Words. In: Neuropsychologia (15) S. 547 - 553. Scheerer, E. (1986) Orthography and Lexical Access. In: Äugst, G. (Hrsg.) New Trends in Graphemics and Orthography. Berlin. (1987) Visual Word Recognition in German. In: Allport, A./Mackay, D./Prinz, W./Scheerer, E. (Hrsg.) Language Perception and Production: Relationships between Listening, Speaking, Reading and Writing. London. S. 227 - 244. Schlenck, K./Huber, W./Willmes, K. (1987) "Prepairs" and "Repairs": Different Monitoring Functions in Aphasie Language Production. In : Brain and Language (30) S. 226 - 244. Schnelle, H. (Hrsg.) (1981) Sprache und Gehirn. Roman Jakobson zu Ehren. Frankfurt. (1989) The Challenge of Concrete Linguistic Description: Connectionsm, Massively Parallel Distributed Processing, Net-Linguistics. In: Schnelle, H./Bernsen, N. (Hrsg.) Logic and Linguistics. Hillsdale. S. 143 170. Schnelle, H./Bernsen, N. (1989) (Hrsg.) Logic and Linguistics. Hillsdale. Schwartz, M./Marin, O./Saffran, E. (1979) Dissociations of Language Function in Dementia: A Case Study. In: Brain and Language (7) S. 277 - 306. Schwartz, M./Saflran, E./Marin, O. (1987) Fractioning the Reading Process in Dementia: Evidence for Word Specific Print-to-Sound-Associations. In: Coltheart, M./Patterson, K./Marshall, J.C. (Hrsg.) Deep Dyslexia. London. S. 259 - 270. Schwartz, M./Dell, G./Martin, N./Saffran, E. (1994) Normal and Aphasie Naming in an Interactive Spreading Activation Model. In: Brain and Language (47) 391 - 394. Searle, J. (1993) Die Wiederentdeckung des Geistes. München. Segalowitz, S. (1989) ERP's and Advances in Neurolinguistics. In: Ardila, A./Ostrowosky-Solis, F. (Hrsg.) Brain Organisation of Language and Cognitive Processes. New York. S. 61 - 81. Seidenberg, M. (1985) The Time Course of Phonological Code Activation in Two Writing Systems. Cognition (19) S. 1-30. Seidenberg, M./Waters, G./Barnes, M./Tanenhaus, M. (1984) When Does Irregular Spelling or Pronunciation Influence Word Recognition? In: Journal of Verbal Learning and Verbal Behaviour (23) S. 383 - 404. Seidenberg, M./Mcclelland, J. (1989a) Visual Word Recognition and Pronunciation: A Computational Model of Acquisition, Skilled Performance, and Dyslexia. In: Galaburda, A. M. (Hrsg.) From Reading to Neurons. Cambridge. S. 255 - 303. (1989b) A Distributed Model of Word Recognition and Naming. In: Psychological Review (96) S. 523 568. (1990) More Words but Still No Lexicon: Reply to Besner et al. (1990) In: Psychological Review (97) S. 447 - 452. Semenza, C./Bisiacchi, P./Rosenthal, V. (1988) A Function for Cognitive Neuropsychology. In: Denes, G./Semenza, C./Bisiacchi, P. (Hrsg.) Perspectives on Cognitive Psychology. Hillsdale. S. 3 - 23. Shallice, T. (1979) Case Study Approach in Neuropsychological Approach. In: Journal of Clinical Neuropsychology. 1 (3) S. 183 - 211. (1980) Case Study Approach in Neuropsychological Research. In: Journal of Clinical Neuropsychology (1) S. 183-211. (1981a) Neurological Impairment of Cognitive Processes. In: British Medical Bulletin (37) S. 187 - 192. (1981b) Phonological Agraphia and the Lexical Route of Writing. In: Brain (104) S. 413 - 429. (1984) More Functionally Isolable Subsystems but Fewer "Modules"? In: Cognition (17) S. 243 - 252. (1987) Impairments of Semantic Processing: Multiple Dissociations. In: Coltheart, M./Sartori, G./Job,R. (Hrsg.) The Cognitive Neuropsychology of Language. London. S. 111 -128. (1988) From Neuropsychology to Mental Structure. Cambridge. Shallice, T./Coughlan, A. (1980) Modality Specific Word Comprehension Deficits in Deep Dyslexia. In: Journal of Neurology, Neurosurgery and Psychiatry (43) S. 866 - 872.
158 Shallice, T./Warrington, E./McCarthy, R. (1983) Reading Without Semantics. In: Quarterly Journal of Experimental Psychology. (35A) S. 111 - 130. Shallice, T./McCarthy, R. (1985) Phonological Reading: From Patterns o f Impairment to Possible Procedures. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 361 - 398. Shallice, T./Saffran, E. (1986) Lexical Processing in the Absence o f Explicit Word Identification: Evidence from a Letter by Letter Reader. In: Cognitive Neuropsychology (3) S. 429 - 458. Shallice, T./Warington, E. (1987) Single and Multiple Component Central Dyslexic Syndromes. In: Coltheart, M./Patterson, K./Marshall, J. (Hrsg.) Deep Dyslexia. S. 119 - 145. Skowronek, H./Marx, H. (1993) Disorders of Written Language Development: Definitions and Overview. In: Blanken, G./Dittmann, J./Grimm, H./Marshall, J./Wallesch, C. (Hrsg.) Linguistic Disorders and Pathologies. Berlin, New York. S. 711 - 724. Slobin, D. (1974) Einführung in die Psycholinguistik. Kronberg. Smith, A. (1966) Intellectual Functions in Patients with Lateralized Frontal Tumours. In: Journal of Neurology, Neurosurgery and Psychiatry (29) S. 52 - 59. Sommer, R. (1891) Zur Psychologie der Sprache. In: Zeitschrift für Psychologie und Physiologie der Sinnesorgane (2) S. 143 - 163. -
(1894) Nachprüfung des der Theorie vom Buchstabierenden Lesen und Schreiben zu Grunde liegenden Falles von Sprachstörung. In: Zentralblatt für Nervenheilkunde und Psychiatrie (17) S. 113 - 137.
Sperry, R. W. (1975) Lateral Specialization in the Surgically Seperated Hemispheres. In: Milner, B. (Hrsg.) Hemispheric Specialization and Interaction. Cambridge. S. 5 - 20. -
(1984) Consciousness, Personal Identity and the Divided Brain. In: Neuropsychologia (22) S. 661 - 673.
Springer, S./Deutsch, G. (1987) Linkes Gehirn, rechtes Gehirn. Heidelberg. Steinberg, D./Yamada, Y. (1978) Are Whole Word Kanji Easier to Learn than Syllable Kana? In: Reading Research Quarterly (1) S. 88 - 99. Sturm, W./Hartje, W. (1989) Methoden der Neuropsychologic. In: Poeck, K. (Hrsg.) Klinische Neuropsychologic. Stuttgart. S. 8 - 36. Sugishita, M./Toyokura, T./Yoshioka, M./Yamada, R. (1980) Unilateral Agraphia after Section of the Posterior Half ofTruncus of the Corpus Callosum. In: Brain and Lang. (9) S. 215 - 2 2 5 . Taft, M./Forster, K. (1975) Lexical Storage and Retrieval o f Prefixed Words. In: Journal of Verbal Learning and Verbal Behavoiur (14) S. 638 - 647. Taft, M./Russell, B. (1992) Pseudohomophone Naming and the Word Frequency Effect. In: Quarterly Journal of Experimental Psychology (45A) S. 51 - 71. Takahashi, A./Green, D. (1983) Numerical Judgements with Kanji and Kana. In: Neuropsychologia (21) S. 259 263. Taraban, R./McClelland, J. (1987) Conspiracy Effects in Word Recognition. In: Journal o f Memory and Language (26) S. 6 0 8 - 6 3 1 . Taylor, I. (1980) Writing Systems and Reading. In: Reading research (2) S. 1 - 54. Temple, C. (1985) Surface Dyslexia: Variations within a Syndrome. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 261 - 288. Teuber, H.-L. (1975) Why Two Brains? In: Milner, B. (Hrsg.) Hemispheric Specialization and Interaction. Cambridge. S. 71 - 74. Umilta, C./Rizzolatti, G./Anzola, G./Luppino, G./Porro, C. (1985) Evidence o f interhemispheric transmission in laterality effects. In: Neuropsychologia (23) S. 203 - 213. Underwood, G. (Hrsg.) (1978) Strategies o f Information processing. London. Vallar, G. (1990) Current Trends in Human Neuropsychology. In: Orban, G./Singer, W./Bernsen, N. (Hrsg.) Cognitive Neuroscience. Research Directions in Cognitive Science. S. 83 - 107. Vanier, M./Caplan, D. (1985) CT Scan Correlates of Surface Dyslexia. In: Patterson, K./Marshall, J./Coltheart, M. (Hrsg.) Surface Dyslexia. Hillsdale. S. 511 - 526. Vamey, N. (1984) Alexia for Ideogramms: Implications for Kanji Alexia. In: Cortex (20) S. 535 - 542. Venezky, R. (1970) The structure of English orthography. The Hague.
159 Venezky, R./Massaro, D.(1987) Orthographic Structure and Spelling-Sound Regularity in Reading English Words. In: Allport, A./Mackay, D./Prinz, W./Scheerer, E. (Hrsg.) Language Perception and Production: Relationships between Listening, Speaking, Reading and Writing. London. S. 159 - 180. Wallesch, C. (1988) Neurologische Sprachproduktionsmodelle. In: Blanken, G./Dittmann, J./Wallesch, C. (Hrsg.) Sprachproduktionsmodelle. Neuro- und psycholinguistische Theorien der menschlichen Spracherzeugung. Freiburg. S. 151 - 1 7 2 . Wapner, W./Gardner, H. (1979) A Study of Spelling in Aphasia. In: Brain and Language (7) S. 363 - 364. Warrington, E. (1975) The Selective Impairment of Semantic Memory. In: Quarterly Journal of Experimental Psychology (27) S. 635 - 657. (1981) Concrete Word Dyslexia. In: British Journal of Psychology (72) S. 175 - 196. Warrington, E./Shallice, T. (1979) Semantic Access Dyslexia. In: Brain (102) S. 43 - 63. (1980) Word-Form Dyslexia. In: Brain (103) S. 99 - 112. Warrington, E. /McCarthy, R. (1987) Categories of Knowledge. Further Fractionations and an Attempted Integration. In: Brain (110) S. 1273 - 1296. Waters, G./Seidenberg, M. (1985) Speeling-Sound Effects in Reading: Time Course and Decision Criteria. Memory and Cognition (13) S. 557 - 572. Webster, J. S./Mccaffrey, R./Scott, R. R. (1986) Single Case Design for Neuropsychology. In: Wedding, D./MacNeill Horton, A./Webster, J. (Hrsg.) The Neuropsychology Handbook: Behavioral and Clinical Perspectives. New York. S. 219 - 258. Wedding, D./MacNeill Horton, A./Webster, J. (1986) (Hrsg.) The Neuropsychology Handbook: Behavioral and Clinical Perspectives. New York. Weigl, E. (1972) Zur Schriftsprache und ihrem Erwerb - neuropsychologische und psycholinguistische Betrachtungen. Probl. Ergebn. Psychol. (43) S. 45 - 105. (1974) Neuropsychological Experiments on the Transcoding between Spoken and Written Language Structures. Brain and Language (1) S. 227 - 240. (1976) Schriftsprache als besondere Form des Sprach Verhaltens. In: Hofer, A. (Hrsg.) Lesenlernen: Theorie und Unterricht. Düsseldorf. S. 82 - 98. Wernicke, C. (1874) Der aphasische Symptomencomplex. Breslau. (Reprint 1974). (1886a) Nervenheilkunde. Die neueren Arbeiten über Aphasie. Fortschritte der Medicin (4) 371 - 377. (1886b) Nervenheilkunde. Die neueren Arbeiten über Aphasie. Fortschritte der Medicin (4) S. 463 - 482. Wessels, M. (1990) Kognitive Psychologie. München. Wood, C. (1978) Variations on a Theme of Lashley: Lesion Experiments on the Neural Model of Anderson, Silverstein, Ritz & Jones. In: Psychological Review (85) S. 582 - 591. (1982) Implications of Simulated Lesion Experiments for the Interpretation of Lesions in Real Nervous Systems. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. Yoshizaki, K./Hatta, T. (1987) Shift for Visual Field Advantage by Learning Experience of Foreign Words. In: Neuropsychologia (25) S. 589 - 592. Young, R. (1990) Mind, Brain and Adaption in the Nineteenth Century. Oxford. Young, A./Bion, P./Ellis, A. (1980) Studies towards a Model of Laterality Effects for Picture and Word Naming. In: Brain and Language (11) S. 54- 65. Zaidel, E. (1979) Lexical Organisation in the Right Hemisphere. In: Buser, P./Rougeul-Buser, A. (Hrsg.) Cerebral Correlates of Conscious Experience. Amsterdam. S. 177 - 198. (1982) Reading by the Disconnected Right Hemisphere: An Aphasiology Perspective. In: Zotterman, Y. (Hrsg.) Dyslexia: Neuronal, Cognitive and Linguistic Aspects. Oxford. -
(1989) Hemispheric Independence and Interaction in Word Recognition. In: Euler, C.v./Lundberg, I./Lennerstrand, G. (Hrsg.) Brain and Reading. Stockholm. S. 77 - 97. Zangwill, O. (1966) Psychological Deficits Associated with Frontal Lobe Lesions. International Journal of Neurology (5) S. 395 - 402. Zurif, E. (1982) The Use of Data from Aphasia in Constructing a Performance Model of Language. In: Arbib, M./Caplan, D./Marshall, J. (Hrsg.) Neural Models of Language Processes. New York. S. 203 - 208.